JP2006053622A - Document link information acquisition system - Google Patents

Document link information acquisition system Download PDF

Info

Publication number
JP2006053622A
JP2006053622A JP2004232891A JP2004232891A JP2006053622A JP 2006053622 A JP2006053622 A JP 2006053622A JP 2004232891 A JP2004232891 A JP 2004232891A JP 2004232891 A JP2004232891 A JP 2004232891A JP 2006053622 A JP2006053622 A JP 2006053622A
Authority
JP
Japan
Prior art keywords
link information
unit
character
link
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004232891A
Other languages
Japanese (ja)
Other versions
JP4474231B2 (en
JP2006053622A5 (en
Inventor
Hisao Ogata
日佐男 緒方
Tsukasa Yasue
司 安江
Teruyuki Yamaguchi
輝幸 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Omron Terminal Solutions Corp
Original Assignee
Hitachi Omron Terminal Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Omron Terminal Solutions Corp filed Critical Hitachi Omron Terminal Solutions Corp
Priority to JP2004232891A priority Critical patent/JP4474231B2/en
Publication of JP2006053622A publication Critical patent/JP2006053622A/en
Publication of JP2006053622A5 publication Critical patent/JP2006053622A5/ja
Application granted granted Critical
Publication of JP4474231B2 publication Critical patent/JP4474231B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide link information associated with a document from an image including a part of the document acquired by a portable information terminal. <P>SOLUTION: This document link information acquisition system is provided with a storage device holding a sentence consisting of words and the link information concerned with the sentence in association with each other and storing a translation dictionary holding associated arrangement information of the respective words included in the sentence, a character recognition part performing character recognition processing on a target word pattern designated by a user and on a word pattern around the target word pattern from an image taken by an image photographing part for outputting a character code of the word pattern, an extraction part extracting the relative arrangement information about the target word pattern designated by the user and the word pattern around the target word pattern, and a search part searching a database holding the associated link information about the sentence by using the character code obtained by the character recognition part and the relative arrangement information obtained by the extraction part about the target word pattern and the word pattern around the target word pattern. A result acquired by referring to the link information obtained by the search part is displayed on a display part. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は文書リンク情報システムに係り、特に携帯情報端末で撮影した画像に含まれる文字を認識してその関連リンク情報を得る文書リンク情報システム及び関連リンク情報の取得処理方法に関するものである。   The present invention relates to a document link information system, and more particularly to a document link information system that obtains related link information by recognizing characters included in an image captured by a portable information terminal and a related link information acquisition processing method.

カメラを搭載した携帯電話等の携帯端末で撮影した画像に含まれる文字列の文字を認識して、その認識結果である文字テキストを翻訳する技術が種々提案されている。例えば、特許文献1(特開平09−138802号公報)には、携帯端末内部に文字認識機能と翻訳機能を持ち、これらの機能を利用して、カメラで撮影した画像内の文字列を認識、翻訳処理する翻訳システムが開示されている。   Various techniques for recognizing characters in a character string included in an image taken by a portable terminal such as a mobile phone equipped with a camera and translating the character text as a recognition result have been proposed. For example, Patent Document 1 (Japanese Patent Application Laid-Open No. 09-138802) has a character recognition function and a translation function inside a portable terminal, and uses these functions to recognize a character string in an image taken by a camera. A translation system for translation processing is disclosed.

また、カメラを搭載した携帯電話等の携帯端末で撮影した画像に対する認識技術応用サービスとして、紙面上に印刷された2次元コードをカメラで読取り、コードに含まれるURL等のリンク情報を取得してリンク先のWEBサイトにアクセスしたり、サイトからデータを取得できることが知られている。特に日本のカメラ付き携帯電話機では2次元コードの認識ソフトが搭載され、雑誌や広告などの紙面上に印刷された2次元コードを電話機搭載のカメラで読取り、そのコードの中に格納されたURL等のリンク情報を取得してWEBサーバに接続するサービスが一般的に行われている。   In addition, as a recognition technology application service for images taken with a mobile terminal such as a mobile phone equipped with a camera, a two-dimensional code printed on paper is read with a camera and link information such as a URL included in the code is acquired. It is known that a linked WEB site can be accessed and data can be acquired from the site. Especially in Japanese camera-equipped mobile phones, 2D code recognition software is installed, and 2D codes printed on paper such as magazines and advertisements are read by the phone's camera and the URL stored in the code etc. In general, a service for acquiring link information and connecting to a WEB server is performed.

あるいは、OCR(Optical Character Reader、光学文字読取り装置)のソフトをカメラ付き携帯電話機に搭載し、URL文字列の画像をカメラで撮影した後に文字認識してWEBサーバにアクセスする機能が電話機に搭載されている。   Alternatively, the OCR (Optical Character Reader) software is installed in the camera-equipped mobile phone, the URL character string image is taken by the camera, and then the function of recognizing the character and accessing the WEB server is installed in the phone. ing.

特開平09−138802号公報JP 09-138802 A

このように2次元コードを紙面に印刷することにより、カメラ付き情報端末を介して紙面の情報とWEBというインターネットの情報を結びつけることが可能になる。しかし、2次元コードを紙面に印刷しようとすると、紙面上で印刷スペースを確保できなかったり、2次元コードの独特なパターンとその大きさから紙面レイアウトを損ねるとして、その印刷が敬遠される傾向があった。   By printing the two-dimensional code on the paper in this way, it becomes possible to link the information on the paper and the information on the Internet called WEB via the information terminal with camera. However, if you try to print a 2D code on paper, you may not be able to secure a printing space on the paper, or the printing will tend to be avoided if the layout of the paper is damaged due to the unique pattern and size of the 2D code. there were.

URL文字列が紙面に印刷されている時には、そのURLを手入力することで紙面の関連WEBサイトを参照することができるが、URLの文字列を入力するのは利用者の負担が非常に大きい。一方、URLをカメラ撮影して画像を文字認識することで、利用者のURL入力負担を減らすことは可能である。しかし、カメラ解像度の関係上、URL認識時は手ぶれの影響が大きい接写モードで撮影する必要があり、カメラをURL文字列に安定して合わせることが困難であり利用者に対してなお多大な負担を強いていた。   When a URL character string is printed on a page, it is possible to refer to a related WEB site on the page by manually entering the URL. However, it is very burdensome for the user to input the URL character string. . On the other hand, it is possible to reduce a user's burden of inputting a URL by photographing the URL with a camera and recognizing the character of the image. However, due to camera resolution, it is necessary to shoot in the close-up mode, which is greatly influenced by camera shake when recognizing the URL, and it is difficult to stably match the camera to the URL character string, and still a great burden on the user. I was forced to.

加えて、撮影後も電話機の利用者が認識した文字列を目視確認した上で誤読文字を発見した場合にそれを修正する必要がある。誤読文字を修正しないままURLをアクセスすると、正しくそのサイトに行くことができないので注意して確認する必要があり、この作業も利用者の負担を大きくしていた。   In addition, it is necessary to correct a misread character when a character string recognized by the user of the telephone is visually confirmed after photographing and then found. If a URL is accessed without correcting misread characters, the site cannot be correctly accessed, so it is necessary to check carefully, and this work also increases the burden on the user.

本発明の目的は、携帯情報端末で文書の一部をカメラで撮影し、撮影された画像に含まれる文字列が文書中のどの場所に存在するかを特定し、その場所に関連付けられているURL等のリンク情報を取得することができる文書リンク情報取得システム、およびリンク情報取得方法を提供することにある。すなわち、2次元コード等の特別なコードやURL等のリンク情報を表す文字列を紙面に印刷することなしに、紙面で文字が印刷された任意の場所にリンク情報を付加することができるシステムと方法を提供することにある。   An object of the present invention is to shoot a part of a document with a camera using a portable information terminal, identify a location in the document where a character string included in the captured image exists, and associate the location with the location. An object of the present invention is to provide a document link information acquisition system and a link information acquisition method capable of acquiring link information such as a URL. That is, a system capable of adding link information to an arbitrary place where characters are printed on a paper without printing a special character code such as a two-dimensional code or a character string representing link information such as a URL on the paper. It is to provide a method.

本発明は、画像撮影部と、利用者に操作されて情報を入力する入力部と、表示部を有する携帯情報端末を用いて、該画像撮影部で撮影された画像に含まれる文字に関連付けられたリンク情報を得て、そのリンク情報を参照してリンク先のデータを該表示部に表示する文書リンク情報取得システムにおいて、単語からなる文と該文に関連するリンク情報を対応付けて保持すると共に、該文に含まれる各単語の配置情報を関連付けて保持する文書リンク情報データベースを格納する記憶装置と、該画像撮影部で撮影された画像から利用者により指定された着目単語パターンとその着目単語パターンの周辺の単語パターンを対象として文字認識処理を行い、該単語パターンの文字コードを出力する文字認識部と、利用者により指定された着目単語パターンと該着目単語パターンの周辺の単語パターンに関して相対的な配置情報を抽出する抽出部と、該着目単語パターンと該着目単語パターンの周辺の単語パターンに関して、該文字認識部より得られた該文字コードと、該抽出部より得られた該相対的な配置情報を用いて該文書リンク情報データベースを検索する検索部と、を有し、該検索部より得られたリンク情報を参照してリンク先のデータを該表示部に表示することを特徴とする文書リンク情報取得システムである。
好ましくは、前記文書リンク情報データベース部は、英文とそのリンクデータを対応付けて格納する。
The present invention relates to a character included in an image photographed by the image photographing unit using a portable information terminal having an image photographing unit, an input unit that is operated by a user to input information, and a display unit. In a document link information acquisition system that obtains link information and refers to the link information and displays link destination data on the display unit, a sentence composed of words and link information related to the sentence are stored in association with each other. In addition, a storage device that stores a document link information database that associates and holds arrangement information of each word included in the sentence, a focused word pattern specified by the user from an image captured by the image capturing unit, and the focused A character recognition unit that performs character recognition processing on a word pattern around the word pattern and outputs a character code of the word pattern, and a target word pattern specified by the user And an extraction unit that extracts relative arrangement information about the word pattern around the target word pattern and the word recognition unit obtained about the word pattern around the target word pattern and the target word pattern. A search unit that searches the document link information database using the character code and the relative arrangement information obtained from the extraction unit, and links with reference to the link information obtained from the search unit The document link information acquisition system is characterized in that the previous data is displayed on the display unit.
Preferably, the document link information database unit stores an English sentence and its link data in association with each other.

また、他の好ましい例では、文書リンク情報データベース部は、スペースで区切られた単語からなる文と該文に関連するリンク情報を対応付けて格納する。   In another preferred example, the document link information database unit stores a sentence composed of words separated by spaces and link information related to the sentence in association with each other.

上記相対的な配置情報は、一例によれば、利用者により指定された着目単語パターンの矩形重心から着目単語パターンの各周辺単語パターンの矩形重心に線分を引きその線分間の角度である。   According to an example, the relative arrangement information is an angle of a line segment drawn from the rectangular centroid of the focused word pattern specified by the user to the rectangular centroid of each peripheral word pattern of the focused word pattern.

また、他の例では、上記相対的な配置情報は、利用者により指定された着目単語パターンが含まれる行、および、着目単語パターンの各周辺単語パターンが含まれる行の相対的な配置情報である。   In another example, the relative arrangement information is relative arrangement information of a line including a target word pattern specified by a user and a line including each peripheral word pattern of the target word pattern. is there.

また、他の好ましい例における、本発明に係る文書リンク情報取得システムは、画像撮影部と、利用者に操作されて情報を入力する入力部と、該画像撮影部で撮影された画像に含まれる文字に関連付けられたリンク情報を得るための処理を行うリンク情報取得部と、該リンク情報取得部により得られたリンク情報を参照してリンク先のデータを表示する表示部を有する携帯情報端末を用いた文書リンク情報取得システムにおいて、文書中の各文に関連するリンク情報を対応付けて格納すると共に、
各文に含まれる各形態素の配置情報を関連付けて保持する文書リンク情報データベースを格納する記憶装置と、該画像撮影部で撮影された画像から利用者により指定された着目形態素パターンとその着目形態素パターンの周辺の形態素パターンに関して文字認識処理を行い、各形態素の文字コードを出力する文字認識部と、
利用者により指定された着目形態素パターンと該着目形態素パターンの周辺に存在する形態素パターンに関して相対的な配置情報を抽出する抽出部と、該着目形態素パターンと該着目形態素パターンの周辺に存在する形態素パターンに関して、該文字認識部より得られた文字コードと、該抽出部より得られた該相対的な配置情報を用いて該文書リンク情報データベースを検索する検索部と、を有し、該検索部より得られたリンク情報を参照してリンク先のデータを該表示部に表示することを特徴とする文書リンク情報取得システムである。
In another preferable example, the document link information acquisition system according to the present invention is included in an image capturing unit, an input unit that is operated by a user to input information, and an image captured by the image capturing unit. A portable information terminal having a link information acquisition unit that performs processing for obtaining link information associated with characters, and a display unit that displays link destination data with reference to the link information obtained by the link information acquisition unit In the document link information acquisition system used, the link information related to each sentence in the document is stored in association with each other,
A storage device that stores a document link information database that associates and holds arrangement information of each morpheme included in each sentence, a focused morpheme pattern designated by the user from an image captured by the image capturing unit, and the focused morpheme pattern A character recognition unit that performs character recognition processing on the surrounding morpheme patterns and outputs a character code of each morpheme,
An extraction unit that extracts relative arrangement information regarding a morpheme pattern specified by the user and a morpheme pattern existing around the morpheme pattern of interest, and a morpheme pattern existing around the morpheme pattern of interest and the morpheme pattern of interest A search unit that searches the document link information database using the character code obtained from the character recognition unit and the relative arrangement information obtained from the extraction unit, and from the search unit A document link information acquisition system that displays link destination data on the display unit with reference to the obtained link information.

また、更に他の好ましい例における、本発明に係る文書リンク情報取得システムは、画像撮影部と、利用者に操作されて情報を入力する入力部と、表示部を有する携帯情報端末を用いて、該画像撮影部で撮影された画像に含まれる文字に関連付けられたリンク情報を得て、そのリンク情報を参照してリンク先のデータを該表示部に表示する文書リンク情報取得システムにおいて、単語からなる文と該文に関連するリンク情報を対応付けて保持すると共に、該文に含まれる各文字の配置情報を関連付けて保持する文書リンク情報データベースを格納する記憶装置と、該画像撮影部で撮影された画像から利用者により指定された着目文字パターンとその着目文字パターンの周辺の文字パターンを対象として文字認識処理を行い、該文字パターンの文字コードを出力する文字認識部と、利用者により指定された着目文字パターンと該着目文字パターンの周辺の文字パターンに関して相対的な配置情報を抽出する抽出部と、該着目文字パターンと該着目文字パターンの周辺の文字パターンに関して、該文字認識部より得られた該文字コードと該抽出部より得られた該相対的な配置情報を用いて、該文書リンク情報データベースを検索する検索部と、
を有し、該検索部より得られたリンク情報を参照してリンク先のデータを該表示部に表示するする文書リンク情報取得システムである。
In still another preferred example, the document link information acquisition system according to the present invention uses an image capturing unit, an input unit that is operated by a user to input information, and a portable information terminal having a display unit. In a document link information acquisition system that obtains link information associated with characters included in an image photographed by the image photographing unit and displays link destination data on the display unit with reference to the link information, the word information A storage device that stores a document link information database that holds the link information related to the sentence and the link information related to the sentence in association with each other and holds the arrangement information of each character included in the sentence, and the image capturing unit Character recognition processing is performed on the target character pattern designated by the user from the image and the character pattern around the target character pattern, and the character pattern A character recognition unit that outputs a character code; an extraction unit that extracts relative arrangement information regarding a target character pattern designated by a user and a character pattern around the target character pattern; and the target character pattern and the target character A search unit that searches the document link information database using the character code obtained from the character recognition unit and the relative arrangement information obtained from the extraction unit with respect to a character pattern around the pattern;
The document link information acquisition system displays the link destination data on the display unit with reference to the link information obtained from the search unit.

本発明はまた、上記文書リンク情報取得システムに関する他の例として、前記文書リンク情報データベースを格納する記憶装置、及び前記検索部を備えるサーバを有する文書リンク情報取得システムであって、該携帯情報端末の該文字認識部より得られた該文字コードと、該抽出部より得られた該相対的な配置情報を、ネットワークを介して該サーバに送信し、該サーバにおいて該検索部により該文書リンク情報データベースを検索した結果得られたリンク情報を、該ネットワークを介して該携帯情報端末に送信する。   As another example of the document link information acquisition system, the present invention is a document link information acquisition system including a storage device that stores the document link information database and a server that includes the search unit, and the portable information terminal The character code obtained from the character recognition unit and the relative arrangement information obtained from the extraction unit are transmitted to the server via a network, and the document link information is transmitted by the search unit in the server. Link information obtained as a result of searching the database is transmitted to the portable information terminal via the network.

更に、他の例として、前記文字認識部、前記抽出部、前記翻訳辞書を格納する記憶装置、及び前記検索部を備えるサーバを有する文書リンク情報取得システムであって、携帯情報端末の画像撮影部より得られた画像をネットワークを介してサーバに送信し、サーバにおいて検索部により該文書リンク情報データベースを検索した結果得られたリンク情報を、ネットワークを介して携帯情報端末に送信する。   Furthermore, as another example, there is provided a document link information acquisition system including a server including the character recognition unit, the extraction unit, a storage device that stores the translation dictionary, and the search unit, and an image photographing unit of a portable information terminal The obtained image is transmitted to the server via the network, and the link information obtained as a result of searching the document link information database by the search unit in the server is transmitted to the portable information terminal via the network.

好ましい例では、この文書リンク情報取得システムにおける前記文書リンク情報データベースは、単語が含まれる文を検索するための単語インデックス部と、該文に含まれる単語の幾何学情報と単語の文字コードを格納した文データ格納部と、各文に関連するリンク情報を格納したリンク情報格納部を有する。   In a preferred example, the document link information database in the document link information acquisition system stores a word index part for searching a sentence including a word, geometric information of a word included in the sentence, and a character code of the word. And a link information storage unit that stores link information related to each sentence.

本発明は、また上記文書リンク情報取得システムにおいて使用される特徴的な携帯情報端末、又はサーバとして把握される。
更に本発明は、上記文書リンク情報取得システムにおいて、前記抽出部の機能を実現するためのコンピュータ上で実行可能なプログラムとして把握される。
The present invention is also understood as a characteristic portable information terminal or server used in the document link information acquisition system.
Furthermore, in the document link information acquisition system, the present invention is grasped as a program executable on a computer for realizing the function of the extraction unit.

更に本発明は、文書リンク情報取得方法として把握される。例えば、画像撮影部と、利用者に操作されて情報を入力する入力部と、表示部を有する携帯情報端末を用いて、該画像撮影部で撮影された画像に含まれる文字に関連付けられたリンク情報を得て、そのリンク情報を参照してリンク先のデータを該表示部に表示する文書リンク情報取得方法において、単語からなる文と該文に関連するリンク情報を対応付けて保持すると共に、該文に含まれる各文字の配置情報を関連付けて保持する文書リンク情報データベースを記憶装置内に予め用意するステップと、該画像撮影部で撮影された画像から利用者により指定された着目文字パターンとその着目文字パターンの周辺の文字パターンを対象として文字認識処理を行い、該文字パターンの文字コードを出力するステップと、利用者により指定された着目文字パターンと該着目文字パターンの周辺の文字パターンに関して相対的な配置情報を抽出するステップと、該着目文字パターンと該着目文字パターンの周辺の文字パターンに関して、該文字認識部より得られた該文字コードと該抽出部より得られた該相対的な配置情報を用いて、該文書リンク情報データベースを検索するステップと、該検索の結果得られたリンク情報を参照してリンク先のデータを該表示部に表示するステップと、を有する文書リンク情報取得方法である。
好ましい例では、該文書リンク情報データベースの検索の結果、該着目文字パターンを含む1又は複数のリンク情報の候補となる文を該表示部に表示するステップと、複数の候補の場合、該複数の候補の中から利用者により該入力部を介して指定された候補に対応するリンク情報を参照してリンク先のデータを該文書リンク情報データベースから得るステップと、を更に有し、該文書リンク情報データベースから得られたリンク先のデータと該文とを対応させて該表示部に表示するする。
Furthermore, the present invention is grasped as a document link information acquisition method. For example, a link associated with characters included in an image photographed by the image photographing unit using a portable information terminal having an image photographing unit, an input unit operated by a user to input information, and a display unit In the document link information acquisition method for obtaining information and referring to the link information and displaying the link destination data on the display unit, the sentence composed of words and the link information related to the sentence are held in association with each other, A step of preparing a document link information database in association with the arrangement information of each character included in the sentence in a storage device, and a target character pattern designated by a user from an image photographed by the image photographing unit; A step of performing character recognition processing on a character pattern around the target character pattern and outputting a character code of the character pattern, and a call specified by the user A step of extracting relative arrangement information regarding a character pattern and a character pattern around the character pattern of interest, and the character obtained by the character recognition unit with respect to the character pattern around the character pattern of interest and the character pattern of interest. A step of searching the document link information database using the code and the relative arrangement information obtained from the extraction unit, and displaying the link destination data with reference to the link information obtained as a result of the search A document link information acquisition method.
In a preferred example, as a result of searching the document link information database, a step of displaying a sentence that is one or more link information candidates including the character pattern of interest on the display unit; Obtaining link destination data from the document link information database by referring to link information corresponding to the candidate designated by the user via the input unit from among the candidates, the document link information The link destination data obtained from the database and the sentence are displayed in correspondence with each other.

本発明によれば、2次元コード等の特別なコードやURL等のリンク情報を表す文字列を紙面に印刷することなしに、紙面上の文書に関連付けられたリンク情報を取得して、さらに、取得したリンク情報を参照してリンク先のデータを得ることが可能である。また、リンク情報の参照対象とする文全体をカメラで撮影する必要がなく、文の一部を撮影した部分画像に含まれる単語と単語の配置情報を利用して、該文に関連するリンク情報、および、リンク情報を参照してリンク先のデータを得ることができる。
これにより、従来のように2次元コード等の特別なコードやURL等のリンク情報を表す文字列を紙面に印刷する場合に比べて紙面のレイアウトの自由度が大きくなる。さらに、文全体を撮影する場合に比べて、撮影された画像はリンク情報参照対象文の任意の一部を含んでいれば良いので、撮影の自由度が大きくなり、利用者の使い勝手が大幅に向上する。
According to the present invention, without printing a special character string such as a two-dimensional code or a character string representing link information such as a URL on a paper surface, link information associated with a document on the paper surface is acquired, It is possible to obtain link destination data by referring to the acquired link information. In addition, it is not necessary to photograph the entire sentence to be referred to for link information with a camera, and link information related to the sentence by using words and word arrangement information included in a partial image obtained by photographing a part of the sentence. The link destination data can be obtained by referring to the link information.
As a result, the degree of freedom of the layout of the paper is increased as compared to the case where a character string representing link information such as a special code such as a two-dimensional code or URL or the like is printed on the paper. Furthermore, compared to shooting the entire sentence, the captured image only needs to include any part of the link information reference target sentence, so the degree of freedom of shooting is increased and the usability for the user is greatly increased. improves.

以下、図面を参照して本発明の実施形態について、説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

第1の実施形態では、英文に関連付けられたリンク情報取得システムについて示す。予め紙面に印刷された文書と同じ内容の文書データベースを電子的に保持しておき、参照したい文のテキストを用いて文書データベースを全文検索して参照文の記載場所を特定することは可能である。そして、検索して特定された文に対してリンクを付与してあれば、すなわち、文書データベースがハイパーテキスト化されていれば、検索された文に対応するリンクを参照してリンク先のデータを取得することが可能になる。そこで、参照したい文全体をカメラで撮影して文字認識し認識結果のテキストを用いて文書データベースを検索しようとすると、画像歪み等の諸要因により誤読が発生し、正しくテキストを入力することは困難である。   The first embodiment shows a link information acquisition system associated with English sentences. It is possible to electronically hold a document database with the same content as a document printed on paper in advance, and to search the document database using the text of the sentence that you want to refer to and specify the location of the reference sentence . If a link is given to the sentence specified by the search, that is, if the document database is converted into hypertext, the link data corresponding to the searched sentence is referred to It becomes possible to acquire. Therefore, if you try to search the document database using the recognition result text by photographing the entire sentence you want to refer to with the camera, misreading occurs due to various factors such as image distortion, and it is difficult to input the text correctly. It is.

そこで、利用者が、参照対象とする英文全体或いは任意の複数の文章全体ではなく、参照対象に含まれる一部の単語を含む画像(部分画像)をカメラで撮影すると、その部分画像に含まれる単語は文字認識された後、その単語をキーにしてデータベースに格納されているリンク参照対象の英文を検索する。さらに、検索結果の英文と対応付けられているリンク情報を検索してリンク先のデータを画面に表示することで、文単位のリンク情報を取得するものである。   Therefore, when a user captures an image (partial image) including a part of words included in the reference object, instead of the entire English sentence or any arbitrary plurality of sentences to be referred to, it is included in the partial image. After a word is recognized, the link reference target English sentence stored in the database is searched using the word as a key. Further, the link information associated with the English text of the search result is searched, and the link destination data is displayed on the screen to acquire the link information for each sentence.

また、本実施形態においては、その部分画像をキーにしてデータベースに格納されている参照対象の英文を検索するために、英文に含まれる各文字の配置情報も併せてデータベースに予め格納される。その後、撮影された部分画像に含まれる単語の文字コードと配置情報を文字認識処理によって抽出する。その抽出された単語の文字コードと配置情報に関して、データベースに格納されている英文の単語の文字コードと配置情報を検索する。その検索の結果、抽出された英文の単語の配置情報に最も類似した配置の単語を含む英文テキストをデータベースから検索して取得する。そしてその後、検索された英文に対応付けて格納されているリンク情報を取得する。   In the present embodiment, in order to search for a reference English sentence stored in the database using the partial image as a key, arrangement information of each character included in the English sentence is also stored in advance in the database. Thereafter, the character code and the arrangement information of the word included in the taken partial image are extracted by the character recognition process. With respect to the character code and arrangement information of the extracted word, the character code and arrangement information of the English word stored in the database are searched. As a result of the search, the English text including the word with the most similar arrangement to the extracted English word arrangement information is retrieved from the database and acquired. After that, the link information stored in association with the searched English sentence is acquired.

使用される配置情報は、撮影の角度やスケールになるべく依存しない情報が望ましい。例えば、各単語が含まれる行の相対的な配置情報や角度情報である。あるいは、文字や背景の色情報や文字サイズ、さらに、罫線レイアウトや罫線と文字との相対配置関係等も使用することも可能である。
単語の配置情報の例として、部分画像に含まれる単語の相対的な位置関係を表す角度情報を抽出する手順に関しては、例えば、利用者が指定する着目単語”as”と着目単語の上下左右など周りに存在する複数の単語(以下では周辺単語と呼ぶ)に関して文字認識処理により単語の文字コードと各単語の矩形重心座標をそれぞれ抽出する。その後、着目単語の矩形重心から各周辺単語の矩形重心に線分1101〜1105を引きその線分間の角度1106〜1110を計算する。この角度計算は任意の周辺単語重心間について計算してよい。この重心間角度は画像のスケールに依存しないので安定した配置情報となりうる。(これらについては、図11を参照して詳しく後述される。)
以下、図1〜14を参照して第1の実施形態について詳細に説明する。
The arrangement information used is preferably information that does not depend on the shooting angle and scale as much as possible. For example, it is relative arrangement information and angle information of a line including each word. Alternatively, it is also possible to use character and background color information, character size, ruled line layout, and relative arrangement relationship between ruled lines and characters.
As an example of the word arrangement information, regarding the procedure for extracting angle information representing the relative positional relationship between words included in the partial image, for example, the attention word “as” specified by the user, the up / down / left / right of the attention word, etc. With respect to a plurality of surrounding words (hereinafter referred to as neighboring words), the character code of the word and the rectangular barycentric coordinates of each word are extracted by character recognition processing. Thereafter, line segments 1101 to 1105 are drawn from the rectangular centroid of the word of interest to the rectangular centroids of the surrounding words, and angles 1106 to 1110 of the line segments are calculated. This angle calculation may be performed between any neighboring word centroids. Since the angle between the centers of gravity does not depend on the scale of the image, it can be stable arrangement information. (These will be described in detail later with reference to FIG. 11).
Hereinafter, the first embodiment will be described in detail with reference to FIGS.

第1の実施形態は、上記の機能乃至構成を携帯情報端末において実現するシステムの例である。   The first embodiment is an example of a system that realizes the above functions and configurations in a portable information terminal.

図1は、携帯情報端末の構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration example of a portable information terminal.

携帯情報端末100は例えば携帯電話であり、その本体は、認識対象となる英語の教科書等を光学的に入力するカメラやスキャナなどの画像撮影部110と、認識対象の画像や文字認識結果、カーソル172等を表示する液晶などの表示部120と、利用者がキー操作して情報を入力するキー174〜179を配置した入力部130を備えている。更にその内部の構成として、携帯情報端末の全体の制御を行なう端末制御部140、画像撮影部110から得られた画像に含まれる単語等の認識を行なう文字認識部150、文字認識結果を用いて英文に対応するリンクデータを検索するためのリンクDB検索部160、様々な処理結果データやデータベースを格納するためのメモリ180を有する。   The portable information terminal 100 is, for example, a mobile phone, and its main body includes an image photographing unit 110 such as a camera or a scanner that optically inputs an English textbook to be recognized, a recognition target image or character recognition result, a cursor, and the like. The display unit 120 includes a liquid crystal display unit 120 for displaying 172 and the like, and an input unit 130 on which keys 174 to 179 for inputting information by key operation by a user are arranged. Furthermore, as its internal configuration, a terminal control unit 140 that performs overall control of the portable information terminal, a character recognition unit 150 that recognizes words included in an image obtained from the image photographing unit 110, and a character recognition result are used. A link DB search unit 160 for searching for link data corresponding to English sentences, and a memory 180 for storing various processing result data and databases.

端末制御部140は、通信制御部141、画像撮影部110を制御するためのカメラ制御部142、入力部130を制御するためのキー入力制御部143、表示部120を制御するための表示制御部144、文字認識部150やリンクDB検索部160を制御するための文字認識/リンクDB検索制御部145から構成される。文字認識部150は入力された画像から各単語の矩形座標を抽出するための単語矩形座標抽出部151、単語矩形座標抽出部151の出力に基づいて入力画像の矩形座標内の単語認識を行う単語認識部152を有して構成される。   The terminal control unit 140 includes a communication control unit 141, a camera control unit 142 for controlling the image capturing unit 110, a key input control unit 143 for controlling the input unit 130, and a display control unit for controlling the display unit 120. 144, a character recognition / link DB search control unit 145 for controlling the character recognition unit 150 and the link DB search unit 160. The character recognition unit 150 performs word recognition within the rectangular coordinates of the input image based on the output of the word rectangular coordinate extraction unit 151 and the word rectangular coordinate extraction unit 151 for extracting the rectangular coordinates of each word from the input image. A recognition unit 152 is included.

メモリ180は、入力部130の操作により取り込まれた画像データ181、文字認識部150による認識結果を格納する単語認識結果データ182、リンクDB検索部160の出力を格納するリンク参照候補文検索結果データ183、及び撮影対象とする英文の文書と各英文に対応したリンクデータを格納するリンクDB(データベース)184、リンクデータを参照した結果を格納するリンク参照データ185を格納する。リンクDB184には英文に含まれる各単語の配置情報も併せて格納される。   The memory 180 includes image data 181 captured by the operation of the input unit 130, word recognition result data 182 storing a recognition result by the character recognition unit 150, and link reference candidate sentence search result data storing an output of the link DB search unit 160. 183, a link DB (database) 184 that stores English documents to be photographed and link data corresponding to each English sentence, and link reference data 185 that stores the result of referring to the link data. The link DB 184 also stores arrangement information of each word included in the English sentence.

尚、ここで、文字認識部150、リンクDB検索部160はソフトウェアの実行により実現される機能であってもよい。   Here, the character recognition unit 150 and the link DB search unit 160 may be functions realized by executing software.

リンクDB184は、リンクDBがプレインストールされたROMが携帯情報端末100に実装されたことを前提にしてもよい。またはこのリンクDBを格納したSD(Secure Digital)カードなどのメモリ媒体を購入して、そのSDカードからリンクDBをメモリ180のリンクDB184にインストールすることを想定してもよい。また、リンクDB184は半導体メモリのような静的記憶装置に限らず、ハードディスク装置のような記憶装置に格納されてもよい。   The link DB 184 may be based on the assumption that the ROM in which the link DB is preinstalled is mounted on the portable information terminal 100. Alternatively, it may be assumed that a memory medium such as an SD (Secure Digital) card storing the link DB is purchased and the link DB is installed in the link DB 184 of the memory 180 from the SD card. The link DB 184 is not limited to a static storage device such as a semiconductor memory, and may be stored in a storage device such as a hard disk device.

図2は携帯端末とリンクデータ参照先のデータが格納されているWEBサーバ202がネットワーク201で接続されている構成を示している。WEBサーバ202をアクセスして得られたデータはリンク参照データ185に格納される。   FIG. 2 shows a configuration in which a mobile terminal and a WEB server 202 storing link data reference destination data are connected via a network 201. Data obtained by accessing the WEB server 202 is stored in the link reference data 185.

次に、図3に示す一連の処理フローを参照して、各英文に関連付けられたリンクデータをアクセス・参照する動作について説明する。   Next, an operation for accessing and referring to link data associated with each English sentence will be described with reference to a series of processing flows shown in FIG.

なお、図3による全体的な処理動作の説明において、各動作の詳細な説明については更に図4以降の図を参照することがある。   In the description of the overall processing operation according to FIG. 3, the detailed description of each operation may be further referred to FIG.

まず、利用者は携帯情報端末100の画像撮影部110を用いて文字認識対象となる雑誌や本等の画像を撮影する。撮影された画像はメモリ180中の画像データ181の領域にデジタル画像として格納される(301)。   First, the user uses the image capturing unit 110 of the portable information terminal 100 to capture an image of a magazine or book that is a character recognition target. The photographed image is stored as a digital image in the area of the image data 181 in the memory 180 (301).

図4にリンクデータ参照対象の英文文書の例を示す。右上に「P24」とページ番号が付されている。401で囲まれた部分は、画像撮影部110で撮影された画像の範囲を示し、画像データ181に格納される。この画像データ181が文字認識部150に入力される画像の範囲である。なお、この例では3行目の”To meet”で始まり5行目の”quality products.”で終わる2番目の文に関するリンク情報を参照するために画像を取り込むことを仮定する。この文書のリンク情報参照のために、本実施形態では2番目の英文を構成する任意の単語が着目対象となり得る。ここでは図1の表示部120に示すように、着目対象を示す「+」のマーク172は、”as”に重なっていると想定する。   FIG. 4 shows an example of an English document that is a link data reference target. “P24” and the page number are attached in the upper right. A portion surrounded by 401 indicates a range of an image captured by the image capturing unit 110 and is stored in the image data 181. This image data 181 is a range of an image input to the character recognition unit 150. In this example, it is assumed that an image is captured in order to refer to link information relating to the second sentence starting with “To meet” on the third line and ending with “quality products.” On the fifth line. In order to refer to the link information of this document, in the present embodiment, an arbitrary word constituting the second English sentence can be a target of attention. Here, as shown in the display unit 120 of FIG. 1, it is assumed that the “+” mark 172 indicating the target of interest overlaps “as”.

次に、単語矩形座標抽出部151にて、入力された画像から英単語の場所を示す矩形座標が抽出される(302)。ここでは、図5に示すように、着目している”as”501だけでなく、縦方向に見たときに”as”501の矩形とオーバーラップがある上下の行の単語パターン502、503、506、及び横方向に見たときに”as”の矩形とオーバーラップがあり、”as”に隣接している単語パターン504、505についても近傍の単語パターンとして一緒に矩形座標が抽出される。   Next, the rectangular coordinate indicating the location of the English word is extracted from the input image by the word rectangular coordinate extraction unit 151 (302). Here, as shown in FIG. 5, not only “as” 501 of interest, but also word patterns 502, 503 in the upper and lower rows that overlap with the rectangle of “as” 501 when viewed in the vertical direction. When viewed in the horizontal direction 506, there is an overlap with the rectangle "as", and the word patterns 504 and 505 adjacent to "as" are also extracted as the neighboring word patterns together with the rectangular coordinates.

この矩形座標抽出処理302の動作の詳細について、図6を用いて説明する。   Details of the operation of the rectangular coordinate extraction processing 302 will be described with reference to FIG.

画像データ181に格納されている画像401が単語矩形座標抽出部151に入力されると、最初に2値画像が生成される(601)。次に、文字行の大雑把な位置を検出するために、画像の横方向に黒画素を加算して投影分布を求める(602)。   When the image 401 stored in the image data 181 is input to the word rectangular coordinate extraction unit 151, a binary image is first generated (601). Next, in order to detect a rough position of the character line, a black pixel is added in the horizontal direction of the image to obtain a projection distribution (602).

図7は画像情報として含まれる文字行の黒画素投影の算出の原理を示す図である。画像の原点は左上であり、702は画像縦方向の座標軸に相当し、703は横方向の投影分布を表す。この投影分布の算出後、文字行の存在する縦方向座標の範囲を求めるため、非零値の範囲704〜708を計算する(603)。求められた文字行の存在する縦方向座標の範囲で、黒画素が連結した塊である連結成分を求めると共にその外接矩形座標もあわせて計算する。そして、連結成分の外接矩形同士の隙間等を参照しながら距離が近い矩形を横方向に統合し(604)、統合された矩形の座標は単語の矩形座標として単語認識結果データ182に格納される(605)。   FIG. 7 is a diagram showing the principle of calculation of the black pixel projection of a character line included as image information. The origin of the image is at the upper left, 702 corresponds to the coordinate axis in the image vertical direction, and 703 represents the projection distribution in the horizontal direction. After calculating the projection distribution, non-zero value ranges 704 to 708 are calculated in order to obtain the range of the vertical coordinate in which the character line exists (603). In the range of the vertical coordinate where the obtained character line exists, a connected component which is a block in which black pixels are connected is obtained and the circumscribed rectangular coordinates are also calculated. Then, the rectangles close to each other are integrated in the horizontal direction while referring to the gaps between the circumscribed rectangles of the connected components (604), and the coordinates of the integrated rectangles are stored in the word recognition result data 182 as the rectangle coordinates of the word. (605).

図8は単語認識結果データ182の構成例を示す。   FIG. 8 shows a configuration example of the word recognition result data 182.

817から822は各単語のデータレコードを示しており、810は単語の文字コード格納領域、811は矩形左上X座標、812は矩形左上Y座標、813は矩形右下X座標、814は矩形右下Y座標、815は単語が含まれる行の行番号を表す。816は周辺単語と着目単語を区別するための着目単語フラグであり、着目単語に対しては“1”、それ以外の周辺単語は“0”を格納する。ステップ605の処理では、811から816のデータが格納される。   Reference numerals 817 to 822 denote data records of each word, 810 is a character code storage area of the word, 811 is a rectangle upper left X coordinate, 812 is a rectangle upper left Y coordinate, 813 is a rectangle lower right X coordinate, and 814 is a rectangle lower right. Y coordinate 815 represents the line number of the line containing the word. Reference numeral 816 denotes a target word flag for distinguishing between a peripheral word and a target word, and stores “1” for the target word and “0” for other peripheral words. In step 605, data 811 to 816 are stored.

次に、単語認識部152は、抽出された英単語矩形座標501から506に対して抽出された矩形座標内に存在する英単語パターンに関して文字認識処理を行う。具体的には、単語認識結果データ182の811から814の矩形座標データと画像データ181を入力し、認識結果である単語の文字コードを同じ単語認識結果データ182の単語の文字コード格納領域810に出力する(303)。   Next, the word recognition unit 152 performs a character recognition process on the English word pattern existing in the extracted rectangular coordinates with respect to the extracted English word rectangular coordinates 501 to 506. Specifically, the rectangular coordinate data 811 to 814 of the word recognition result data 182 and the image data 181 are input, and the character code of the word as the recognition result is stored in the word character code storage area 810 of the same word recognition result data 182. It outputs (303).

リンクDB検索部160は、単語認識結果データ182の内容を読み出し、リンクDB184に対して、”as”が含まれる英文と対応するリンクデータの検索を行う(304)。”as”など特定の単語が含まれる英文は、一般的に共通のリンクDB184に複数箇所存在する。そのため、複数の英文候補からリンク検索対象英文を絞り込むために、ここでは図5における”as”501の周りに存在する502から506の英単語と”as”501との幾何学的な相対関係を用いる。   The link DB search unit 160 reads the content of the word recognition result data 182 and searches the link DB 184 for link data corresponding to the English sentence including “as” (304). English sentences including specific words such as “as” are generally present in a plurality of locations in the common link DB 184. Therefore, in order to narrow down the link search target English from a plurality of English candidates, the geometrical relative relationship between “as” 501 and the English words 502 to 506 existing around “as” 501 in FIG. Use.

図9はリンクDB184に格納されるデータの構造を示す。   FIG. 9 shows the structure of data stored in the link DB 184.

900は当該単語が含まれる英文を検索するための英単語インデックス部、901は英文に含まれる英単語の幾何学情報と英単語の文字コードを格納した英文データ格納部、902は各英文に対応するリンクデータを格納したリンクデータ格納部である。英単語インデックス部900は高速にリンク参照対象の英文データ901を検索するためのインデックステーブルであり、903は単語の文字コードデータ、904は当該単語が文書中に現れる数、905、906は当該単語が含まれる英文データ格納部901へのポインタである。   900 is an English word index section for searching English sentences including the word, 901 is an English data storage section storing geometric information and English word character codes included in the English words, and 902 corresponds to each English sentence. The link data storage unit stores link data to be stored. The English word index unit 900 is an index table for searching the English data 901 that is the link reference object at high speed, 903 is the character code data of the word, 904 is the number of the word appearing in the document, and 905 and 906 are the word Is a pointer to the English text data storage unit 901 including

英文データ格納部901において、一つの英文を構成する単語データのレコード916から922の各カラムの内容について説明する。910は英文を構成する英単語データである。911、912は英文が含まれる当該ページの左上を原点とした場合の当該英単語の矩形重心座標であり、911はX座標の値、912はY座標の値を示す。これら座標値は任意の解像度、あるいは、適当なスケールを仮定して決定してよい。913、914はそれぞれ当該単語が含まれるページ数、行番号である。915は単語が含まれる行中において左から数えて何番目の単語であるかを示す。922のレコードは英文の終りを示す”.”(ピリオド)とリンクデータ格納部902へのポインタからなっている。リンクデータ格納部902において、923から925は各英文に対応するリンクデータを示す。リンクデータ格納部902へのポインタは文単位に存在し、一つの英文が一つのリンクデータ、本実施例の場合はURL文字列に対応するようにポインタが張られている。   The contents of each column of the word data records 916 to 922 constituting one English sentence in the English data storage unit 901 will be described. Reference numeral 910 denotes English word data constituting an English sentence. Reference numerals 911 and 912 denote the rectangular center-of-gravity coordinates of the English word when the upper left corner of the page containing English text is used as the origin, 911 denotes the X coordinate value, and 912 denotes the Y coordinate value. These coordinate values may be determined assuming an arbitrary resolution or an appropriate scale. Reference numerals 913 and 914 respectively denote the number of pages and the line number in which the word is included. Reference numeral 915 indicates the number of the word counted from the left in the line including the word. The record 922 includes “.” (Period) indicating the end of English text and a pointer to the link data storage unit 902. In the link data storage unit 902, reference numerals 923 to 925 indicate link data corresponding to each English sentence. A pointer to the link data storage unit 902 exists in sentence units, and a pointer is set so that one English sentence corresponds to one link data, in the case of this embodiment, a URL character string.

次に、図10を参照してリンク参照候補文の選択処理動作304の詳細について説明する。   Next, the details of the link reference candidate sentence selection processing operation 304 will be described with reference to FIG.

まず、ステップ303にて抽出された着目単語”as”501の矩形重心から、近傍単語”we”502、”have”503、”resulting”504、”high”505、”create”506の各矩形重心座標に線を引き、その線分間の角度、あるいは、余弦を測定する(1001)。   First, the rectangular centroids of neighboring words “we” 502, “have” 503, “resulting” 504, “high” 505, and “create” 506 are extracted from the rectangular centroid of the focused word “as” 501 extracted in step 303. A line is drawn on the coordinates, and the angle or cosine of the line segment is measured (1001).

図11を用いてこの処理の詳細を説明する。着目単語”as”の矩形重心から、各近傍単語の矩形重心に引いた線分は1101、1102、1103、1104、1105で示される。例えば、近傍単語”we”、”have”に引かれた線分間の角度は1106で示される。以下、同様に各近傍単語の重心に引かれた線分間の角度を計算する。ここで角度を計算するのは、カメラで撮影した画像のスケールや撮影角度と辞書登録時に単語の位置を表すために使用したスケールや撮影角度が一般には異なるため、これらが変わっても変化しにくい幾何学的相対関係を記述する量を抽出するためである。変化しにくい量に相当すれば任意の量を用いることができ、例えば、各単語が属する相対的な行番号でもよい。”we”、”have”は1行目、”resulting”、”as”、”high”は2行目、”create”3行目等である。あるいは、文字や背景の色情報や文字サイズ、さらに、罫線レイアウトや罫線と文字との相対配置関係等も使用することが可能である。   Details of this processing will be described with reference to FIG. Lines drawn from the rectangular centroid of the word of interest “as” to the rectangular centroids of the neighboring words are indicated by 1101, 1102, 1103, 1104, and 1105. For example, an angle between line segments drawn by neighboring words “we” and “have” is indicated by 1106. Hereinafter, similarly, the angle between line segments drawn on the centroid of each neighboring word is calculated. The angle is calculated here because the scale and shooting angle of the image taken with the camera and the scale and shooting angle used to represent the position of the word when registering the dictionary are generally different. This is to extract the amount describing the geometric relative relationship. An arbitrary amount can be used as long as it corresponds to an amount that hardly changes. For example, a relative line number to which each word belongs may be used. “We” and “have” are the first line, “resulting”, “as”, and “high” are the second line, “create” the third line, and the like. Alternatively, it is also possible to use character and background color information, character size, ruled line layout, and relative arrangement relationship between ruled lines and characters.

次に、リンクDB184の英文インデックス部900の”as”レコード908を参照して、英文データ格納部901の”as”が含まれる英文データを検索し、さらにその近傍単語が存在するかを検索する(1002)。具体的には、最初に”as”が含まれるレコード919のデータを参照した後、カラム914の行番号の情報を参照しながら”as”が含まれる行の前後の行に存在する単語の中に入力画像から得られた近傍単語を検索する。検索の結果、近傍単語の数が閾値以上か否かを判定する(1003)。判定の結果、近傍単語の数が閾値以上存在すれば、近傍単語が存在したと見なしてステップ1004に進む。一方、閾値以上でなければ、ステップ1007に進む。ここで、近傍単語を全数見つけるのではなく閾値以上としたのは、誤認識により正しい単語が得られない場合を考慮している。   Next, referring to the “as” record 908 in the English index part 900 of the link DB 184, the English data containing “as” in the English data storage part 901 is searched, and whether or not there is a nearby word is also searched. (1002). Specifically, after referring to the data of the record 919 containing “as” first, among the words existing in the lines before and after the line containing “as” while referring to the row number information in the column 914. The neighborhood word obtained from the input image is searched. As a result of the search, it is determined whether the number of neighboring words is equal to or greater than a threshold (1003). As a result of the determination, if the number of neighboring words is greater than or equal to the threshold, it is considered that there are neighboring words and the process proceeds to step 1004. On the other hand, if it is not equal to or greater than the threshold, the process proceeds to step 1007. Here, the reason why the number of neighboring words is not found but is set to be equal to or greater than the threshold is that a correct word cannot be obtained due to misrecognition.

次に、得られた近傍単語について、ステップ1001と同様な処理により着目単語”as”の矩形重心から近傍単語の矩形重心に引いた線分間の角度を計算する(1004)。具体的には、近傍単語の矩形重心X座標の値911、および、Y座標の値912を参照して、得られた各近傍単語の矩形重心間の角度とステップ1001で得られた角度との差分を取る。ここでは、計算コストを減らすため角度差分の代わりに角度の余弦差分のことを相違度と定義する。   Next, for the obtained neighborhood word, the angle between the line segments drawn from the rectangular centroid of the word of interest “as” to the rectangular centroid of the neighboring word is calculated by the same processing as in step 1001 (1004). Specifically, referring to the rectangular centroid X-coordinate value 911 and the Y-coordinate value 912 of the neighboring word, the angle between the rectangular centroids of each obtained neighboring word and the angle obtained in step 1001 Take the difference. Here, in order to reduce the calculation cost, the cosine difference of the angle is defined as the degree of difference instead of the angle difference.

例えば、辞書データに格納された単語矩形座標を用いて、”as”の矩形重心を基点とした単語”we”、”have”の矩形重心座標間の角度余弦計算は以下の通りである。
“as”から“we”への矩形重心ベクトル :a=(x、y)=(330-400、225-300)=(-70、-75)
“as”から“have”への矩形重心ベクトル:b=(x、y)=(470-400、225-300)=(+70、-75)
ベクトルa、b間の余弦=a・b/(‖a‖‖b‖)=0.07
次に、相違度が閾値以下かどうかを判断し(1005)、閾値以下であればステップ1006に進み、閾値を超えていればステップ1007に進む。ステップ1006では、英文データ格納部901において”as”レコード919以降の単語データを検索し、文末の記号である”.”(ピリオド)を含むレコード922を検索する。そして、ピリオドの後ろに格納されているリンクデータへのポインタを取得して、リンク参照候補文検索結果データ183に格納する。
For example, using the word rectangle coordinates stored in the dictionary data, the angle cosine calculation between the rectangle centroid coordinates of the words “we” and “have” with the rectangle centroid of “as” as a base point is as follows.
Rectangular centroid vector from “as” to “we”: a = (x, y) = (330-400, 225-300) = (-70, -75)
Rectangular centroid vector from “as” to “have”: b = (x, y) = (470-400, 225-300) = (+ 70, -75)
Cosine between vectors a and b = a · b / (‖a‖‖b‖) = 0.07
Next, it is determined whether or not the degree of difference is equal to or less than a threshold value (1005). In step 1006, word data after the “as” record 919 is searched in the English text storage unit 901, and a record 922 including “.” (Period) as a symbol at the end of the sentence is searched. Then, a pointer to the link data stored after the period is acquired and stored in the link reference candidate sentence search result data 183.

この検索結果データ183にはリンクデータへのポインタのみならず、リンク参照対象の英文に含まれる全単語とその単語に付随するレイアウト情報や着目単語を表すフラグ値が格納されている。   The search result data 183 stores not only a pointer to link data but also all the words included in the link reference target English sentence, layout information associated with the word, and a flag value indicating the word of interest.

図12にリンク参照候補文検索結果データ183の構成例を示す。   FIG. 12 shows a configuration example of the link reference candidate sentence search result data 183.

1200はリンク参照候補の英文を構成する単語数であり、1201から1205は当該英文に含まれる各単語の属性データである。1201は単語の文字コード格納領域であり、1202から1204はそれぞれ図9のカラム913から915のデータをコピーして格納しており、各データは単語が存在するページ番号、行番号、行内の左から数えた単語番号である。1205は着目単語を表すフラグであり、着目単語であれば、“1”、それ以外は“0”が格納されており、本フラグは表示部の画面表示制御に用いる。1206から1213はリンク参照英文候補を構成する単語レコードであり、1200で示された数だけレコードが存在する。1214は当該英文に対応するリンクデータへのポインタであり、図9のレコード922のポインタデータをコピーして格納している。   1200 is the number of words constituting the English text of the link reference candidate, and 1201 to 1205 are attribute data of each word included in the English text. Reference numeral 1201 denotes a character code storage area for words, and 1202 to 1204 respectively copy and store the data in columns 913 to 915 in FIG. 9. Each data includes the page number, the line number, and the left in the line. It is a word number counted from. Reference numeral 1205 denotes a flag representing a target word. If the target word is “1”, “1” is stored. Otherwise, “0” is stored. This flag is used for screen display control of the display unit. Reference numerals 1206 to 1213 denote word records constituting link reference English sentence candidates, and there are as many records as indicated by 1200. Reference numeral 1214 denotes a pointer to link data corresponding to the English sentence, and the pointer data of the record 922 in FIG. 9 is copied and stored.

上記ステップ1002から1006までの処理をレコード908に格納されている905以降のポインタがなくなるまで、すなわち、”as”という単語へのポインタが無くなるまで繰り返す(1007)。このようにして得られたリンクデータの候補ポインタと英文データをリンク参照候補文検索結果データ183から読み出し、さらに、”as”近傍画像と矩形座標をそれぞれ画像データ181、単語認識結果データ182から読み出し、それらを表示部120上に表示する(1008)。   Steps 1002 to 1006 are repeated until there are no pointers after 905 stored in the record 908, that is, until there is no pointer to the word “as” (1007). The link data candidate pointer and English data obtained in this way are read out from the link reference candidate sentence search result data 183, and the “as” neighborhood image and rectangular coordinates are read out from the image data 181 and the word recognition result data 182, respectively. These are displayed on the display unit 120 (1008).

図13にリンク参照英文候補の表示の例を示す。
1300は入力画像の着目単語である”as”を含む行画像を示し、1301は着目単語であることを示す矩形である。1302はリンクDB184を検索した結果、着目単語”as”が存在する位置を示しており、この例では24ページ、5行目の左から3単語目に着目単語”as”が存在することを示している。また、ここでアンダーラインが表示されているが、このアンダーラインが引かれた文字を選択すると、対応するリンク(URL)データをアクセスした結果を表示することができるというハイパーリンクを表しており、このリンクを選択すると図12の1214に格納されているポインタを参照してリンクデータをアクセスした結果が表示できるようになっている。
FIG. 13 shows an example of the display of link reference English sentence candidates.
Reference numeral 1300 denotes a line image including “as” which is a focused word of the input image, and reference numeral 1301 denotes a rectangle indicating the focused word. 1302 indicates the position where the target word “as” exists as a result of searching the link DB 184. In this example, the target word “as” exists in the third word from the left on page 24, the fifth line. ing. In addition, although an underline is displayed here, when a character with this underline is selected, a hyperlink that can display a result of accessing the corresponding link (URL) data is displayed. When this link is selected, the result of accessing the link data with reference to the pointer stored in 1214 in FIG. 12 can be displayed.

1303は1302の単語を含む英文の表示例であり、表示スペースを節約するために、ここでは英文の先頭・末尾単語、および、着目単語の前後の近傍単語のみを表示している。また、着目単語を明示するために”as”はボールド体で表示されている。1302と1303は対になっており、以下、1304から1307は同様に着目単語の存在位置と着目単語が含まれる英文が対になって表示されている。   Reference numeral 1303 is an example of English display including the word 1302, and in order to save display space, only the first and last words of the English sentence and the neighboring words before and after the word of interest are displayed here. In addition, “as” is displayed in bold to clearly indicate the word of interest. Reference numerals 1302 and 1303 are paired, and in the following, reference numerals 1304 to 1307 are displayed in pairs, in which the position of the word of interest and the English sentence including the word of interest are paired.

以上のように図10のステップ1001から1008の処理により、着目単語”as”が含まれる英文と対応するリンクデータ候補を検索し、結果が表示部に表示される。   As described above, the processing of steps 1001 to 1008 in FIG. 10 searches for the link data candidate corresponding to the English sentence including the target word “as”, and the result is displayed on the display unit.

利用者は、図13に表示されたリンク参照英文候補の内から、該当する対象のもの(この例では1302)を入力部130の操作により選択する。その時、検索部160は対応するリンクデータポインタを参照して図9に示すリンクデータ924を検索し(305)、リンクデータであるURLを参照してWEBサーバ202をアクセスして結果をリンク参照データ185に格納すると共に表示部120に表示する(306)。   The user selects a corresponding target (1302 in this example) from among the link reference English candidates displayed in FIG. 13 by operating the input unit 130. At that time, the retrieval unit 160 retrieves the link data 924 shown in FIG. 9 with reference to the corresponding link data pointer (305), refers to the URL that is the link data, accesses the WEB server 202, and obtains the result as the link reference data. The data is stored in 185 and displayed on the display unit 120 (306).

図14にリンクデータのアクセス結果の表示例を示す。   FIG. 14 shows a display example of the access result of the link data.

1400、1401は図13における1300、1301と同様であり、1402は1303の英文に対応するリンクデータをアクセスした結果であり、図12における1214のポインタを参照した上で、リンクDB184における924(図9)のリンクデータを取得して当該URLをアクセスした結果が表示されている。ここではアクセスしたURLには”Product manufacture Process”の画像データが格納されていることを想定し、そのデータが画面上に表示されている。   1400 and 1401 are the same as 1300 and 1301 in FIG. 13, and 1402 is the result of accessing link data corresponding to the English text of 1303. After referring to the pointer 1214 in FIG. 12, 924 in the link DB 184 (FIG. The result of obtaining the link data of 9) and accessing the URL is displayed. Here, assuming that the image data of “Product manufacture Process” is stored in the accessed URL, the data is displayed on the screen.

以上説明したように、図3に示す処理により利用者は英文の一部を撮影することで、文書中でどこを撮影しているかを特定し、該当する英文のリンクデータのアクセス結果を得ることができる。   As described above, the process shown in FIG. 3 allows a user to capture a part of an English sentence to specify where the photograph is photographed and to obtain an access result of link data of the corresponding English sentence. it can.

次に、図15〜17、図26を参照して第2の実施形態について説明する。   Next, a second embodiment will be described with reference to FIGS.

第2の実施形態は、図26に示すように、上述したリンクDB及びその検索手段をリンクデータベース(DB)サーバ203に保持させ、必要に応じて通信ネットワーク201を介してリンクDBサーバ203からデータを携帯情報端末100にダウンロードする例である。202は図2と同様にWEBサーバを表す。即ち、携帯情報端末100では取得された画像から単語認識を行い、その認識結果をサーバ202に送信して、リンクDBサーバ203において認識結果である文字コードを用いてリンクDBを検索し、検索結果を携帯情報端末100に返送して表示するシステム構成とその処理手順について、以下説明する。   In the second embodiment, as shown in FIG. 26, the above-described link DB and its search means are held in the link database (DB) server 203, and data is transmitted from the link DB server 203 via the communication network 201 as necessary. Is downloaded to the portable information terminal 100. Reference numeral 202 denotes a WEB server as in FIG. That is, the portable information terminal 100 performs word recognition from the acquired image, transmits the recognition result to the server 202, searches the link DB server 203 using the character code that is the recognition result, and retrieves the search result. Will be described below with reference to a system configuration and processing procedure for returning the message to the portable information terminal 100 for display.

図15は、第2の実施形態における携帯情報端末のブロック図である。   FIG. 15 is a block diagram of a portable information terminal according to the second embodiment.

この例も第1の実施形態と同様に英文に関連付けられたリンク情報を取得する例である。図1の構成との主な相違点は、リンクDB184に代わって、リンクデータそのものを格納するリンクデータ186の格納部が設けられること、文字認識/リンクDB検索制御部145による処理手順が変わること等である。   This example is also an example in which link information associated with an English sentence is acquired as in the first embodiment. The main difference from the configuration of FIG. 1 is that a storage unit for link data 186 that stores link data itself is provided instead of the link DB 184, and the processing procedure by the character recognition / link DB search control unit 145 changes. Etc.

図16はリンクDBサーバ203の概略的な構成を示す。   FIG. 16 shows a schematic configuration of the link DB server 203.

リンクDBサーバ203では、通信制御部1601、中央演算装置1602、メモリ1603がバス1600を介して接続されている。メモリ1603にはリンクDB検索プログラム1604が格納されている。このプログラムは図1におけるリンクDB検索部160と同様にリンクDBの検索処理を行うためのプログラムである。単語認識結果データ1605、リンク参照候補文検索結果データ1606、リンクDB1607は、それぞれ図1における単語認識結果データ182、リンク参照候補文検索結果データ183、リンクDB184と同等のデータを格納する領域である。   In the link DB server 203, a communication control unit 1601, a central processing unit 1602, and a memory 1603 are connected via a bus 1600. The memory 1603 stores a link DB search program 1604. This program is a program for performing link DB search processing in the same manner as the link DB search unit 160 in FIG. The word recognition result data 1605, the link reference candidate sentence search result data 1606, and the link DB 1607 are areas for storing data equivalent to the word recognition result data 182, the link reference candidate sentence search result data 183, and the link DB 184 in FIG. 1, respectively. .

図17は、第2の実施例における携帯情報端末100とリンクDBサーバ203のそれぞれの処理を示すフローチャートである。   FIG. 17 is a flowchart showing respective processes of the portable information terminal 100 and the link DB server 203 in the second embodiment.

図において、実線の矢印は処理のフローを示し、点線の矢印はデータの流れを示す。   In the figure, solid arrows indicate the flow of processing, and dotted arrows indicate the flow of data.

画像入力処理(1701)から英単語認識処理(1703)は、図3におけるステップ301から303と同様であり、画像撮影部110により撮影されたリンク参照対象の文を部分的に含む画像から英単語を認識し、認識結果を単語認識結果データ182に格納する。次に文字認識/リンクDB検索制御部145は単語認識結果データ182に格納された英単語認識結果データを、通信制御部141を介してリンクDBサーバ203に送信する(1704)。   The image input process (1701) to the English word recognition process (1703) are the same as steps 301 to 303 in FIG. 3, and the English word from the image partially including the link reference target sentence photographed by the image photographing unit 110 is used. And the recognition result is stored in the word recognition result data 182. Next, the character recognition / link DB search control unit 145 transmits the English word recognition result data stored in the word recognition result data 182 to the link DB server 203 via the communication control unit 141 (1704).

リンクDBサーバ203では、携帯情報端末100から送信された単語認識結果データを受信して、そのデータを単語認識結果データ1605に格納する(1710)。その後、リンクDB検索プログラム1604を実行してリンクDB1607を検索してリンク参照候補文の検索を行なう(1711)。この処理は、単語認識結果データ1605を用いて図10のステップ1001から1007と同様な処理手順でリンクDB1607を検索し、検索結果をメモリ1603のリンク参照候補文検索結果データ1606に格納する処理である。   The link DB server 203 receives the word recognition result data transmitted from the portable information terminal 100 and stores the data in the word recognition result data 1605 (1710). Thereafter, the link DB search program 1604 is executed to search the link DB 1607 to search for a link reference candidate sentence (1711). This process is a process of searching the link DB 1607 using the word recognition result data 1605 in the same processing procedure as steps 1001 to 1007 in FIG. 10 and storing the search result in the link reference candidate sentence search result data 1606 of the memory 1603. is there.

次に、サーバ202は、メモリ1603に格納されたリンク参照候補文検索結果データ1606を携帯情報端末100に送信し(1712)、携帯情報端末100ではそのデータを受信して、リンク参照候補文検索結果データ183に格納する(1705)。   Next, the server 202 transmits the link reference candidate sentence search result data 1606 stored in the memory 1603 to the portable information terminal 100 (1712), and the portable information terminal 100 receives the data to search for the link reference candidate sentence search. The result data 183 is stored (1705).

そして携帯情報端末100では、リンク参照候補文検索結果データ183を参照して、図13に示すようなリンク参照候補検索結果を表示部120に表示する。利用者は、表示部に表示されたリンク候補から1つを選択する(1706)。選択結果として図12における英文に対応するリンクデータへのポインタ1214のデータのみをサーバ202に対して送信する(1707)。   The portable information terminal 100 displays the link reference candidate search result as shown in FIG. 13 on the display unit 120 with reference to the link reference candidate sentence search result data 183. The user selects one of the link candidates displayed on the display unit (1706). As a selection result, only the data of the pointer 1214 to the link data corresponding to the English text in FIG. 12 is transmitted to the server 202 (1707).

リンクDBサーバ203では、携帯情報端末100から送信されたリンクデータへのポインタを受信し(1713)、受信したポインタを参照して対応するリンクデータを検索する(1714)。そして、その検索の結果得られたリンクデータを携帯情報端末100に送信する(1715)。携帯情報端末100では、検索されたリンクデータを受信して、メモリ180のリンクデータ186に格納し(1708)、そのリンクデータであるURLを参照してWEBサーバ203をアクセスして参照データをリンク参照データ185に格納すると共に表示部120に表示する(1709)。表示部120の表示画面の内容は、図12と同様である。   The link DB server 203 receives a pointer to the link data transmitted from the portable information terminal 100 (1713), and searches for the corresponding link data with reference to the received pointer (1714). Then, link data obtained as a result of the search is transmitted to the portable information terminal 100 (1715). The portable information terminal 100 receives the retrieved link data, stores it in the link data 186 of the memory 180 (1708), refers to the URL that is the link data, accesses the WEB server 203, and links the reference data. The data is stored in the reference data 185 and displayed on the display unit 120 (1709). The contents of the display screen of the display unit 120 are the same as those in FIG.

以上のように図17に示す処理動作により、利用者はリンク参照とする英文全体を撮影する必要がなく、リンクDBサーバ203に備えられたリンクDB1607、及びそのDBを検索する検索手段を利用してネットワークを介して目的のリンクデータを得ることができる。第1、第2の実施例ではリンクDB184、リンクDB1607におけるリンクデータ格納部902にはリンク情報であるURLの文字列を格納したが、リンク情報の代わりに画像等の実際に参照されるデータを格納してもよい。   As described above, the processing operation shown in FIG. 17 eliminates the need for the user to shoot the entire English text as a link reference, and uses the link DB 1607 provided in the link DB server 203 and the search means for searching the DB. The target link data can be obtained via the network. In the first and second embodiments, the link data storage unit 902 in the link DB 184 and the link DB 1607 stores a URL character string as link information, but instead of link information, actually referred data such as an image is stored. It may be stored.

次に、図18〜図25を参照して第3の実施形態について説明する。   Next, a third embodiment will be described with reference to FIGS.

この例は和文に埋め込まれたリンクデータを参照する例である。英文の場合には単語と単語の間に空白が在る(第1、2の実施形態の場合)。しかし本実施形態における和文の場合には、文字認識対象となる和文は空白による単語の区切れ目のない文である。和文の場合、英単語に相当するのは和文の構成要素である「形態素」に着目するものであり、「形態素」に対する文字認識と、それを用いたリンク候補文検索に特徴がある。以下、図面を参照して説明する。   In this example, link data embedded in a Japanese sentence is referred to. In the case of English sentences, there is a space between words (in the case of the first and second embodiments). However, in the case of the Japanese sentence in the present embodiment, the Japanese sentence to be character-recognized is a sentence without a space between words. In the case of Japanese sentences, an English word corresponds to a “morpheme” that is a component of the Japanese sentence, and is characterized by character recognition for “morpheme” and link candidate sentence search using the same. Hereinafter, description will be given with reference to the drawings.

図18は、携帯情報端末の構成を示すブロック図である。   FIG. 18 is a block diagram showing the configuration of the portable information terminal.

図1に示した携帯情報端末100の構成との主な相違点は、文字認識部150の構成及び処理動作にある。即ち、図18に示す形態情報端末100の文字認識部150の文字行座標抽出部1501、形態素認識部1502は、それぞれ図1の単語矩形座標抽出部151、単語認識部152に対応する。メモリ180では文字行座標データ1804が新たに追加された。形態素認識結果データ1805、リンク参照候補文検索結果データ1806、リンクDB1807、リンク参照データ1808は、それぞれ図1の182、183、184、185に対応する。   The main difference from the configuration of the portable information terminal 100 shown in FIG. 1 is the configuration and processing operation of the character recognition unit 150. That is, the character line coordinate extraction unit 1501 and the morpheme recognition unit 1502 of the character recognition unit 150 of the morphological information terminal 100 shown in FIG. 18 correspond to the word rectangular coordinate extraction unit 151 and the word recognition unit 152 of FIG. In the memory 180, character line coordinate data 1804 is newly added. The morpheme recognition result data 1805, the link reference candidate sentence search result data 1806, the link DB 1807, and the link reference data 1808 respectively correspond to 182, 183, 184, and 185 in FIG.

図19は第3の実施形態のリンク処理フローを示す。以下、図19を用いて図18の携帯情報端末の処理動作について説明する。   FIG. 19 shows the link processing flow of the third embodiment. Hereinafter, the processing operation of the portable information terminal of FIG. 18 will be described with reference to FIG.

まず、画像撮影部110で撮影された文字認識対象画像が入力される(1901)。   First, a character recognition target image photographed by the image photographing unit 110 is input (1901).

図20に、認識対象となる和文の文書の例を示す。右上に「P24」とページ番号の表示がある。2001は、画像撮影部110で撮影されて取り込まれた画像の範囲を示し、この範囲の画像が文字認識部150に入力される。この例では、3行目の「これに応える・・・」で始まり、5行目の「・・・努めています。」で終わる2番目の文に張られたリンクデータにアクセスするために画像を取り込むことを仮定する。この文書からリンク情報を抽出するために、この実施形態では2番目の和文を構成する任意の形態素が着目対象となり得る。ここでは着目対象を示す「+」のマークは5行目の「製品」に重なっていると想定する。   FIG. 20 shows an example of a Japanese document to be recognized. There is a display of “P24” and page number in the upper right. Reference numeral 2001 denotes a range of an image captured and captured by the image capturing unit 110, and an image in this range is input to the character recognition unit 150. In this example, an image is used to access the link data attached to the second sentence that begins with "Respond to this ..." on the third line and ends with "..." on the fifth line. Assuming that In order to extract link information from this document, in this embodiment, any morpheme constituting the second Japanese sentence can be the target of attention. Here, it is assumed that the “+” mark indicating the target of interest overlaps the “product” in the fifth row.

文字認識部150の文字行抽出部1501にて、入力された画像から文字行の場所を示す矩形座標を抽出する(1902)。この処理は、図3のステップ302と同様な処理である。ここで、着目している「製品」を含む文字行座標だけでなく、上下の文字行座標も合わせて出力される。ステップ302では単語単位の矩形座標を抽出したが、日本語の場合は単語の区切れ目に相当する空白は存在しない。そこで、図7に示すような行方向の黒画素射影を取って行の位置を計算した後は、その中に含まれる近接した連結成分を統合して文字行の矩形座標を計算し、文字行座標データ1804に格納する。   The character line extraction unit 1501 of the character recognition unit 150 extracts rectangular coordinates indicating the location of the character line from the input image (1902). This process is the same as step 302 in FIG. Here, not only the character line coordinates including the “product” of interest but also the upper and lower character line coordinates are output together. In step 302, rectangular coordinates in units of words are extracted. However, in the case of Japanese, there is no blank corresponding to a word break. Therefore, after calculating the position of the line by taking the black pixel projection in the line direction as shown in FIG. 7, the rectangular coordinates of the character line are calculated by integrating the adjacent connected components included therein, and the character line Stored in the coordinate data 1804.

抽出された文字行の矩形座標に対して形態素認識部1502は抽出された矩形座標内に存在する文字パターンに対して文字認識処理を行うと共に形態素解析を行い、文字認識結果として各形態素の文字コードと形態素に対応する矩形の重心座標を形態素認識結果データ1805に出力する(1903)。ここで、図21に示すように「製品」2101の矩形座標と横方向にオーバーラップがある上下の文字行の形態素パターン、および、「製品」の隣接形態素パターン2102〜2109に対する文字コードと矩形重心座標が抽出される。   The morpheme recognition unit 1502 performs character recognition processing on the character pattern existing in the extracted rectangular coordinates and performs morphological analysis on the extracted rectangular coordinates of the character line, and the character code of each morpheme is obtained as a character recognition result. The center of gravity coordinates of the rectangle corresponding to the morpheme are output to the morpheme recognition result data 1805 (1903). Here, as shown in FIG. 21, the morpheme patterns of the upper and lower character lines that overlap in the horizontal direction with the rectangular coordinates of “product” 2101, and the character codes and the center of gravity of the rectangles 2102 to 2109 of “product” adjacent morpheme patterns Coordinates are extracted.

図22に形態素認識結果データ1805の構成を示す。   FIG. 22 shows the configuration of morpheme recognition result data 1805.

2216から2224は各形態素のデータレコードを示す。また2210は形態素の文字コード格納領域を示し、2211から2214はそれぞれ形態素矩形の左上X座標、左上Y座標、右下X座標、右下Y座標を示す。2215は形態素が含まれる行の行番号を示す。2216は周辺形態素と着目形態素を区別するための着目形態素フラグであり、着目形態素に対しては“1”、それ以外の周辺形態素は“0”を格納する。   Reference numerals 2216 to 2224 denote data records of each morpheme. Reference numeral 2210 denotes a morpheme character code storage area, and reference numerals 2211 to 2214 denote the upper left X coordinate, upper left Y coordinate, lower right X coordinate, and lower right Y coordinate of the morpheme rectangle, respectively. Reference numeral 2215 denotes the line number of the line containing the morpheme. Reference numeral 2216 denotes a focused morpheme flag for distinguishing the peripheral morpheme from the focused morpheme, and stores “1” for the focused morpheme and “0” for other peripheral morphemes.

文字認識結果はリンクDB1807に渡され、実施例1で説明した処理と同様な方法により、文字認識結果をキーとして「製品」が含まれる和文と対応するリンクデータ候補の検索を行う(1904)。   The character recognition result is passed to the link DB 1807, and a link data candidate corresponding to the Japanese sentence including “product” is searched for using the character recognition result as a key by the same method as the processing described in the first embodiment (1904).

図23にリンクDB1807に格納されるデータの構造を示す。2300は当該形態素が含まれる和文を検索するための形態素インデックス部、2301は和文データ格納部、2302はリンクデータ格納部である。形態素インデックス部2300において、2303は形態素データ、2304は当該形態素が文書中に現れる数、2305、2306は当該形態素が含まれる和文データ格納部2301へのポインタである。   FIG. 23 shows the structure of data stored in the link DB 1807. Reference numeral 2300 denotes a morpheme index unit for searching a Japanese sentence including the morpheme, 2301 denotes a Japanese sentence data storage unit, and 2302 denotes a link data storage unit. In the morpheme index unit 2300, 2303 is morpheme data, 2304 is the number of the morpheme appearing in the document, and 2305 and 2306 are pointers to the Japanese sentence data storage unit 2301 containing the morpheme.

和文データ格納部2301において、一つの和文を構成する形態素データのレコード2316から2322の各カラムの内容について説明する。2310は和文を構成する形態素データである。2311、2312は和文が含まれる当該ページの左上を原点とした場合の当該形態素の矩形重心座標であり、2311はX座標の値、2312はY座標の値を示す。2313、2314はそれぞれ当該形態素が含まれるページ数、行番号である。2315は形態素が含まれる行中において左から数えて何番目の形態素であるかを示す。2322のレコードは和文の終りを示す”。”(読点)とリンクデータ格納部2302へのポインタからなっている。リンクデータ格納部2302において、2323から2325は各和文に対応するリンクデータを示す。   The contents of each column of records 2316 to 2322 of morpheme data constituting one Japanese sentence in the Japanese sentence data storage unit 2301 will be described. Reference numeral 2310 denotes morpheme data constituting a Japanese sentence. Reference numerals 2311 and 2312 denote the rectangular center-of-gravity coordinates of the morpheme when the upper left of the page including the Japanese sentence is the origin, 2311 denotes the value of the X coordinate, and 2312 denotes the value of the Y coordinate. Reference numerals 2313 and 2314 respectively denote the number of pages and the line number including the morpheme. Reference numeral 2315 denotes the number of the morpheme counted from the left in the row including the morpheme. A record 2322 includes “.” (Reading mark) indicating the end of the Japanese sentence and a pointer to the link data storage unit 2302. In the link data storage unit 2302, 2323 to 2325 indicate link data corresponding to each Japanese sentence.

ステップ1904では、第1の実施例と同様に形態素間の相対的な配置情報を用いてリンクデータポインタとそれに対応する和文データをリンクDBから検索し表示部上に表示し、利用者は該当すると思われる参照候補のリンクデータポインタを選択する。   In step 1904, the link data pointer and the corresponding Japanese sentence data are retrieved from the link DB using the relative arrangement information between the morphemes as in the first embodiment and displayed on the display unit. Select a link data pointer of a possible reference candidate.

図24を参照してステップ1904の詳細を説明する。   Details of step 1904 will be described with reference to FIG.

まず、ステップ1903で抽出された着目形態素「製品」の矩形重心から図21に示す近傍形態素2102から2109への各矩形銃身座標に線を引き、図10のステップ1001と同様にその線分間の角度、あるいは、余弦を測定する(2401)。   First, a line is drawn from the rectangular center of gravity of the target morpheme “product” extracted in step 1903 to each rectangular barrel coordinate from the neighboring morpheme 2102 to 2109 shown in FIG. 21, and the angle between the line segments is the same as in step 1001 of FIG. Alternatively, the cosine is measured (2401).

次に、リンクDB1807の形態素インデックス部2300の「製品」レコード2308を参照して和文データ格納部2301の「製品」が含まれる和文データを検索し、さらに、その近傍形態素が存在するかをステップ1002と同様な処理手順により検索する(2402)。検索の結果、近傍形態素の数が閾値以上であるか否かを判定する。閾値以上であれば、近傍形態素が存在したと見なしてステップ2404に進む。これに対して、閾値以上でなければステップ2407に進む(2403)。   Next, with reference to the “product” record 2308 of the morpheme index part 2300 of the link DB 1807, the Japanese sentence data containing “product” in the Japanese sentence data storage part 2301 is searched, and whether or not the neighboring morpheme exists is determined in step 1002. The search is performed by the same processing procedure as (2402). As a result of the search, it is determined whether or not the number of neighboring morphemes is equal to or greater than a threshold value. If it is equal to or greater than the threshold value, it is considered that there is a neighboring morpheme, and the process proceeds to Step 2404. On the other hand, if it is not more than a threshold value, it will progress to step 2407 (2403).

近傍形態素の数が閾値以上である場合、得られた近傍形態素について、ステップ2401と同様な処理により着目形態素「製品」の矩形重心から近傍形態素の矩形重心に引いた線分間の角度を計算し、相違度を計算する(2404)。この計算はステップ1004と同様な計算処理である。その後、相違度が閾値以下かどうかを判断し(2405)、閾値以下であればステップ2406に進み、閾値を超えていればステップ2407に進む。   If the number of neighboring morphemes is equal to or greater than the threshold, the angle of the line segment drawn from the rectangular centroid of the focused morpheme “product” to the rectangular centroid of the neighboring morpheme is calculated for the obtained neighboring morpheme by the same process as in step 2401 The degree of difference is calculated (2404). This calculation is the same calculation process as in step 1004. Thereafter, it is determined whether or not the degree of difference is equal to or less than a threshold (2405). If the difference is equal to or less than the threshold, the process proceeds to step 2406, and if it exceeds the threshold, the process proceeds to step 2407.

相違度が閾値以下の場合、和文データ格納部2301において「製品」レコード2319以降の単語データを検索し、文末の記号である「。」(読点)を含むレコード2322を検索する。そして、読点の後ろに格納されているリンクデータへのポインタを取得して、リンク参照候補文検索結果データ1806に格納する(2406)。   If the degree of difference is less than or equal to the threshold value, the Japanese data storage unit 2301 searches for word data after the “product” record 2319, and searches for a record 2322 that includes the symbol “.” (Reading mark) at the end of the sentence. Then, a pointer to the link data stored after the punctuation mark is acquired and stored in the link reference candidate sentence search result data 1806 (2406).

図25にリンク参照候補文検索結果データ1806の構成例を示す。   FIG. 25 shows a configuration example of the link reference candidate sentence search result data 1806.

2501はリンク参照候補の和文を構成する形態素数であり、2502から2506はこの和文に含まれる各形態素の属性データである。2502は形態素の文字コード格納領域であり、2503から2505はそれぞれ図23のカラム2313から2315のデータをコピーして格納しており、各データは形態素が存在するページ番号、行番号、行内の左から数えた形態素番号である。2306は着目形態素を表すフラグであり、着目形態素であれば、“1”、それ以外は“0”が格納されており、本フラグは表示部の画面表示制御に用いる。   Reference numeral 2501 denotes the number of morphemes constituting the Japanese sentence of the link reference candidate, and reference numerals 2502 to 2506 denote attribute data of each morpheme included in the Japanese sentence. Reference numeral 2502 denotes a morpheme character code storage area, and reference numerals 2503 to 2505 respectively copy and store the data in columns 2313 to 2315 in FIG. 23. Each data has a page number, a line number, and a left in the line. It is a morpheme number counted from. Reference numeral 2306 denotes a flag indicating the target morpheme. If the target morpheme, “1” is stored, and “0” is stored otherwise. This flag is used for screen display control of the display unit.

2507から2513はリンク参照候補の和文を構成する形態素レコードであり、2501で示された数だけレコードが存在する。2514は当該和文に対応するリンクデータへのポインタであり、図23のレコード2322のポインタデータをコピーして格納している。   Reference numerals 2507 to 2513 denote morpheme records constituting a Japanese sentence of link reference candidates, and there are as many records as indicated by 2501. Reference numeral 2514 denotes a pointer to link data corresponding to the Japanese sentence, and the pointer data of the record 2322 in FIG. 23 is copied and stored.

上記ステップ2402から2406までの処理をレコード2308に格納されている2305以降のポインタがなくなるまで、すなわち、「製品」という形態素へのポインタが無くなるまで繰り返す(2407)。このようにして得られたリンクデータの候補ポインタと和文データをリンク参照候補文検索結果データ1806から読み出し、さらに、「製品」近傍画像と矩形座標をそれぞれ画像データ181、形態素認識結果データ1804から読み出し、それらを表示部120に表示する(2408)。   The processing from step 2402 to 2406 is repeated until there is no pointer after 2305 stored in the record 2308, that is, until there is no pointer to the morpheme “product” (2407). The link data candidate pointer and Japanese sentence data obtained in this way are read out from the link reference candidate sentence search result data 1806, and the “product” neighborhood image and rectangular coordinates are read out from the image data 181 and the morpheme recognition result data 1804, respectively. These are displayed on the display unit 120 (2408).

以上のように、図24に示す処理により、着目形態素「製品」が含まれる和文と対応するリンクデータ候補を検索し、結果が表示部に表示される。参照候補リンクデータの内、該当するリンクデータに関係するポインタを利用者が選択すると、対応するリンクデータをリンクDB1807から検索する(1905)。そして、リンクデータであるURLを参照してWEBサーバ202をアクセスして、結果をリンク参照データ1808に格納すると共に表示部120に表示する(1906)。   As described above, the link data candidate corresponding to the Japanese sentence including the target morpheme “product” is searched by the process shown in FIG. 24, and the result is displayed on the display unit. When the user selects a pointer related to the relevant link data among the reference candidate link data, the corresponding link data is searched from the link DB 1807 (1905). Then, the WEB server 202 is accessed with reference to the URL as link data, and the result is stored in the link reference data 1808 and displayed on the display unit 120 (1906).

以上のように図19に示す処理により、利用者は和文の一部を撮影することで、文書中でどこを撮影しているかを特定し、該当する和文のリンクデータのアクセス結果を得ることができる。   As described above, the process shown in FIG. 19 allows the user to capture a part of the Japanese sentence, identify where the photograph is taken, and obtain the access result of the corresponding Japanese link data. .

上記実施例では形態素を単位として説明したが、ここでは表示部上の「+」印がどのリンク参照対象の和文を指しているかが分ればよい。従って、代替例においては、形態素を単位にして文字認識や検索処理を行なわないで、任意の文字長、例えば1文字や2文字と設定した文字列を形態素の代わりに処理を行ってもよい。   In the above embodiment, the morpheme is used as a unit. However, it is only necessary to know which link reference target Japanese sentence is indicated by the “+” mark on the display unit. Therefore, in an alternative example, a character string set to an arbitrary character length, for example, one character or two characters, may be processed instead of a morpheme without performing character recognition or search processing in units of morphemes.

更に、他の変形例について説明する。図9のリンクDBでは文単位にリンクデータへのポインタを設けた。しかし、これは文単位にする必要はなく、単語単位にリンクデータへのポインタを設けることは可能である。図27、図28が単語単位にポインタを格納した場合の変更箇所であり、それぞれ、図9のリンクDB、図12の参照対象候補文検索結果データに対応する。930のカラムは図9の922に格納されているようなリンクデータ格納部902へのポインタであり、931から938で示すように単語毎にポインタが格納されている。939から941は単語毎に関連付けられたリンク情報である。図28ではカラム1205の右側に1220で示すようなポインタが単語毎に挿入されており、例えば1224から1226のカラム1220のポインタは、図27における933から935のカラム930に格納されたポインタをコピーして保存している。本実施例では着目単語として1225レコードの1205のカラムに”1”のフラグが立っているので、1225のレコードのポインタを参照して940のリンクデータを取得する。同様な構成を設けることにより単語単位の他、和文の場合は形態素単位、あるいは、文字単位にリンクデータと関連付けることが可能である。さらに、文単位の他、節単位、章単位など、任意の単位でリンクデータへのポインタを設けることも可能である。   Furthermore, another modified example will be described. In the link DB of FIG. 9, a pointer to link data is provided for each sentence. However, this does not have to be in sentence units, and it is possible to provide pointers to link data in word units. FIGS. 27 and 28 show the changed portions when the pointer is stored in units of words, and corresponds to the link DB of FIG. 9 and the reference target candidate sentence search result data of FIG. 12, respectively. A column 930 is a pointer to the link data storage unit 902 stored in 922 in FIG. 9, and a pointer is stored for each word as indicated by 931 to 938. Reference numerals 939 to 941 denote link information associated with each word. In FIG. 28, pointers such as 1220 are inserted on the right side of the column 1205 for each word. For example, the pointers in the columns 1220 to 1226 are copied from the pointers stored in the columns 930 to 935 in FIG. And save it. In this embodiment, since the flag “1” is set in the column 1205 of the 1225 record as the word of interest, 940 link data is acquired by referring to the pointer of the 1225 record. By providing a similar configuration, in addition to word units, in the case of Japanese sentences, it is possible to associate link data with morpheme units or character units. Furthermore, it is also possible to provide a pointer to link data in any unit such as a section unit or a chapter unit in addition to a sentence unit.

第1実施形態による携帯情報端末を用いた文書リンクシステムの構成を示す図、The figure which shows the structure of the document link system using the portable information terminal by 1st Embodiment. 第1実施形態による携帯情報端末及びWEBサーバを含む文書リンクシステムを示す図。The figure which shows the document link system containing the portable information terminal and WEB server by 1st Embodiment. 第1実施形態におけるリンクデータ参照処理フローを示す図。The figure which shows the link data reference processing flow in 1st Embodiment. 第1実施形態におけるリンク参照対象の英文の例を示す図。The figure which shows the example of the English of the link reference object in 1st Embodiment. 第1実施形態における単語矩形座標の抽出例を示す図The figure which shows the example of extraction of the word rectangular coordinate in 1st Embodiment. 第1実施形態における英単語矩形座標抽出302の処理フローを示す図。The figure which shows the processing flow of the English-language rectangle coordinate extraction 302 in 1st Embodiment. 第1実施形態における英単語矩形座標抽出302のための黒画素投影処理の原理を説明するための図。The figure for demonstrating the principle of the black pixel projection process for the English word rectangular coordinate extraction 302 in 1st Embodiment. 第1実施形態における単語認識結果データ182の構成例を示す図。The figure which shows the structural example of the word recognition result data 182 in 1st Embodiment. 第1実施形態における英文に関連付けられたリンクデータを格納するリンクDB184の構成を示す図。The figure which shows the structure of link DB184 which stores the link data linked | related with the English sentence in 1st Embodiment. 第1実施形態における英文に関連付けられたリンク情報を検索するためのリンクDB検索処理フローを示す図。The figure which shows the link DB search processing flow for searching the link information linked | related with the English sentence in 1st Embodiment. 第1実施形態における着目単語を基準として周辺単語間の角度測定の説明図。Explanatory drawing of the angle measurement between surrounding words on the basis of the attention word in 1st Embodiment. 第1実施形態における英文の参照対象候補文検索結果データの構成例を示す図。The figure which shows the structural example of the reference target candidate sentence search result data of the English sentence in 1st Embodiment. 第1実施形態におけるリンク参照対象英文候補の表示例を示す図。The figure which shows the example of a display of the link reference object English sentence candidate in 1st Embodiment. 第1実施形態におけるリンクデータの参照結果の表示例を示す図。The figure which shows the example of a display of the reference result of the link data in 1st Embodiment. 第2実施形態による携帯情報端末の構成を示す図。The figure which shows the structure of the portable information terminal by 2nd Embodiment. 第2実施形態によるリンクDBサーバの構成を示す図。The figure which shows the structure of the link DB server by 2nd Embodiment. 第2実施形態におけるリンクデータ参照処理フローを示す図。The figure which shows the link data reference processing flow in 2nd Embodiment. 第3実施形態による携帯情報端末の構成を示す図。The figure which shows the structure of the portable information terminal by 3rd Embodiment. 第3実施形態におけるリンクデータ参照処理フローを示す図。The figure which shows the link data reference processing flow in 3rd Embodiment. 第3実施形態における文字認識・リンク参照対象の和文の例を示す図。The figure which shows the example of the Japanese sentence of the character recognition and link reference object in 3rd Embodiment. 第3実施形態における形態素矩形座標の抽出例を示す図。The figure which shows the example of extraction of the morpheme rectangular coordinate in 3rd Embodiment. 第3実施形態における形態素認識結果データの構成例を示す図。The figure which shows the structural example of the morpheme recognition result data in 3rd Embodiment. 第3実施形態における和文に関連付けられたリンクデータを格納するリンクDB1807の構成を示す図。The figure which shows the structure of link DB1807 which stores the link data linked | related with the Japanese sentence in 3rd Embodiment. 第3実施形態における和文に関連付けられたリンクデータを検索するためのリンクDBの検索処理フローを示す図。The figure which shows the search processing flow of link DB for searching the link data linked | related with the Japanese sentence in 3rd Embodiment. 第3実施形態における和文のリンク参照候補文検索結果データ1806の構成例を示す図。The figure which shows the structural example of the link reference candidate sentence search result data 1806 of the Japanese sentence in 3rd Embodiment. 第2実施形態による携帯情報端末及びWEBサーバ、リンクデータベースサーバを含む文書リンクシステムを示す図。The figure which shows the document link system containing the portable information terminal by 2nd Embodiment, a WEB server, and a link database server. 第1実施形態における英単語に関連付けられたリンクデータを格納するリンクDB184の構成を示す図。The figure which shows the structure of link DB184 which stores the link data linked | related with the English word in 1st Embodiment. 第1実施形態における単語単位のポインタを格納した参照対象候補文検索結果データの構成例を示す図。The figure which shows the structural example of the reference object candidate sentence search result data which stored the pointer of the word unit in 1st Embodiment.

符号の説明Explanation of symbols

100・・・携帯情報端末、110・・・画像撮影部、120・・・表示部、130・・・キー入力部、140・・・端末制御部、150・・・文字認識部、160・・・リンクDB検索部、180・・・メモリ、184・・・リンクDB、202・・・サーバ
DESCRIPTION OF SYMBOLS 100 ... Portable information terminal 110 ... Image pick-up part 120 ... Display part 130 ... Key input part 140 ... Terminal control part 150 ... Character recognition part 160 ... Link DB search unit, 180 ... memory, 184 ... link DB, 202 ... server

Claims (15)

画像撮影部と、利用者に操作されて情報を入力する入力部と、表示部を有する携帯情報端末を用いて、該画像撮影部で撮影された画像に含まれる文字に関連付けられたリンク情報を得て、そのリンク情報を参照してリンク先のデータを該表示部に表示する文書リンク情報取得システムにおいて、
単語からなる文と該文に関連するリンク情報を対応付けて保持すると共に、該文に含まれる各単語の配置情報を関連付けて保持する文書リンク情報データベースを格納する記憶装置と、
該画像撮影部で撮影された画像から利用者により指定された着目単語パターンとその着目単語パターンの周辺の単語パターンを対象として文字認識処理を行い、該単語パターンの文字コードを出力する文字認識部と、
利用者により指定された着目単語パターンと該着目単語パターンの周辺の単語パターンに関して相対的な配置情報を抽出する抽出部と、
該着目単語パターンと該着目単語パターンの周辺の単語パターンに関して、該文字認識部より得られた該文字コードと、該抽出部より得られた該相対的な配置情報を用いて該文書リンク情報データベースを検索する検索部と、
を有し、該検索部より得られたリンク情報を参照してリンク先のデータを該表示部に表示することを特徴とする文書リンク情報取得システム。
Using an image capturing unit, an input unit that is operated by a user to input information, and a portable information terminal having a display unit, link information associated with characters included in the image captured by the image capturing unit is displayed. In the document link information acquisition system that displays the link destination data on the display unit with reference to the link information,
A storage device that stores a document link information database that holds a sentence composed of words and link information related to the sentence in association with each other, and associates and holds arrangement information of each word included in the sentence;
A character recognition unit that performs character recognition processing on a target word pattern designated by a user from an image captured by the image capturing unit and a word pattern around the target word pattern, and outputs a character code of the word pattern When,
An extraction unit that extracts relative arrangement information regarding a target word pattern designated by a user and a word pattern around the target word pattern;
The document link information database using the character code obtained from the character recognition unit and the relative arrangement information obtained from the extraction unit with respect to the word pattern of interest and a word pattern around the word pattern of interest. A search section for searching for,
A link information acquisition system for displaying link destination data on the display unit with reference to link information obtained from the search unit.
前記文書リンク情報データベース部は、英文とそのリンクデータを対応付けて格納することを特徴とする請求項1の文書リンク情報取得システム。   2. The document link information acquisition system according to claim 1, wherein the document link information database unit stores an English sentence and its link data in association with each other. 前記文書リンク情報データベース部は、スペースで区切られた単語からなる文と該文に関連するリンク情報を対応付けて格納することを特徴とする請求項1の文書リンク情報取得システム。   The document link information acquisition system according to claim 1, wherein the document link information database unit stores a sentence composed of words separated by spaces and link information related to the sentence in association with each other. 該相対的な配置情報は、利用者により指定された着目単語パターンの矩形重心から着目単語パターンの各周辺単語パターンの矩形重心に線分を引きその線分間の角度であることを特徴とする請求項1の文書リンク情報取得システム。   The relative arrangement information is an angle of a line segment drawn from a rectangular centroid of a target word pattern specified by a user to a rectangular centroid of each peripheral word pattern of the target word pattern. Item 1. The document link information acquisition system according to Item 1. 該相対的な配置情報は、利用者により指定された着目単語パターンが含まれる行、および、着目単語パターンの各周辺単語パターンが含まれる行の相対的な配置情報であることを特徴とする請求項1の文書リンク情報取得システム。   The relative arrangement information is relative arrangement information of a line including a target word pattern specified by a user and a line including each peripheral word pattern of the target word pattern. Item 1. The document link information acquisition system according to Item 1. 画像撮影部と、利用者に操作されて情報を入力する入力部と、該画像撮影部で撮影された画像に含まれる文字に関連付けられたリンク情報を得るための処理を行うリンク情報取得部と、該リンク情報取得部により得られたリンク情報を参照してリンク先のデータを表示する表示部を有する携帯情報端末を用いた文書リンク情報取得システムにおいて、
文書中の各文に関連するリンク情報を対応付けて格納すると共に、
各文に含まれる各形態素の配置情報を関連付けて保持する文書リンク情報データベースを格納する記憶装置と、
該画像撮影部で撮影された画像から利用者により指定された着目形態素パターンとその着目形態素パターンの周辺の形態素パターンに関して文字認識処理を行い、各形態素の文字コードを出力する文字認識部と、
利用者により指定された着目形態素パターンと該着目形態素パターンの周辺に存在する形態素パターンに関して相対的な配置情報を抽出する抽出部と、
該着目形態素パターンと該着目形態素パターンの周辺に存在する形態素パターンに関して、該文字認識部より得られた文字コードと、該抽出部より得られた該相対的な配置情報を用いて該文書リンク情報データベースを検索する検索部と、
を有し、該検索部より得られたリンク情報を参照してリンク先のデータを該表示部に表示することを特徴とする文書リンク情報取得システム。
An image capturing unit; an input unit that is operated by a user to input information; and a link information acquiring unit that performs processing for obtaining link information associated with characters included in an image captured by the image capturing unit; In a document link information acquisition system using a portable information terminal having a display unit that displays link destination data with reference to link information obtained by the link information acquisition unit,
In addition to storing link information related to each sentence in the document,
A storage device that stores a document link information database that holds and associates placement information of each morpheme included in each sentence;
A character recognition unit that performs character recognition processing on a morpheme pattern specified by the user from an image captured by the image capturing unit and a morpheme pattern around the morpheme pattern of interest, and outputs a character code of each morpheme;
An extraction unit that extracts relative arrangement information regarding a morpheme pattern of interest and a morpheme pattern existing around the morpheme pattern of interest designated by the user;
The document link information using the character code obtained from the character recognition unit and the relative arrangement information obtained from the extraction unit for the target morpheme pattern and the morpheme pattern existing around the target morpheme pattern A search section for searching a database;
A link information acquisition system for displaying link destination data on the display unit with reference to link information obtained from the search unit.
画像撮影部と、利用者に操作されて情報を入力する入力部と、表示部を有する携帯情報端末を用いて、該画像撮影部で撮影された画像に含まれる文字に関連付けられたリンク情報を得て、そのリンク情報を参照してリンク先のデータを該表示部に表示する文書リンク情報取得システムにおいて、
単語からなる文と該文に関連するリンク情報を対応付けて保持すると共に、該文に含まれる各文字の配置情報を関連付けて保持する文書リンク情報データベースを格納する記憶装置と、
該画像撮影部で撮影された画像から利用者により指定された着目文字パターンとその着目文字パターンの周辺の文字パターンを対象として文字認識処理を行い、該文字パターンの文字コードを出力する文字認識部と、
利用者により指定された着目文字パターンと該着目文字パターンの周辺の文字パターンに関して相対的な配置情報を抽出する抽出部と、
該着目文字パターンと該着目文字パターンの周辺の文字パターンに関して、該文字認識部より得られた該文字コードと該抽出部より得られた該相対的な配置情報を用いて、該文書リンク情報データベースを検索する検索部と、
を有し、該検索部より得られたリンク情報を参照してリンク先のデータを該表示部に表示することを特徴とする文書リンク情報取得システム。
Using an image capturing unit, an input unit that is operated by a user to input information, and a portable information terminal having a display unit, link information associated with characters included in the image captured by the image capturing unit is displayed. In the document link information acquisition system that displays the link destination data on the display unit with reference to the link information,
A storage device that stores a document link information database that holds a sentence composed of words and link information related to the sentence in association with each other, and holds association information of each character included in the sentence, and
A character recognition unit that performs character recognition processing on a target character pattern designated by a user from an image captured by the image capturing unit and a character pattern around the target character pattern, and outputs a character code of the character pattern When,
An extraction unit that extracts relative arrangement information regarding the character pattern of interest specified by the user and the character patterns around the character pattern of interest;
The document link information database using the character code obtained from the character recognition unit and the relative arrangement information obtained from the extraction unit with respect to the character pattern around and the character pattern around the character pattern of interest. A search section for searching for,
A link information acquisition system for displaying link destination data on the display unit with reference to link information obtained from the search unit.
前記文書リンク情報データベースを格納する記憶装置、及び前記検索部を備えるサーバを有する文書リンク情報取得システムであって、
該携帯情報端末の該文字認識部より得られた該文字コードと、該抽出部より得られた該相対的な配置情報を、ネットワークを介して該サーバに送信し、該サーバにおいて該検索部により該文書リンク情報データベースを検索した結果得られたリンク情報を、該ネットワークを介して該携帯情報端末に送信することを特徴とする請求項1乃至7のいずれかの文書リンク情報取得システム。
A document link information acquisition system having a storage device for storing the document link information database and a server including the search unit,
The character code obtained from the character recognition unit of the portable information terminal and the relative arrangement information obtained from the extraction unit are transmitted to the server via a network, and the search unit in the server 8. The document link information acquisition system according to claim 1, wherein link information obtained as a result of searching the document link information database is transmitted to the portable information terminal via the network.
前記文字認識部、前記抽出部、前記文書リンク情報データベースを格納する記憶装置、及び前記検索部を備えるサーバを有する文書リンク情報取得システムであって、
該携帯情報端末の該画像撮影部より得られた画像をネットワークを介して該サーバに送信し、該サーバにおいて該検索部により該文書リンク情報データベースを検索した結果得られたリンク情報を、該ネットワークを介して該携帯情報端末に送信することを特徴とする請求項1乃至7のいずれかの文書リンク情報取得システム。
A document link information acquisition system including a server including the character recognition unit, the extraction unit, a storage device that stores the document link information database, and the search unit,
An image obtained from the image photographing unit of the portable information terminal is transmitted to the server via a network, and link information obtained as a result of retrieving the document link information database by the retrieval unit in the server is used as the network. The document link information acquisition system according to claim 1, wherein the document link information acquisition system transmits the document link information to the portable information terminal.
前記文書リンク情報データベースは、単語が含まれる文を検索するための単語インデックス部と、該文に含まれる単語の幾何学情報と単語の文字コードを格納した文データ格納部と、各文に関連するリンク情報を格納したリンク情報格納部を有することを特徴とする請求項1乃至9のいずれかの文書リンク情報取得システム。   The document link information database includes a word index unit for searching for a sentence including a word, a sentence data storage unit storing geometric information of a word included in the sentence and a character code of the word, and a relation to each sentence The document link information acquisition system according to claim 1, further comprising a link information storage unit that stores link information to be stored. 請求項1乃至10のいずれかのシステムにおいて使用される携帯情報端末。   A portable information terminal used in the system according to claim 1. 請求項8又は9のシステムにおいて使用されるサーバ。   The server used in the system of Claim 8 or 9. 請求項1乃至10のいずれかのシステムにおいて、前記抽出部の機能を実現するためのコンピュータ上で実行可能なプログラム。   The system according to claim 1, wherein the program is executable on a computer for realizing the function of the extraction unit. 画像撮影部と、利用者に操作されて情報を入力する入力部と、表示部を有する携帯情報端末を用いて、該画像撮影部で撮影された画像に含まれる文字に関連付けられたリンク情報を得て、そのリンク情報を参照してリンク先のデータを該表示部に表示する文書リンク情報取得方法において、
単語からなる文と該文に関連するリンク情報を対応付けて保持すると共に、該文に含まれる各文字の配置情報を関連付けて保持する文書リンク情報データベースを記憶装置内に予め用意するステップと、
該画像撮影部で撮影された画像から利用者により指定された着目文字パターンとその着目文字パターンの周辺の文字パターンを対象として文字認識処理を行い、該文字パターンの文字コードを出力するステップと、
利用者により指定された着目文字パターンと該着目文字パターンの周辺の文字パターンに関して相対的な配置情報を抽出するステップと、
該着目文字パターンと該着目文字パターンの周辺の文字パターンに関して、該文字認識部より得られた該文字コードと該抽出部より得られた該相対的な配置情報を用いて、該文書リンク情報データベースを検索するステップと、
該検索の結果得られたリンク情報を参照してリンク先のデータを該表示部に表示するステップと、
を有する文書リンク情報取得方法。
Using an image capturing unit, an input unit that is operated by a user to input information, and a portable information terminal having a display unit, link information associated with characters included in the image captured by the image capturing unit is displayed. In the document link information acquisition method of referring to the link information and displaying the link destination data on the display unit,
Preparing in advance in a storage device a document link information database that holds a sentence composed of words and link information related to the sentence in association with each other, and holds the arrangement information of each character included in the sentence in association with each other;
Performing character recognition processing on a target character pattern designated by a user from an image captured by the image capturing unit and a character pattern around the target character pattern, and outputting a character code of the character pattern;
Extracting relative arrangement information regarding the character pattern of interest specified by the user and the character patterns around the character pattern of interest;
The document link information database using the character code obtained from the character recognition unit and the relative arrangement information obtained from the extraction unit with respect to the character pattern around and the character pattern around the character pattern of interest. Searching for
Displaying link destination data on the display unit with reference to link information obtained as a result of the search; and
Document link information acquisition method comprising:
該文書リンク情報データベースの検索の結果、該着目文字パターンを含む1又は複数のリンク情報の候補となる文を該表示部に表示するステップと、
複数の候補の場合、該複数の候補の中から利用者により該入力部を介して指定された候補に対応するリンク情報を参照してリンク先のデータを該文書リンク情報データベースから得るステップと、を更に有し、
該文書リンク情報データベースから得られたリンク先のデータと該文とを対応させて該表示部に表示することを特徴とする請求項14の文書リンク情報取得方法。
As a result of searching the document link information database, displaying a sentence that is one or more link information candidates including the target character pattern on the display unit;
In the case of a plurality of candidates, referring to link information corresponding to a candidate designated by the user via the input unit from among the plurality of candidates, obtaining link destination data from the document link information database; Further comprising
15. The document link information acquisition method according to claim 14, wherein the link destination data obtained from the document link information database and the sentence are displayed in correspondence with each other on the display unit.
JP2004232891A 2004-08-10 2004-08-10 Document link information acquisition system Active JP4474231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004232891A JP4474231B2 (en) 2004-08-10 2004-08-10 Document link information acquisition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004232891A JP4474231B2 (en) 2004-08-10 2004-08-10 Document link information acquisition system

Publications (3)

Publication Number Publication Date
JP2006053622A true JP2006053622A (en) 2006-02-23
JP2006053622A5 JP2006053622A5 (en) 2007-06-14
JP4474231B2 JP4474231B2 (en) 2010-06-02

Family

ID=36031085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004232891A Active JP4474231B2 (en) 2004-08-10 2004-08-10 Document link information acquisition system

Country Status (1)

Country Link
JP (1) JP4474231B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250941A (en) * 2007-03-30 2008-10-16 Fujitsu Ltd Document collecting method, document collecting program and document collecting device
JP2009199514A (en) * 2008-02-25 2009-09-03 Fujifilm Corp File generation server for mobile phone, operation control method thereof and control program thereof
JP2010067274A (en) * 2008-09-15 2010-03-25 Ricoh Co Ltd Mmr system and method
JP2011054148A (en) * 2009-08-04 2011-03-17 Nippon Telegr & Teleph Corp <Ntt> Retrieval device and method, and program
JP2011060022A (en) * 2009-09-10 2011-03-24 Yahoo Japan Corp Content data providing device
WO2013115203A1 (en) * 2012-01-30 2013-08-08 日本電気株式会社 Information processing system, information processing method, information processing device, and control method and control program therefor, and communication terminal, and control method and control program therefor
CN111460205A (en) * 2020-04-03 2020-07-28 湖州市超视科技有限公司 Cosmetic packaging description quality inspection detection system based on edge calculation

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250941A (en) * 2007-03-30 2008-10-16 Fujitsu Ltd Document collecting method, document collecting program and document collecting device
JP2009199514A (en) * 2008-02-25 2009-09-03 Fujifilm Corp File generation server for mobile phone, operation control method thereof and control program thereof
JP2010067274A (en) * 2008-09-15 2010-03-25 Ricoh Co Ltd Mmr system and method
JP2014026662A (en) * 2008-09-15 2014-02-06 Ricoh Co Ltd Retrieval system, retrieval method, and computer program
JP2011054148A (en) * 2009-08-04 2011-03-17 Nippon Telegr & Teleph Corp <Ntt> Retrieval device and method, and program
JP2011060022A (en) * 2009-09-10 2011-03-24 Yahoo Japan Corp Content data providing device
WO2013115203A1 (en) * 2012-01-30 2013-08-08 日本電気株式会社 Information processing system, information processing method, information processing device, and control method and control program therefor, and communication terminal, and control method and control program therefor
CN111460205A (en) * 2020-04-03 2020-07-28 湖州市超视科技有限公司 Cosmetic packaging description quality inspection detection system based on edge calculation

Also Published As

Publication number Publication date
JP4474231B2 (en) 2010-06-02

Similar Documents

Publication Publication Date Title
US20200065601A1 (en) Method and system for transforming handwritten text to digital ink
US7702673B2 (en) System and methods for creation and use of a mixed media environment
US8521737B2 (en) Method and system for multi-tier image matching in a mixed media environment
US8195659B2 (en) Integration and use of mixed media documents
US20070047819A1 (en) Data organization and access for mixed media document system
US20070047002A1 (en) Embedding Hot Spots in Electronic Documents
JP2011008752A (en) Document operation system, document operation method and program thereof
KR20090053177A (en) Apparatus and method for recognizing characters
CN111160333A (en) AR glasses, text translation method and device thereof, and computer-readable storage medium
JP2021043478A (en) Information processing device, control method thereof and program
JP5661549B2 (en) Character recognition device for recognizing characters on a form, mask processing method, and mask processing program
KR100615058B1 (en) Mobile handset and the method of selecting an objective area of the chatacter recognition on a mobile handset
JP4594952B2 (en) Character recognition device and character recognition method
JP4474231B2 (en) Document link information acquisition system
JP4177325B2 (en) Image processing apparatus, image processing program, and image processing method
JP2008282094A (en) Character recognition processing apparatus
JP2020017149A (en) Information processing device and information processing method
JP2018181243A (en) Information processor, information processor control method, and program
JP2006048324A (en) Document translation system
JP2017208655A (en) Information processing system, information processing method and program
JP3171626B2 (en) Character recognition processing area / processing condition specification method
JP6408055B2 (en) Information processing apparatus, method, and program
JP5277750B2 (en) Image processing program, image processing apparatus, and image processing system
JP7231529B2 (en) Information terminal device, server and program
JP2006106931A (en) Character string retrieval device and method and program for the method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060509

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150