JP2003331217A - Character input device, character input method and character input program - Google Patents

Character input device, character input method and character input program

Info

Publication number
JP2003331217A
JP2003331217A JP2002265397A JP2002265397A JP2003331217A JP 2003331217 A JP2003331217 A JP 2003331217A JP 2002265397 A JP2002265397 A JP 2002265397A JP 2002265397 A JP2002265397 A JP 2002265397A JP 2003331217 A JP2003331217 A JP 2003331217A
Authority
JP
Japan
Prior art keywords
character
recognition data
image
character recognition
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002265397A
Other languages
Japanese (ja)
Inventor
Kyosuke Nishiyama
京助 西山
Shuji Senda
修司 仙田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002265397A priority Critical patent/JP2003331217A/en
Publication of JP2003331217A publication Critical patent/JP2003331217A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a character input device capable of realizing input by accurate character recognition even when a high-quality photographed image can not be acquired because of resolution of a camera, deformation of a lens or the like. <P>SOLUTION: This device is equipped with a data processing device 50 comprising a character extraction device 51 for extracting an image of a character part from an image photographed by a photographing device 10, a character recognition device 52 for performing character recognition from the image of the character part, and adding reliability to the character recognition result to acquire character recognition data, and a recognition data synthesis device 53 for detecting and connecting overlapped parts in the character recognition data acquired from a plurality of images in the same document, selecting highly- reliable character recognition data relative to the overlapped parts, and thereby synthesizing a plurality of the character recognition data into one synthesized recognition data, and also equipped with a recognition data storage device 60 for storing the synthesized recognition data and a display device 40 for displaying the photographed image or the character recognition result. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、文字入力装置、文
字入力方法及び文字入力プログラムに関し、特にカメラ
等の撮影装置を用いて大量の文字情報を正確に入力する
可能とする文字入力装置、文字入力方法及び文字入力プ
ログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character input device, a character input method, and a character input program, and more particularly to a character input device and a character input device capable of accurately inputting a large amount of character information using a photographing device such as a camera. The present invention relates to an input method and a character input program.

【0002】[0002]

【従来の技術】デジタルカメラ等の機器によって文書を
撮影し、コンピュータにデータとして取り込もうとした
場合、この種のカメラではその解像度に制限があること
から、大量の文字情報を含む文書全体を撮影して取り込
んだ場合、文字の識別ができなくなるという問題があ
る。このため、従来では、大量の文字情報を含む文書を
高解像度で撮影して取り込みたい場合には、文書全体を
一度に撮影するのではなく、文書をいくつかの領域に分
割して何回かに分けて拡大撮影し、コンピュータに取り
込んだ後で合成するという方法がとられている。
2. Description of the Related Art When a document is photographed by a device such as a digital camera and the data is taken into a computer, the resolution of this type of camera is limited. However, if it is captured, there is a problem that the characters cannot be identified. For this reason, in the past, when it was desired to capture and capture a document containing a large amount of text information at high resolution, instead of capturing the entire document at once, dividing the document into several areas The method is to take a magnified image by dividing it into two parts, and then combine them after importing them into the computer.

【0003】従来の文字入力方法としては、例えば特開
2000-278514号公報や特開平10-91722号公報に開示され
るものがある。これらの文字入力方法では、カメラでは
なくハンディスキャナ等で撮影された画像から文字認識
し、文字コードで位置合わせをした後、画像を合成して
全体画像を得ていた。これらの手法は、ハンディスキャ
ナ等で撮影されるような高品質の画像に関しては有効な
入力が可能である。しかし、カメラを手で持って撮影し
た画像では、紙面との距離によって拡大率が変わった
り、カメラの持ち方によって画像が傾いたりするため、
これらの従来の方法では満足な結果を得ることはできな
い。
As a conventional character input method, for example, Japanese Patent Laid-Open No.
There are some disclosed in 2000-278514 and Japanese Patent Laid-Open No. 10-91722. In these character input methods, characters are recognized from an image taken by a handy scanner or the like instead of a camera, the characters are aligned by a character code, and then the images are combined to obtain the entire image. These methods enable effective input for high-quality images taken with a handy scanner or the like. However, for images taken with the camera in your hand, the magnification may change depending on the distance to the paper surface, or the image may tilt depending on how you hold the camera.
Satisfactory results cannot be obtained with these conventional methods.

【0004】文書をコンピュータに入力する際には、重
要なのは画像ではなく文字情報であることが多い。そこ
で画像ではなく、文字認識結果を合成することで文書全
体の文字情報を得る手法が考えられている。例えば、特
開平11-196255号公報や特開平11-232378号公報などに
は、カメラを自動で動かしたり、撮影画像を補正するな
どの方法によって高品質のカメラ撮影画像を得た後に文
字認識し、文字認識結果の重なりを判断して文字情報を
合成する手法が開示されている。
When inputting a document into a computer, it is often important that the text information, not the image, is important. Therefore, a method of obtaining character information of the entire document by combining not the image but the character recognition result has been considered. For example, in Japanese Patent Laid-Open No. 11-196255 and Japanese Patent Laid-Open No. 11-232378, character recognition is performed after a high-quality camera-captured image is obtained by a method such as automatically moving the camera or correcting the captured image. , A method of synthesizing character information by determining overlapping of character recognition results is disclosed.

【0005】しかし、上述した方法では、予め決められ
た順番で分割撮影を行い、最後に文字認識と合成を行う
ので、文字認識結果の確認も最後に行うことになる。こ
のため、認識結果全体を元の文書と照らし合わせるのは
非常に手間と時間がかかると共に、撮影した画像を保存
しておいて画面上で確認するにしても、全画像を保存し
ておくための記憶容量が必要になる。また、誤りに気付
いた場合も、それを修正するために何らかの手段によっ
て修正対象の文字を選択して修正作業を行う必要があ
り、それもユーザーにとって大きな負担となる。
However, in the above-described method, the divided photographing is performed in a predetermined order, and the character recognition and the composition are performed at the end, so that the result of the character recognition is also confirmed at the end. For this reason, it takes a lot of time and effort to check the entire recognition result with the original document, and even if the captured image is saved and checked on the screen, all the images are saved. Storage capacity is required. Further, even when an error is noticed, it is necessary to select the character to be corrected by some means and perform the correction work in order to correct it, which is also a heavy burden on the user.

【0006】また、コンピュータに文字を取り込む場
合、特に文書中の一部分の文字列(URLやメールアドレ
スなど)を入力して利用する機会が多いと考えられる。
カメラで文書中の一部分の文字列を撮影して入力する手
段としては、特開2000-207338のような従来技術が上げ
られる。これはカメラによる撮影画像上で、ユーザーが
ポインティングデバイス等を用いて設定した領域のみを
文字認識処理することで、画面上の一部分の文字列の入
力を実現していた。
[0006] Further, when capturing characters in a computer, it is considered that there are many occasions where a character string (URL, mail address, etc.) of a part of a document is input and used.
As a means for photographing and inputting a part of a character string in a document with a camera, there is a conventional technique such as Japanese Patent Laid-Open No. 2000-207338. This is to input a partial character string on the screen by performing character recognition processing only on an area set by a user using a pointing device or the like on an image captured by a camera.

【0007】しかし、これは一画面に収まらないような
長い文字列を入力することは考慮されていなかった。複
数回に分けて撮影して後で連結するにしても、毎撮影ご
とに入力したい文字列を領域指定するのは面倒であっ
た。
However, this does not consider inputting a long character string that does not fit on one screen. Even if the images are divided into a plurality of times and the images are connected later, it is troublesome to specify the area of the character string to be input for each image pickup.

【0008】また、文書中で入力したい文字列が途中で
改行している場合も考慮されておらず、別々に撮影した
後、文書編集ソフト等を用いて一つの文字列に結合する
必要があった。
Also, the case where the character string to be input in the document has a line break in the middle is not taken into consideration, and it is necessary to combine them into one character string by using the document editing software or the like after photographing them separately. It was

【0009】さらに、文書中の入力したい文字列の前後
に、隣接して余分な文字が印刷されている場合、これら
が撮影されないように撮影範囲を厳密に入力文字列にあ
わせる必要があり、面倒であった。
Further, when extra characters are printed adjacent to each other before and after the character string to be input in the document, it is necessary to strictly adjust the photographing range to the input character string so that these characters are not photographed, which is troublesome. Met.

【0010】[0010]

【発明が解決しようとする課題】上述した従来の文字入
力の方法においては、以下に述べるような問題点があっ
た。
The above-described conventional character input method has the following problems.

【0011】第1の問題点は、歪みやひずみの無い画像
を得るために、撮影手法を工夫したり、あるいは撮影後
の画像をユーザーが画像処理して補正を加えなければな
らない点である。
The first problem is that, in order to obtain an image without distortion or distortion, the photographing method must be devised, or the user must perform image processing on the photographed image to correct it.

【0012】その理由は、カメラで撮影した画像は、ス
キャナなどの文書画像取り込み専用の装置を用いた場合
とは異なり、解像度が低く、歪みもあり、文字認識には
適さないためである。また、第2の問題点で述べるよう
に、誤認識を修正することが困難なため、より認識に適
した画像を取得しなければならいこともその理由であ
る。
The reason for this is that an image taken by a camera has a low resolution and is distorted and is not suitable for character recognition, unlike the case where a device dedicated to capturing a document image such as a scanner is used. Further, as described in the second problem, it is difficult to correct the erroneous recognition, so that it is necessary to acquire an image more suitable for the recognition.

【0013】第2の問題点は、認識の誤りを確認、修正
するのが困難であるという点である。
The second problem is that it is difficult to confirm and correct a recognition error.

【0014】その理由は、文書全体を分割撮影した後に
文字認識を行っていたため、認識誤りの確認に多大な手
間がかかり、仮に誤りに気付いても、その文字を何らか
の手段によって指定して正しい文字を選択もしくは入力
するという面倒な作業が必要であるからである。
The reason is that the character recognition is performed after the entire document is divided and photographed, so that it takes a lot of time and effort to check the recognition error, and even if the error is noticed, the character is designated by some means and the correct character is recognized. This is because the troublesome work of selecting or inputting is required.

【0015】第3の問題点は、文書を分割撮影をする場
合に、それまで撮影した撮影画像とまったく重複部分の
ない画像を撮影してしまった場合には、それを正しく合
成することができないという点である。
A third problem is that when a document is divided and photographed, if a photographed image that does not completely overlap the photographed image taken up to that time is photographed, it cannot be combined correctly. That is the point.

【0016】その理由は、分割撮影した結果を合成する
時に、それぞれの画像の重複部分の情報を用いているか
らである。
The reason is that the information of the overlapping portions of the respective images is used when the results of the divided photographing are combined.

【0017】第4の問題点は、分割撮影をする場合、撮
影の度に何度もカメラを構え直してシャッターボタンを
押すという作業がユーザーにとって非常に負担になると
いう点である。
The fourth problem is that, in the case of divisional photographing, the work of re-holding the camera and pressing the shutter button many times each time the photographing is performed is very burdensome for the user.

【0018】その理由は、広い面積の文書を分割撮影す
るには、カメラをその都度構え直してシャッターをその
分割数だけ何回も押さなければならず、それらの作業に
非常に手間と時間がかかるからである。加えて、シャッ
ターボタンを押す動作が手ぶれの原因につながるという
問題も有している。
The reason is that in order to divide and photograph a document having a large area, it is necessary to reposition the camera and press the shutter many times by the number of divisions, which is very troublesome and time-consuming. This is because of this. In addition, there is a problem that the operation of pressing the shutter button causes camera shake.

【0019】第5の問題点は、文書から一部分の長い文
字列を入力するのに向いていないという点である。
The fifth problem is that it is not suitable for inputting a part of a long character string from a document.

【0020】その理由は、1回で撮影しきれないような
長い文字列を入力することは考慮されておらず、数回に
分けて撮影するにしても、毎回の撮影のたびに撮影画像
中の入力文字列を何らかの形で指定しなければならず、
面倒だからである。
The reason is that the input of a long character string that cannot be photographed at one time is not taken into consideration. Even if the photograph is divided into several times, the photographed image is recorded every time the photograph is taken. You must specify the input string of
Because it is troublesome.

【0021】第6の問題点は、途中で改行している文字
列を入力するのが困難であるという点である。
The sixth problem is that it is difficult to input a character string having a line break in the middle.

【0022】その理由は、改行された文字列を入力する
ことは考慮されておらず、別々に入力して後で文字編集
ソフトなどで結合する必要があるからである。
The reason is that it is not taken into consideration to input a line-broken character string, and it is necessary to input them separately and then combine them with character editing software or the like.

【0023】第7の問題点は、入力したい文字列の前後
に密着して余分な文字列が印刷されていると、入力が面
倒であると移転である。
The seventh problem is that if an extra character string is printed closely before and after the character string to be input, the input is troublesome and the transfer is necessary.

【0024】その理由は、余分な文字列が入力されない
ようにカメラを動かして撮影範囲を微調整したり、処理
範囲を厳密に指定したりしなければならないからであ
る。
The reason is that it is necessary to move the camera to finely adjust the photographing range and to strictly specify the processing range so that an extra character string is not input.

【0025】本発明の目的は、カメラを用いて文字入力
を行う際に、カメラの解像度やレンズの歪み等による高
品質な撮影画像が得られなくとも、正確な文字認識によ
る入力が実現される文字入力装置、文字入力方法及び文
字入力プログラムを提案することにある。
An object of the present invention is to realize accurate character recognition input when a character is input using a camera, even if a high-quality photographed image due to camera resolution, lens distortion, etc. cannot be obtained. It is to propose a character input device, a character input method, and a character input program.

【0026】本発明の他の目的は、認識に適した画像を
取得するために、画像処理によって撮影画像を補正する
といった無駄な作業をすることなく文字入力が行える文
字入力装置、文字入力方法及び文字入力プログラムを提
案することにある。
Another object of the present invention is to provide a character input device, a character input method, and a character input device capable of inputting characters without wasteful work such as correcting a photographed image by image processing in order to obtain an image suitable for recognition. To propose a character input program.

【0027】本発明の他の目的は、カメラを用いて文字
入力を行う際に、文字の誤認識による入力誤りを簡単に
修正できる文字入力装置及び文字入力方法を提案するこ
とにある。
Another object of the present invention is to provide a character input device and a character input method which can easily correct an input error caused by erroneous recognition of a character when inputting a character using a camera.

【0028】本発明のさらに他の目的は、カメラを用い
て文字入力を行う際に、分割撮影で重複する部分が無い
範囲を撮影してしまったとしても、その画像を無駄にす
ることなく利用することができる文字入力装置、文字入
力方法及び文字入力プログラムを提案することにある。
Still another object of the present invention is to use the image without wasting it even if a region having no overlapping portion is photographed by the divided photographing when inputting characters using the camera. It is to propose a character input device, a character input method, and a character input program that can be performed.

【0029】本発明のさらに他の目的は、文書を分割撮
影する際に何度も構え直してシャッターボタンを押すと
いった一連の操作を不要とする文字入力装置、文字入力
方法及び文字入力プログラムを提案することにある。
Still another object of the present invention is to propose a character input device, a character input method, and a character input program that eliminate the need for a series of operations such as re-holding and pressing the shutter button many times when dividing and photographing a document. To do.

【0030】本発明のさらに他の目的は、カメラを用い
て文字入力を行う際に、長い文字列を毎回対象を指定す
ることなしに連続して撮影できる文字入力装置、文字入
力方法及び文字入力プログラムを提案することにある。
Still another object of the present invention is to provide a character input device, a character input method, and a character input device capable of continuously capturing a long character string without designating an object each time a character is input using a camera. To propose a program.

【0031】本発明のさらに他の目的は、カメラを用い
て文字入力を行う際に、途中で改行して印刷された文字
列を簡単に入力できる文字入力装置、文字入力方法及び
文字入力プログラムを提案することにある。
Still another object of the present invention is to provide a character input device, a character input method, and a character input program which can easily input a character string printed with a line feed in the middle when a character is input using a camera. To propose.

【0032】本発明のさらに他の目的は、カメラを用い
て文字入力を行う際に、前後に密着して印刷された余分
な文字列を撮影しないように撮影範囲を微調整したり、
処理範囲を厳密に指定したりする必要の無い文字入力装
置、文字入力方法及び文字入力プログラムを提案するこ
とにある。
Still another object of the present invention is to finely adjust the shooting range so as not to shoot an extra character string printed closely in front and back when inputting characters using a camera.
It is to propose a character input device, a character input method, and a character input program that do not require a strict specification of the processing range.

【0033】[0033]

【課題を解決するための手段】上記目的を達成する本発
明は、撮影装置による文書の撮影画像から文字の抽出と
認識を行うことにより、文字入力を行う文字入力装置に
おいて、前記文字の認識結果に、認識の確からしさを示
す信頼度を付加して記憶し、前記文書の全体又は一部を
繰り返し撮影した画像からの文字認識結果を比較するこ
とにより、前記信頼度の最も高い文字の認識結果に基づ
いて文字入力を行うことを特徴とする。
SUMMARY OF THE INVENTION To achieve the above object, the present invention provides a character input device for inputting characters by extracting and recognizing characters from a photographed image of a document by a photographing device. In addition, the reliability indicating the certainty of recognition is added and stored, and by comparing the character recognition results from images obtained by repeatedly photographing the whole or a part of the document, the recognition result of the character with the highest reliability can be obtained. Characteristic is based on.

【0034】請求項2の本発明の文字入力装置によれ
ば、撮影装置による文書の撮影画像から文字の抽出と認
識を行うことにより、文字入力を行う文字入力装置にお
いて、前記撮影装置が撮影した画像から文字部分の画像
を抽出する文字抽出手段と、前記文字部分の画像から文
字認識を行い、文字認識結果に前記信頼度を付加して文
字認識データとする文字認識手段と、同一文書の複数の
画像から得られた前記文字認識データの重複部分を検出
し連結すると共に、重複部分に関し前記信頼度の高い文
字認識データを選択することにより、複数の前記文字認
識データを一つの前記文字認識データに合成する認識デ
ータ合成手段と、合成した前記文字認識データを記憶す
る認識データ記憶手段とを備えることを特徴とする。
According to the character input device of the present invention of claim 2, in the character input device for inputting characters by extracting and recognizing characters from a captured image of a document by the image capturing device, the image capturing device captures an image. A character extracting unit that extracts an image of a character portion from an image, a character recognizing unit that performs character recognition from the image of the character portion, and adds the reliability to the character recognition result to obtain character recognition data; Of the character recognition data obtained from the image of the character recognition data is detected and connected, and by selecting the character recognition data having high reliability with respect to the overlapped portion, a plurality of the character recognition data are combined into one character recognition data. And a recognition data storage unit for storing the combined character recognition data.

【0035】請求項3の本発明の文字入力装置によれ
ば、前記信頼度を、少なくとも文字認識で参照する辞書
と前記撮影画像から抽出した文字との一致の度合いや前
記撮影画像の歪みに関する情報に基づいて定めることを
特徴とする。
According to the character input device of the third aspect of the present invention, the reliability is at least information on the degree of matching between the dictionary referred to in character recognition and the character extracted from the photographed image, and the distortion of the photographed image. It is characterized in that it is determined based on.

【0036】請求項4の本発明の文字入力装置によれ
ば、前記認識データ合成手段は、同一文書の複数の画像
から得られた前記文字認識データに関し、最新の画像か
ら得られた前記文字認識データと、前記認識データ記憶
手段に記憶された以前の画像から得られた前記文字認識
データとの重複部分を検出し、前記最新の画像から得ら
れた前記文字認識データの前記信頼度の方が高い場合
に、前記認識データ記憶手段の以前の画像から得た前記
文字認識データを書き換えることを特徴とする。
According to the character input device of the present invention of claim 4, the recognition data synthesizing means relates to the character recognition data obtained from a plurality of images of the same document, and the character recognition obtained from the latest image. The reliability of the character recognition data obtained from the latest image is detected by detecting the overlapping portion of the data and the character recognition data obtained from the previous image stored in the recognition data storage means. If the value is high, the character recognition data obtained from the previous image in the recognition data storage means is rewritten.

【0037】請求項5の本発明の文字入力装置によれ
ば、文字認識データとして記憶された文字から指定され
た文字の少なくとも一つ以上の他の認識候補を前記認識
データ記憶手段から読み出して提示し、前記認識候補か
ら選択された文字の文字認識データで前記指定された文
字の文字認識データを置き換えることで前記文字認識デ
ータの修正を行う文字修正手段を備えることを特徴とす
る。
According to the character input device of the present invention of claim 5, at least one or more other recognition candidates of the character designated from the characters stored as the character recognition data are read out from the recognition data storage means and presented. The character recognition data of the specified character is replaced with the character recognition data of the character selected from the recognition candidates, thereby correcting the character recognition data.

【0038】請求項6の本発明の文字入力装置によれ
ば、前記文字修正手段は、表示手段に表示された前記文
字認識データのうち、撮影された画像の中央近傍に位置
する文字の文字認識データを修正対象の文字として選択
することを特徴とする。
According to the character input device of the present invention of claim 6, the character correction means recognizes the character of the character positioned near the center of the photographed image among the character recognition data displayed on the display means. The feature is that data is selected as a character to be corrected.

【0039】請求項7の本発明の文字入力装置によれ
ば、前記認識データ合成手段は、同一文書の複数の画像
から得られた前記文字認識データに関し、最新の画像か
ら得られた前記文字認識データと、前記認識データ記憶
手段に記憶された以前の画像から得られた前記文字認識
データとの重複部分を検出し、前記重複部分が検出され
ない場合、前記最新の画像から得られた前記文字認識デ
ータを保留データとして記憶し、次に入力された画像か
ら得られる文字認識データについて前記保留データとの
重複部分も検出することを特徴とする。
According to the character input device of the present invention of claim 7, the recognition data synthesizing means relates to the character recognition data obtained from a plurality of images of the same document, and the character recognition obtained from the latest image. Detecting an overlapping portion between the data and the character recognition data obtained from the previous image stored in the recognition data storage means, and if the overlapping portion is not detected, the character recognition obtained from the latest image It is characterized in that the data is stored as the reserved data, and the character recognition data obtained from the next input image is also detected as an overlapping portion with the reserved data.

【0040】請求項8の本発明の文字入力装置によれ
ば、連続的に入力される画像相互の差分から前記撮影装
置の移動量を検出し、前記移動量に基づいて前記撮影装
置の静止状態を判別して画像の撮影指示を自動的に行う
手段を備えることを特徴する。
According to the character input device of the present invention as defined in claim 8, the moving amount of the photographing device is detected from the difference between continuously input images, and the stationary state of the photographing device is detected based on the moving amount. It is characterized in that it is provided with a means for automatically discriminating the image capturing instruction of the image.

【0041】請求項9の本発明の文字入力装置によれ
ば、前記撮影装置による撮影画像を一時的に記憶する画
像一時記憶手段と、前記画像一時記憶手段に記憶された
画像と前記撮影装置から入力される画像との差分を検出
し、検出した前記差分が所定の閾値以下の場合に前記撮
影装置が静止状態であると判断して前記撮影装置に対し
て撮影指令を送る画像差分検出手段とを備えることを特
徴とする。
According to the character input device of the present invention of claim 9, an image temporary storage means for temporarily storing a photographed image by the photographing device, an image stored in the image temporary storage means and the photographing device. An image difference detecting unit that detects a difference from an input image, determines that the photographing device is in a stationary state when the detected difference is equal to or less than a predetermined threshold, and sends a photographing command to the photographing device. It is characterized by including.

【0042】請求項10の本発明の文字入力装置によれ
ば、前記画像差分検出手段は、前記差分が所定の閾値以
下の状態が所定時間継続した場合に、前記撮影装置が静
止状態にあると判断することを特徴とする。
According to the character input device of the tenth aspect of the present invention, the image difference detecting means determines that the photographing device is in a stationary state when the difference is equal to or less than a predetermined threshold for a predetermined time. It is characterized by making a judgment.

【0043】請求項11の本発明によれば、撮影装置に
よる文書の撮影画像から文字の抽出と認識を行うことに
より、文字入力を行う文字入力方法において、前記文字
の認識結果に、認識の確からしさを示す信頼度を付加
し、前記文書の全体又は一部を繰り返し撮影した画像か
らの文字認識結果を比較し、前記信頼度の最も高い文字
の認識結果を選択することを特徴とする。
According to the present invention of claim 11, in a character input method for inputting characters by extracting and recognizing characters from a photographed image of a document by a photographing device, the recognition result of the characters indicates the recognition accuracy. It is characterized in that the recognition result of the character having the highest reliability is selected by adding the reliability indicating the likelihood and comparing the character recognition results from the images obtained by repeatedly photographing the whole or a part of the document.

【0044】請求項12の文字入力方法によれば、前記
信頼度が、少なくとも文字認識で参照する辞書と前記撮
影画像から抽出した文字との一致の度合いや前記撮影画
像の歪みに関する情報に基づいて定めることを特徴とす
る。
According to the twelfth aspect of the character input method, the reliability is based on at least the degree of coincidence between the dictionary referred to in character recognition and the character extracted from the photographed image and information on the distortion of the photographed image. It is characterized by setting.

【0045】請求項13の文字入力方法によれば、同一
文書の複数の画像から得られた前記文字認識データの重
複部分を検出して連結し、重複部分に関し前記信頼度の
高い文字認識データを選択することにより、複数の前記
文字認識データを一つの前記文字認識データに合成する
ことを特徴とする。
According to the character input method of the thirteenth aspect, the overlapping portions of the character recognition data obtained from a plurality of images of the same document are detected and connected, and the character recognition data having high reliability with respect to the overlapping portion is detected. It is characterized in that a plurality of the character recognition data are combined into one of the character recognition data by selecting.

【0046】請求項14の文字入力方法によれば、前記
認識データ合成において、同一文書の複数の画像から得
られた前記文字認識データに関し、最新の画像から得ら
れた前記文字認識データと、以前の画像から得られた前
記文字認識データとの重複部分を検出し、前記最新の画
像から得られた前記文字認識データの前記信頼度の方が
高い場合に、以前の画像から得た前記文字認識データを
書き換えることを特徴とする。
According to the character input method of claim 14, regarding the character recognition data obtained from a plurality of images of the same document in the recognition data composition, the character recognition data obtained from the latest image and the character recognition data previously obtained Of the character recognition data obtained from the image, the character recognition obtained from the previous image when the reliability of the character recognition data obtained from the latest image is higher. Characterized by rewriting data.

【0047】請求項15の文字入力方法によれば、文字
認識データとして記憶された文字を指定することによ
り、指定された文字の他の候補を提示し、前記候補から
選択された文字の文字認識データで前記指定された文字
の文字認識データを置き換えることで前記文字認識デー
タの修正を行うことを特徴とする。
According to the character input method of claim 15, by designating the character stored as the character recognition data, another candidate of the designated character is presented, and the character recognition of the character selected from the candidates is presented. It is characterized in that the character recognition data is corrected by replacing the character recognition data of the designated character with data.

【0048】請求項16の文字入力方法によれば、表示
された前記文字認識データのうち、撮影された画像の中
央近傍に位置する文字の文字認識データにカーソルを移
動することにより、修正の可能性の高い文字であること
を示すことを特徴とする。
According to the character input method of claim 16, correction is possible by moving the cursor to the character recognition data of the character located near the center of the photographed image among the displayed character recognition data. It is characterized by showing that it is a highly character.

【0049】請求項17の文字入力方法によれば、前記
認識データ合成において、同一文書の複数の画像から得
られた前記文字認識データに関し、最新の画像から得ら
れた前記文字認識データと、以前の画像から得られた前
記文字認識データとの重複部分を検出し、前記重複部分
が検出されない場合、前記最新の画像から得られた前記
文字認識データを保留データとして記憶し、次に入力さ
れた画像から得られる文字認識データについて前記保留
データとの重複部分も検出することを特徴とする。
According to the character input method of claim 17, regarding the character recognition data obtained from a plurality of images of the same document in the recognition data composition, the character recognition data obtained from the latest image and the character recognition data previously obtained The overlapping portion with the character recognition data obtained from the image is detected, and if the overlapping portion is not detected, the character recognition data obtained from the latest image is stored as reserved data, and then input. It is characterized in that the character recognition data obtained from the image is also detected in an overlapping portion with the reserved data.

【0050】請求項18の文字入力方法によれば、連続
的に入力される画像相互の差分から前記撮影装置の移動
量を検出し、前記移動量に基づいて前記撮影装置の静止
状態を判別して画像の撮影を自動的に実行することを特
徴する。
According to the character input method of the eighteenth aspect, the moving amount of the photographing device is detected from the difference between continuously input images, and the stationary state of the photographing device is determined based on the moving amount. It is characterized by automatically capturing images.

【0051】請求項19の文字入力方法によれば、前記
撮影装置による撮影画像を一時的に記憶し、前記一時的
に記憶された画像と前記撮影装置から入力される画像と
の差分を検出し、検出した前記差分が所定の閾値以下の
場合に前記撮影装置が静止状態であると判断して前記撮
影装置に対して撮影指示を送ることを特徴とする。
According to a nineteenth aspect of the character input method, an image photographed by the photographing device is temporarily stored, and a difference between the temporarily stored image and the image input from the photographing device is detected. When the detected difference is less than or equal to a predetermined threshold value, it is determined that the photographing device is in a stationary state, and a photographing instruction is sent to the photographing device.

【0052】請求項20の文字入力方法によれば、前記
差分が所定の閾値以下の状態が所定時間継続した場合
に、前記撮影装置が静止状態にあると判断することを特
徴とする。
According to the character input method of the twentieth aspect, when the difference is equal to or less than a predetermined threshold value for a predetermined time, it is determined that the photographing device is in a still state.

【0053】請求項21の本発明は、コンピュータ上で
実行され、撮影装置による文書の撮影画像から文字の抽
出と認識を行うことにより、文字入力を行う文字入力プ
ログラムにおいて、前記文字の認識結果に、認識の確か
らしさを示す信頼度を付加する機能と、前記文書の全体
又は一部を繰り返し撮影した画像からの文字認識結果を
比較し、前記信頼度の最も高い文字の認識結果を選択す
る機能を有することを特徴とする。
According to a twenty-first aspect of the present invention, in a character input program for inputting a character by performing extraction on a captured image of a document by a photographing device and recognition of the character, the recognition result of the character is obtained. , A function of adding a reliability indicating the certainty of recognition and a function of comparing character recognition results from images obtained by repeatedly capturing the whole or a part of the document, and selecting a recognition result of the character having the highest reliability. It is characterized by having.

【0054】請求項30による本発明の文字入力装置
は、前記撮影装置による撮影画像中における指定された
特定の文字列の位置を示す目印を描画する目印描画手段
と、前記撮影画像を行ごとに行画像として分割し、分割さ
れた行画像を前記目印に近い行画像から順に前記文字抽
出手段に送る行抽出手段を備えることを特徴とする。
According to a thirtieth aspect of the present invention, in the character input device of the present invention, a mark drawing means for drawing a mark indicating a position of a specified specific character string in a photographed image by the photographing device, and the photographed image for each line. It is characterized by further comprising a line extracting unit that divides the line image into line images and sends the divided line images to the character extracting unit in order from the line image closest to the mark.

【0055】請求項31による本発明の文字入力装置
は、前記認識データ合成手段は、最新の画像から得られた
前記文字認識データと、前記認識データ記憶手段に記憶
された以前の画像から得られた前記文字認識データとの
重複部分が検出されない場合に、前記利用者からの指示
に従って前記文字認識データを強制的に連結する強制連
結手段を備えることを特徴とする。
In the character input device of the present invention according to claim 31, the recognition data synthesizing means is obtained from the character recognition data obtained from the latest image and the previous image stored in the recognition data storing means. Further, it is characterized by comprising a forcible connecting means for forcibly connecting the character recognition data in accordance with an instruction from the user when an overlapping portion with the character recognition data is not detected.

【0056】請求項32による本発明の文字入力装置
は、前記認識データ記憶手段に記憶されている文字認識
データを元に、初回の撮影画像による文字認識データか
否かを判別し、初回であれば認識文字列の先頭の、初回で
なければ認識文字列の文末の位置を明示する位置制御手
段と、認識文字列の先頭又は文末の明示位置に基づいて、
前記文字認識データの文字の削除を行う削除手段とを備
えることを特徴とする。
According to a thirty-second aspect of the present invention, in the character input device of the present invention, based on the character recognition data stored in the recognition data storage means, it is determined whether or not it is the character recognition data by the first shot image, and it is determined whether it is the first time. For example, based on the position control means that clearly indicates the position of the end of the recognized character string at the beginning of the recognized character string, and the position at the beginning or end of the recognized character string,
And a deleting unit that deletes a character of the character recognition data.

【0057】[0057]

【発明の実施の形態】以下、本発明の第1の実施の形態
について図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE INVENTION A first embodiment of the present invention will be described in detail below with reference to the drawings.

【0058】図1を参照すると、本発明の第1の実施の
形態による文字入力装置1は、画像を入力する撮影装置
10と、入力画像から文字を入力するための処理を行う
データ処理装置50と、入力され文字認識されたデータ
が保管される認識データ記憶装置60と、ユーザーが本
装置を操作するための入力装置20と、処理過程や結果
を出力する表示装置40と、表示装置40に出力する画
像を制御する表示画像制御装置30を備えて構成されて
いる。
Referring to FIG. 1, a character input device 1 according to the first embodiment of the present invention includes a photographing device 10 for inputting an image and a data processing device 50 for performing a process for inputting a character from the input image. A recognition data storage device 60 for storing the input and character-recognized data, an input device 20 for a user to operate the device, a display device 40 for outputting a process or a result, and a display device 40. A display image control device 30 for controlling an output image is provided.

【0059】データ処理装置50は、プログラム制御さ
れるコンピュータにより実現され、文字抽出装置51
と、文字認識装置52と、認識データ合成装置53とで
構成される。
The data processing device 50 is realized by a program-controlled computer, and the character extracting device 51.
And a character recognition device 52 and a recognition data synthesizing device 53.

【0060】撮影装置10は、CCD等で実現される撮
影手段であり、通常は撮像している映像を表示画像制御
装置30に出力しているが、撮影指示が入力されると、
静止画を撮影し、その画像を文字抽出装置51に送る。
The photographing device 10 is a photographing means realized by a CCD or the like, and normally outputs the imaged image to the display image control device 30, but when a photographing instruction is input,
A still image is taken and the image is sent to the character extracting device 51.

【0061】入力装置20は、撮影装置10とデータ処
理装置50と表示画像制御装置30に対してユーザーか
らの指示を入力する。
The input device 20 inputs an instruction from the user to the photographing device 10, the data processing device 50 and the display image control device 30.

【0062】表示画像制御装置30は、入力装置20と
撮影装置10と文字認識装置52と認識データ記憶装置
60に接続されており、各装置から送られてきたデータ
の何れを表示装置40に表示するかを入力装置20から
入力された指令に従って制御する。
The display image control device 30 is connected to the input device 20, the photographing device 10, the character recognition device 52, and the recognition data storage device 60, and displays any of the data sent from each device on the display device 40. It is controlled according to the command input from the input device 20.

【0063】表示装置40は、表示画像制御装置30か
ら送られた画像データを表示する。
The display device 40 displays the image data sent from the display image control device 30.

【0064】また、データ処理装置50の文字抽出装置
51は、撮影装置10に接続され、撮影装置10で撮影
された画像を画像処理することにより、一文字ずつの文
字画像を抽出して文字認識装置52に送る。
The character extracting device 51 of the data processing device 50 is connected to the photographing device 10 and performs image processing on the image photographed by the photographing device 10 to extract a character image for each character to extract the character image. Send to 52.

【0065】文字認識装置52は、文字抽出装置51に
より生成された文字画像に対して文字認識処理を行い、
文字ごとに得られた認識結果と後述する信頼度等の情報
を含めて文字認識データとして出力する。
The character recognition device 52 performs character recognition processing on the character image generated by the character extraction device 51,
The recognition result obtained for each character and the information such as reliability to be described later are included and output as character recognition data.

【0066】認識データ合成装置53は、文字認識装置
52から入力された文字認識データと認識データ記憶装
置60から入力された合成認識データの二つのデータの
重複部分を検出することによりデータの合成を行い、そ
の合成した結果を合成認識データとして認識データ記憶
装置60へ出力する。
The recognition data synthesizing device 53 synthesizes the data by detecting the overlapping portion of the two data of the character recognition data input from the character recognizing device 52 and the synthetic recognition data input from the recognition data storage device 60. Then, the combined result is output to the recognition data storage device 60 as combined recognition data.

【0067】認識データ記憶装置60は、認識データ合
成装置53から送られた合成認識データを記憶する。
The recognition data storage device 60 stores the combined recognition data sent from the recognition data combining device 53.

【0068】次に、図1及び図2のフローチャートを参
照して本実施の形態による文字入力装置1の全体の動作
について詳細に説明する。
Next, the overall operation of the character input device 1 according to the present embodiment will be described in detail with reference to the flowcharts of FIGS.

【0069】まず、本装置が動作を開始すると、撮影装
置10からの撮影映像(動画像)が表示画像制御装置3
0を通って表示装置40に表示される(ステップA
1)。
First, when the present apparatus starts its operation, a captured image (moving image) from the image capturing apparatus 10 is displayed on the display image control apparatus 3
It is displayed on the display device 40 through 0 (step A
1).

【0070】撮影ボタンの押下等により入力装置20か
ら画像を撮影する旨の撮影指示が入力されると(ステッ
プA2)、静止画が撮影され、そのときの画像が表示装
置40とデータ処理装置50の文字抽出装置51に送ら
れる(ステップA3)。
When a photographing instruction to photograph an image is input from the input device 20 by pressing the photographing button or the like (step A2), a still image is photographed, and the image at that time is displayed on the display device 40 and the data processing device 50. Is sent to the character extracting device 51 (step A3).

【0071】文字抽出装置51は、画像を受け取ると画
像処理を行うことにより、画像から文字単位の画像を抽
出し(切り出し)、文字認識装置52に送る(ステップ
A4)。この文字抽出処理としては、例えば特願平06-2
85930号公報に記載される技術を適用して実現すること
ができる。なお、撮影された画像から文字画像を抽出す
ることに失敗した場合には、再びカメラ映像出力に戻る
(ステップA5)。
When the character extracting device 51 receives the image, it performs image processing to extract (cut out) a character-by-character image from the image and send it to the character recognizing device 52 (step A4). The character extraction process is, for example, Japanese Patent Application No. 06-2.
It can be realized by applying the technique described in Japanese Patent Publication No. 85930. If the extraction of the character image from the captured image fails, the camera image output is resumed (step A5).

【0072】文字認識装置52は、例えば特願平06-301
802号公報に記載されているような従来の技術を用いて
実現され、文字抽出装置51から送られた文字単位の画
像を順に文字認識し、認識結果として得られた所定数の
候補に認識の信頼度などの情報を含めて、文字認識デー
タとして出力する(ステップA6)。
The character recognition device 52 is, for example, Japanese Patent Application No. 06-301.
This is realized by using the conventional technique as described in Japanese Patent No. 802, character recognition is sequentially performed on character-by-character images sent from the character extraction device 51, and recognition is performed on a predetermined number of candidates obtained as a recognition result. Information such as reliability is output as character recognition data (step A6).

【0073】つまり、ある文字の文字認識結果として出
力される文字認識データには、所定数の候補のデータが
含まれ、かつ、文字認識の確からしさを示す信頼度の情
報が含まれる。また、候補のデータは、1つ(第1の候
補)であっても良いし、複数(第2の候補以下)であっ
ても良い。すなわち、候補が複数ある場合には、ある文
字の文字認識結果として出力される文字認識データに
は、その文字の第1の候補のデータだけでなく、第2の
候補以下の所定数の候補のデータが含まれ、かつ、文字
認識の確からしさを示す信頼度の情報が含まれる。
That is, the character recognition data output as the character recognition result of a certain character includes a predetermined number of candidate data, and also includes reliability information indicating the certainty of character recognition. In addition, the number of candidate data may be one (first candidate) or plural (second candidate or less). That is, when there are a plurality of candidates, the character recognition data output as the character recognition result of a character includes not only the data of the first candidate of the character but also a predetermined number of candidates equal to or less than the second candidate. The data is included, and the reliability information indicating the certainty of character recognition is included.

【0074】ここで認識の信頼度とは、文字認識装置5
2の参照する辞書に含まれる文字テンプレートと撮影で
得られた文字画像の一致具合(文字認識における互いの
文字画像の特徴空間の距離に基づいて求められる)や、
画像上の位置(例えば、文字の撮影画像の中心からの距
離)とレンズの持つ歪みについての情報などから総合し
て得られる文字認識の確からしさを示す値で、これが高
いほど文字認識の結果が確からしいものとする。
Here, the reliability of recognition means the character recognition device 5
2 the matching condition between the character template included in the dictionary referred to and the character image obtained by shooting (obtained based on the distance between the character spaces of the character images in character recognition),
It is a value that indicates the certainty of character recognition that is comprehensively obtained from the position on the image (for example, the distance from the center of the captured image of the character) and the information about the distortion that the lens has. The higher the value, the higher the result of character recognition. Let's be certain.

【0075】例えば、認識の信頼度を決定する要素であ
る画像上の位置に関する情報では、文字が撮影画像の中
心から離れるほど画像が歪む傾向が高いため、中心から
の距離が小さい場合に信頼度を高くし、中心からの距離
が大きいほど信頼度を低くする。
For example, in the information on the position on the image, which is a factor for determining the reliability of recognition, the image is more likely to be distorted as the character is farther from the center of the photographed image. Therefore, when the distance from the center is small, the reliability is high. Is higher, and the reliability is lower as the distance from the center is larger.

【0076】また、認識の信頼度を決定する要素として
は、ある文書の一連の文字入力操作における撮影時期の
情報を加味することもできる。ある文字に関して、複数
回の撮影が行われている場合には、後に撮影された画像
によって認識処理がなされたものほど信頼度を高くす
る。
Further, as a factor for determining the reliability of recognition, it is possible to add information on the photographing time in a series of character input operations of a certain document. When a character is photographed a plurality of times, the reliability of the character is higher as the recognition processing is performed on the image photographed later.

【0077】文字認識装置52によって得られた文字認
識データは、認識データ合成装置53に送られる。
The character recognition data obtained by the character recognition device 52 is sent to the recognition data synthesis device 53.

【0078】認識データ合成装置53は、これまで入力
されて認識データ記憶装置60に記憶されている合成認
識データと、今回の撮影で新しく入力された文字認識デ
ータとが、どちらもある大きな印刷文章の一部分を重複
して撮影されたものであると仮定して、重複部分を判別
して検出する(ステップA8)。
The recognition data synthesizing device 53 has a large print text in which both the synthetic recognition data input so far and stored in the recognition data storage device 60 and the character recognition data newly input in this photographing are both present. Assuming that a part of the image is photographed in an overlapping manner, the overlapping portion is discriminated and detected (step A8).

【0079】この重複部分の判定においては、文字の第
1候補だけでなく、合成認識データと文字認識データに
含まれる文字の複数の候補(第1候補以下の所定数の候
補)に基づいて判定を行うようにすれば、より精度の高
い結果が得られる。
In the determination of the overlapping portion, not only the first character candidate but also a plurality of character candidates included in the synthetic recognition data and the character recognition data (a predetermined number of candidates below the first candidate) are determined. By doing so, more accurate results can be obtained.

【0080】ここでもし、合成認識データが認識データ
記憶装置60に存在しない場合には、認識データ合成装
置53は、新たな文字認識データをそのまま合成認識デ
ータとして認識データ記憶装置60に送る(ステップA
7)。
If the synthetic recognition data does not exist in the recognition data storage device 60, the recognition data synthesis device 53 sends the new character recognition data as it is to the recognition data storage device 60 as the synthetic recognition data (step A
7).

【0081】もし、合成認識データが存在しても重複部
分が検出されなかった場合には、文字認識データの合成
が不可能であるとして、再びカメラ映像出力に戻る(ス
テップA9)。
If the overlapping portion is not detected even if the composite recognition data exists, it is determined that the character recognition data cannot be composited, and the process returns to the camera image output (step A9).

【0082】重複部分が見つかった場合には、重複部分
の位置を手がかりに合成認識データと入力された文字認
識データの撮影位置の関係を判別し、合成認識データに
入力された文字認識データを合成する。その際、重複部
分の文字をその文字の信頼度を参照して決定し、入力さ
れた文字認識データのうち新しく撮影された部分(合成
認識データに含まれない部分)の文字認識データは、合
成認識データに付け加える。重複部分(合成認識データ
に含まれる部分)に関しては、合成認識データと文字認
識データを文字ごとに比較し、合成認識データの方が認
識の信頼度が低い文字については入力された文字認識デ
ータのものと置きかえる。(ステップA10、A1
1)。
If an overlapping portion is found, the position of the overlapping portion is used as a clue to determine the relationship between the shooting positions of the combined recognition data and the input character recognition data, and the input character recognition data is combined with the combined recognition data. To do. At that time, the character of the overlapping part is determined by referring to the reliability of the character, and the character recognition data of the newly captured part (the part not included in the composite recognition data) of the input character recognition data is combined. Add to recognition data. For the overlapping part (the part included in the synthetic recognition data), the synthetic recognition data and the character recognition data are compared for each character, and the synthetic recognition data has a lower reliability of recognition. Replace with something. (Steps A10, A1
1).

【0083】このようにして文字認識データが合成され
た合成認識データは、再び認識データ記憶装置60へ送
られて記憶更新される(ステップA12)。
The combined recognition data obtained by combining the character recognition data in this manner is sent again to the recognition data storage device 60 and stored and updated (step A12).

【0084】また、これまで入力された合成認識データ
は、表示画像制御装置30を通って表示装置40に出力
される(ステップA13)。
The composite recognition data input so far is output to the display device 40 through the display image control device 30 (step A13).

【0085】ステップA10、A11における文字認識
データの合成処理は、合成認識データと文字認識データ
の一部、もしくは全体が重複している場合どちらにおい
ても有効に働く。そのため、分割撮影して得られた画像
を連結する場合のみならず、一度撮影した場所をもう一
度撮り直したり、あるいは全体を一度に撮影した後に一
部を接写して撮り直すような場合においても、両方から
信頼度の高い文字認識データを優先する形で合成を行
い、入力文章全体の認識精度を上げることができる。
The character recognition data combining processing in steps A10 and A11 works effectively in both cases where the combined recognition data and the character recognition data partially or entirely overlap. Therefore, not only when connecting the images obtained by split shooting, but also when shooting again the place where it was once shot, or when shooting the whole part at once and then taking a close-up part of it again, It is possible to improve the recognition accuracy of the entire input sentence by synthesizing the character recognition data having high reliability from both of them in a form giving priority.

【0086】次に、上記のように構成されかつ動作する
本実施の形態による入力装置の効果について説明する。
Next, the effect of the input device according to the present embodiment, which is constructed and operates as described above, will be described.

【0087】本実施の形態では、文字認識の際に文字ご
とに認識の信頼度を設定して、文字認識の結果と共に保
存する。そして、記憶されている合成認識データより新
しい撮影画像を認識して得られた結果の方が信頼度が高
い場合には、信頼度の高い認識結果で合成認識データを
更新する。撮影装置10(カメラ)で撮影することによ
る画像の劣化は、画面縁の歪みや、手の影など、局所的
なものが多く、画面中心付近などの画像は歪みも少なく
認識の信頼性も高いことが期待される。連続して撮影す
るうちにこうした信頼性の高い部分の入力結果が残る
(記憶される)ので、ユーザーは個々の撮影画像の画質
や一部の歪みを気にする必要が無い。
In the present embodiment, the recognition reliability is set for each character at the time of character recognition, and the recognition reliability is saved together with the character recognition result. Then, if the result obtained by recognizing the new captured image is higher in reliability than the stored combined recognition data, the combined recognition data is updated with the recognition result having high reliability. Image deterioration caused by photographing with the photographing device 10 (camera) is often local such as screen edge distortion and hand shadow, and images near the center of the screen have little distortion and high recognition reliability. It is expected. Since the input result of such a highly reliable portion remains (is stored) during continuous shooting, the user does not have to worry about the image quality of each shot image or a part of distortion.

【0088】また、認識の誤りがあった場合にも、その
文字が良好な画質で撮影された画像を再度入力すれば正
しく置き換わるので、ユーザーは一部の誤認識のために
画像全体を撮り直したり、後で正しい文字を入力したり
する修正の手間が大幅に省ける。
Further, even if there is a recognition error, the character will be replaced correctly if the image photographed with good image quality is input again. Therefore, the user re-photographs the entire image due to some misrecognition. You can greatly save the trouble of making corrections such as inputting correct characters later.

【0089】次に、本発明の第1の実施例を、図面を参
照して説明する。かかる第1の実施例は本発明の第1の
実施の形態に対応するものである。
Next, a first embodiment of the present invention will be described with reference to the drawings. The first example corresponds to the first embodiment of the present invention.

【0090】本実施例では、文字入力装置が図12、図
13に示されるような携帯端末100として実現されて
いる。図12は、携帯端末100を表から見た斜視図、
図13は、裏から見た斜視図である。
In this embodiment, the character input device is realized as the portable terminal 100 as shown in FIGS. FIG. 12 is a perspective view of the mobile terminal 100 viewed from the front,
FIG. 13 is a perspective view seen from the back.

【0091】この携帯端末100は、入力装置20とし
てボタン類111を備え、表示装置40として液晶ディ
スプレイ112を備え、撮影装置10としてカメラ11
3を備えている。また、内部にはデータ処理装置50と
して機能する中央演算装置と、データ記憶装置60とし
て機能する記憶装置を備えている。
The portable terminal 100 includes buttons 111 as the input device 20, a liquid crystal display 112 as the display device 40, and a camera 11 as the photographing device 10.
Equipped with 3. Further, a central processing unit that functions as the data processing device 50 and a storage device that functions as the data storage device 60 are provided inside.

【0092】本実施例においては、図14に示すような
文章200を携帯端末100で撮影して入力する場合を
考える。ここでは、カメラ113の解像度が低いため
に、個々の文字を文字認識できる解像度で撮影するため
にはある程度接写しなければならず、一度に撮影できる
範囲(撮影範囲PR)は、図の点線の矩形で表現される
大きさである。つまり文章全てを一度に撮影して認識す
ることはできない。
In the present embodiment, consider a case where a sentence 200 as shown in FIG. 14 is photographed by the portable terminal 100 and input. Here, since the resolution of the camera 113 is low, it is necessary to take close-up pictures to some extent in order to photograph individual characters at a resolution that allows character recognition, and the range that can be photographed at one time (photographing range PR) is the dotted line It is the size represented by a rectangle. In other words, it is not possible to shoot and recognize the entire sentence at once.

【0093】そこで、まず、図15に示すように、文章
200の左半分を撮影する。
Therefore, first, as shown in FIG. 15, the left half of the sentence 200 is photographed.

【0094】撮影された画像データは、携帯端末100
に内蔵されるデータ処理装置50によって、文字画像が
抽出され、その後一文字ずつ文字認識されて、文字コー
ドと認識の信頼度とが対となった文字認識データとして
出力される。図16に、一例として2行目の文字列の認
識結果の様子を示す。図16の認識結果文字とは、抽出
された文字の認識第1候補の文字コードが示す文字を表
している。以降も簡単のため2行目の結果に関してのみ
図示するが、他の行に関しても同様に処理が行われる。
The captured image data is stored in the portable terminal 100.
A character image is extracted by a data processing device 50 incorporated in the character recognition device, and thereafter character recognition is performed character by character, and the character image and the reliability of recognition are output as character recognition data. FIG. 16 shows an example of the recognition result of the character string on the second line. The recognition result character of FIG. 16 represents the character indicated by the character code of the first recognition candidate of the extracted character. For the sake of simplicity, only the result of the second row will be shown, but the same processing is performed for the other rows.

【0095】これは、最初の撮影による入力であり、認
識データ記憶装置60には合成認識データが記憶されて
いない。そこで、データ処理装置50が今回の文字認識
データをそのまま合成認識データとして認識データ記憶
装置60に記憶する、また、液晶ディスプレイ112に
は認識結果が表示される。
This is an input by the first photographing, and the synthetic recognition data is not stored in the recognition data storage device 60. Therefore, the data processing device 50 stores the current character recognition data as it is in the recognition data storage device 60 as the combined recognition data, and the recognition result is displayed on the liquid crystal display 112.

【0096】この時、表示方法としては、例えば撮影画
像と認識文字が画面上で一対一に対応するような画面を
出力すると、ユーザーが誤認識を簡単に確認することが
できて好ましい。
At this time, as a display method, for example, it is preferable to output a screen in which the photographed image and the recognized characters are in one-to-one correspondence on the screen because the user can easily confirm the erroneous recognition.

【0097】続いて、図17に示すように文書200の
右半分を撮影する。この時、前回撮影した文章画像との
重複部分ができるように撮影する必要がある。
Subsequently, the right half of the document 200 is photographed as shown in FIG. At this time, it is necessary to shoot so that there may be an overlap with the previously captured text image.

【0098】撮影された画像データは、データ処理装置
50の文字抽出装置51によって、図18に示されるよ
うに文字抽出され、文字認識装置52を経て文字認識デ
ータに変換される。
The photographed image data is subjected to character extraction by the character extraction device 51 of the data processing device 50 as shown in FIG. 18, and is converted to character recognition data via the character recognition device 52.

【0099】ここで、データ処理装置50の認識データ
合成装置53は、前回入力され記憶された合成認識デー
タ(文字「abcdefghj」)と今回入力された文字認識デ
ータ(文字「fghijklmn」)の、あらゆる重複の仕方を
調べ、最も重複部分に対する一致する文字数の多い重複
の仕方を探索する。前回入力したデータの右4文字と、
今回入力したデータの左4文字が重なる場合が、一致の
割合が4文字中3文字と最も大きく、ここが重複部分で
あると判断される。
Here, the recognition data synthesizing device 53 of the data processing device 50 selects all the synthetic recognition data (character "abcdefghj") input and stored last time and the character recognition data (character "fghijklmn") input this time. The method of duplication is checked, and the method of duplication having the largest number of matching characters for the most duplicated portion is searched. 4 characters to the right of the data you entered last time,
In the case where the left four characters of the data input this time overlap, the matching ratio is the highest with three out of the four characters, and it is determined that this is the overlapping portion.

【0100】しかるのち、図19に示すように、合成認
識データ(前回入力され記憶された文字認識データ)に
文字認識データ(今回入力された文字認識データ)を合
成する。
Thereafter, as shown in FIG. 19, the character recognition data (the character recognition data input this time) is combined with the combined recognition data (the character recognition data input and stored last time).

【0101】まず、重複している4文字部分の右2文字
「hi」については、認識信頼度の高い文字認識データの
ものを採用する。同様に左2文字の「fg」に関しては認
識信頼度の高い合成認識データのものを採用する。これ
によって1回目に誤認識した「j」の文字が、2回目の
撮影によって「i」に修正されたことになる。
First, for the right two characters "hi" of the overlapping four character parts, the one of the character recognition data having high recognition reliability is adopted. Similarly, for the left two characters "fg", the one of the synthetic recognition data with high recognition reliability is adopted. As a result, the character "j" that was erroneously recognized the first time was corrected to "i" by the second shooting.

【0102】次に、今回の撮影によって新たに撮影され
た部分である「jklmn」の部分が合成認識データの後ろ
に連結される。
Next, the portion of "jklmn" which is a portion newly photographed by this photographing is connected to the end of the combined recognition data.

【0103】上記のように合成(修正・連結)されたデ
ータは再び認識データ記憶装置60に記憶され、液晶デ
ィスプレイ112に入力結果として表示される。
The data synthesized (corrected / concatenated) as described above is again stored in the recognition data storage device 60 and displayed as an input result on the liquid crystal display 112.

【0104】ここで、入力結果に誤りがあるので、ユー
ザーはその文字をもう一度撮影することで修正を試みる
ことができる。
Here, since there is an error in the input result, the user can try the correction by photographing the character again.

【0105】図20は、bを6と誤認識したのを修正す
るために、文字「b」が画面中心となるように携帯端末
100を動かして再撮影を行う様子を示している。カメ
ラ画像は中心に近いほどレンズによる歪みが少なく、ま
たピントも一般に中心に合っているので、画面中心で撮
影することで文字認識に適した画像を得ることができ
る。
FIG. 20 shows a state in which the portable terminal 100 is moved so that the character "b" is at the center of the screen and re-photographing is performed in order to correct the mistaken recognition of b as 6. The closer the camera image is to the center, the less the distortion due to the lens, and the focus is also generally centered. Therefore, by shooting at the center of the screen, an image suitable for character recognition can be obtained.

【0106】撮影された画像データは、文字抽出された
のちに文字認識され、図21で示される文字認識データ
に変換された後、合成認識データと合成される。
The photographed image data is subjected to character extraction, character recognition, conversion to character recognition data shown in FIG. 21, and then combination with combined recognition data.

【0107】ここで、今回の文字認識データは全て合成
認識データに含まれているので、合成認識データに新し
い文字は追加されず、重複部分の処理が行われる。
Here, since all the character recognition data of this time are included in the combined recognition data, no new character is added to the combined recognition data, and the overlapping portion is processed.

【0108】図22に示されるように、合成認識データ
と文字認識データを比較し、合成認識データの方が文字
認識信頼度の低い「bc」が文字認識データのものと置き
換えられる。
As shown in FIG. 22, the synthetic recognition data and the character recognition data are compared, and “bc” having a lower character recognition reliability in the synthetic recognition data is replaced with that of the character recognition data.

【0109】以上の操作によって、1回では撮影しきれ
ない文章200を分割して撮影することでその合成認識
データを認識データ記憶装置60内に記憶することがで
きた。また、認識の誤りも文書200を撮り直すことで
修正することができた。
By the above operation, the synthesized recognition data can be stored in the recognition data storage device 60 by dividing and photographing the sentence 200 which cannot be photographed once. Moreover, the recognition error could be corrected by retaking the document 200.

【0110】なお、この例では、2回に分けて撮影した
が、更に広い面積に印刷された文章の場合にも、その大
きさに応じて分割数を変えて撮影することで入力が可能
である。
In this example, the image is photographed twice, but in the case of a sentence printed on a wider area, it is possible to input by changing the number of divisions according to the size of the sentence. is there.

【0111】また、この例では横に分割して撮影した
が、縦に長い文章の場合においても、同じように縦に分
割して撮影し合成することが可能である。
Further, in this example, the image is divided horizontally and photographed. However, even in the case of a vertically long sentence, it is possible to similarly vertically divide and photograph and combine.

【0112】また、本実施例は、解像度の低いカメラ1
13を用いて大きな文書を分割して撮影する例を説明し
たが、本実施の形態で実現される入力方法はこれに限定
されるものではない。
In addition, this embodiment uses the camera 1 having a low resolution.
Although an example in which a large document is divided and captured using 13 is described, the input method realized in the present embodiment is not limited to this.

【0113】例えば、カメラ113が高解像度で、かつ
自動もしくは手動で焦点距離を変更できる機構を持って
いるとすると、最初に図23に示すように、文書200
全体を撮影することができる。
For example, if the camera 113 has a high resolution and a mechanism capable of changing the focal length automatically or manually, first, as shown in FIG.
The whole can be photographed.

【0114】ここで誤認識があった場合に、図24のよ
うに誤認識した文字が中心となるように接写して修正を
試みることができる。接写して大きく撮った文字画像は
解像度が高く、文字認識の信頼度も高いため、正しく置
き換わる可能性が高い。
If there is an erroneous recognition, it is possible to try the correction by taking a close-up so that the erroneously recognized character becomes the center as shown in FIG. A character image taken in close-up and having a large size has a high resolution and a high degree of reliability in character recognition, and thus is likely to be replaced correctly.

【0115】次に、本発明の第2の実施の形態による文
字入力装置について図を用いて詳細に説明する。
Next, a character input device according to the second embodiment of the present invention will be described in detail with reference to the drawings.

【0116】図3を参照すると、本発明の第2の実施の
形態による文字入力装置1Aは、図1に示された第1の
形態の構成に加え、入力装置20の操作により文字の修
正を行う文字修正装置25が認識データ記憶装置60に
接続されている点で、第1の実施の形態と相違する。こ
の文字修正装置25は、文字修正装置25認識データ記
憶装置60に記憶された合成認識データを直接修正する
機能を有する。
Referring to FIG. 3, the character input device 1A according to the second embodiment of the present invention is capable of correcting characters by operating the input device 20 in addition to the configuration of the first embodiment shown in FIG. It differs from the first embodiment in that the character correction device 25 for performing is connected to the recognition data storage device 60. The character correction device 25 has a function of directly correcting the combined recognition data stored in the character correction device 25 recognition data storage device 60.

【0117】本実施の形態による文字入力装置1Aの動
作を図面を参照して説明する。図4は、第2の実施の形
態による文字入力装置1Aの動作を示すフローチャート
である。ここで、本実施の形態の動作のうち、図2に示
される本発明第1の実施の形態の動作と異なる点は、図
4に示されるように、ステップA13の後に文字修正装
置25による認識結果を修正する認識結果修正処理(ス
テップB1)が追加されているという点である。よっ
て、図2と共通するステップについては説明を省略す
る。
The operation of the character input device 1A according to this embodiment will be described with reference to the drawings. FIG. 4 is a flowchart showing the operation of the character input device 1A according to the second embodiment. Here, in the operation of the present embodiment, the difference from the operation of the first embodiment of the present invention shown in FIG. 2 is that, as shown in FIG. 4, the recognition by the character correction device 25 after step A13. This is that a recognition result correction process (step B1) for correcting the result is added. Therefore, description of steps common to those in FIG. 2 is omitted.

【0118】本実施の形態の特徴である、文字修正装置
25による認識結果修正処理(ステップB1)の動作に
ついて図5を用いて詳細に説明する。
The operation of the recognition result correction processing (step B1) by the character correction device 25, which is a feature of this embodiment, will be described in detail with reference to FIG.

【0119】認識結果修正処理が開始されると、最後の
撮影された画像において最も真ん中に近い位置で抽出さ
れた文字に対応する認識結果の位置に、認識結果修正用
のカーソルを表示させる(ステップC1)。ユーザーが
修正しようとして再撮影する場合、修正する文字は再撮
影した画面の中心付近に来る場合が多いため、再撮影し
た画面の中心付近で抽出された文字にカーソルを表示さ
せることにより、ユーザーが修正対象となる文字を探し
ながらカーソルを移動するという操作を省くこと又は軽
減することが可能となる。
When the recognition result correction process is started, a cursor for recognition result correction is displayed at the position of the recognition result corresponding to the character extracted at the position closest to the center in the last photographed image (step C1). When the user tries to make a correction and re-shoots, the character to be corrected often comes near the center of the re-shot screen, so by displaying the cursor on the character extracted near the center of the re-shot screen, the user can It is possible to omit or reduce the operation of moving the cursor while searching for the character to be corrected.

【0120】そして、このカーソルは、入力装置20を
用いることにより、表示されている認識結果の文書上を
移動させることができる(ステップC2、C3)。
Then, this cursor can be moved on the displayed document of the recognition result by using the input device 20 (steps C2 and C3).

【0121】さらに、入力装置20で次候補表示を意味
する操作がなされると、カーソルで指定された文字の次
の認識候補を認識データ記憶装置60に記憶された合成
認識データから検索して表示する(ステップC4、C
5)。第1の実施の形態で述べたように、候補が複数あ
る場合には、ある文字の文字認識結果として出力される
文字認識データ(合成認識データも同様)には、その文
字の第1の候補のデータだけでなく、第2の候補以下の
所定数の候補のデータが含まれている。この含まれる第
2候補以下の候補を検索して提示するのである。
When the input device 20 is operated to indicate the display of the next candidate, the next recognition candidate of the character designated by the cursor is retrieved from the combined recognition data stored in the recognition data storage device 60 and displayed. Yes (steps C4, C
5). As described in the first embodiment, when there are a plurality of candidates, the character recognition data (also the synthetic recognition data) output as the character recognition result of a character is the first candidate of the character. Data of a predetermined number of candidates below the second candidate. The candidates below the second candidate included in the list are searched and presented.

【0122】または、入力装置20から直接文字が入力
された場合にも、その入力された文字をカーソルで指定
された文字の代わりに候補として表示する(ステップC
6、C7)。
Alternatively, even when a character is directly input from the input device 20, the input character is displayed as a candidate instead of the character designated by the cursor (step C).
6, C7).

【0123】入力装置20で候補決定を意味する操作が
なされると、表示された認識候補を正しい認識候補とし
て、認識データ記憶装置60の対応する合成認識データ
に上書きする。候補決定がなされない場合には、候補選
択に戻る(ステップC8−C9)。
When the input device 20 is operated to indicate a candidate decision, the displayed recognition candidate is overwritten on the corresponding synthetic recognition data in the recognition data storage device 60 as a correct recognition candidate. If no candidate is determined, the process returns to the candidate selection (steps C8-C9).

【0124】修正処理は、入力装置20から修正処理を
終了させる入力がなされるまで続けられる(ステップC
10)。
The correction process is continued until an input is made from the input device 20 to end the correction process (step C).
10).

【0125】これらカーソル移動、候補選択、文字入力
などのは、例えば上下左右の矢印キーの付いた小型キー
ボードなどによって実現することができるし、または、
表示装置40上の文字を直接指定できるタッチパネルと
ペンなどの装置で実現することもできる。
These cursor movement, candidate selection, character input, etc. can be realized by, for example, a small keyboard with up, down, left, right arrow keys, or
It can also be realized by a device such as a touch panel and a pen that can directly specify characters on the display device 40.

【0126】次に、上記のように構成されかつ動作する
第2の本実施の形態の効果について説明する。
Next, the effect of the second embodiment constructed and operated as described above will be described.

【0127】本実施の形態においては、上記のように、
指定した文字の認識の次候補を選んだり、正しい認識候
補を選んで対応する合成認識データに上書きすることを
可能としたので、文字認識の誤りを撮り直して修正しよ
うとしたが修正されなかったような場合においても、正
しい文字を簡単に入力することができる。また、ユーザ
ーが修正しようとして画面中心で再撮影した文字の位置
に自動的にカーソルが表示されるため、修正文字を探し
て手動でカーソルを移動させる操作が不要であり、この
点からも修正操作を容易に行える。
In the present embodiment, as described above,
It was possible to select the next candidate for recognition of the specified character or to select the correct recognition candidate and overwrite it on the corresponding synthetic recognition data, so I tried to correct the character recognition error again, but it was not corrected. Even in such a case, the correct character can be easily input. Also, since the cursor is automatically displayed at the position of the character that was re-photographed in the center of the screen when the user tried to correct it, there is no need to search for the corrected character and manually move the cursor. Can be done easily.

【0128】次に、本発明の第2の実施例について図面
を用いて詳細に説明する。本実施例は第2の実施の形態
に対応するものである。
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. This example corresponds to the second embodiment.

【0129】本実施例は、第1の実施例と構成を同じく
し、図12、図13に示す携帯端末100装置で実現さ
れるが、中央演算装置が文字修正装置25として機能す
るという点で異なる。
This embodiment has the same configuration as the first embodiment and is realized by the portable terminal 100 device shown in FIGS. 12 and 13, but in that the central processing unit functions as the character correction device 25. different.

【0130】今、第1の実施例と同じく図14に示す文
章200を入力するため、まず図15に示されるように
左半分を撮影し、しかる後に図17に示されるように右
半分を撮影して、文字認識データを合成し、さらに文字
「b」が文字「6」と認識されている誤りを修正するた
めに図20のように文字「b」が中心になるように撮影
したとする。
In order to input the sentence 200 shown in FIG. 14 as in the first embodiment, first, the left half is photographed as shown in FIG. 15, and then the right half is photographed as shown in FIG. Then, it is assumed that the character recognition data is combined, and further, the character "b" is photographed with the character "b" at the center as shown in FIG. 20 in order to correct an error in which the character "b" is recognized as the character "6". .

【0131】しかし、第1の実施例の場合とは異なり、
文字「b」が2回目の撮影においても文字「6」と誤認
識されて、修正が行われなかったとする。
However, unlike the case of the first embodiment,
It is assumed that the character “b” is erroneously recognized as the character “6” even in the second shooting and is not corrected.

【0132】ここで、液晶ディスプレイ112には、図
25に示されるように、撮影画像214と入力結果21
5が両方表示されている。また、文字「b」を中心にし
て撮影したので、入力結果の対応する「6」の文字に四
角いカーソル216が位置している。
Here, on the liquid crystal display 112, as shown in FIG. 25, the photographed image 214 and the input result 21 are displayed.
Both 5 are displayed. Further, since the image was taken centering on the character "b", the square cursor 216 is located at the corresponding character "6" in the input result.

【0133】ここでユーザーは、ボタン類111に設け
られている次候補表示ボタンを押すことで文字認識の次
の候補を表示させることができる。「b」の文字認識候
補とそれに対応する文字認識の信頼度は、図26のよう
な形で記憶されているとする。
Here, the user can display the next candidate for character recognition by pressing the next candidate display button provided on the buttons 111. It is assumed that the character recognition candidate “b” and the reliability of the character recognition corresponding thereto are stored in the form as shown in FIG.

【0134】今、第1候補が表示されているので、次候
補ボタンを2回押すことによって、画面には第3候補で
ある「b」が表示される。
Since the first candidate is being displayed now, by pressing the next candidate button twice, the third candidate "b" is displayed on the screen.

【0135】ここでユーザーがボタン類111に設けら
れている決定ボタンを押すと、文字「b」が正しい認識
結果であることが認識データ記憶装置60に記憶され
る。
Here, when the user presses the enter button provided on the buttons 111, the recognition data storage device 60 stores that the character "b" is the correct recognition result.

【0136】次に本発明の第3の実施の形態による文字
入力装置について図を用いて詳細に説明する。
Next, a character input device according to the third embodiment of the present invention will be described in detail with reference to the drawings.

【0137】図6を参照すると、本発明の第3の実施の
形態による文字入力装置1Bは、図1に示した第1の形
態の構成に加え、保留データ記憶装置70を有している
点で相違する。
Referring to FIG. 6, a character input device 1B according to a third embodiment of the present invention has a reserved data storage device 70 in addition to the configuration of the first embodiment shown in FIG. Is different.

【0138】この保留データ記憶装置70は、認識デー
タ合成装置53に接続され、文字認識データと合成認識
データの重複部分が検出されず合成が行われなかった場
合に、入力された文字認識データを一時的に記憶してお
くものである。そして、次の撮影が行われ、新しい文字
認識データが合成認識データと合成されたときに、その
合成認識データと保留データ記憶装置70から認識デー
タ合成装置53に再び戻された文字認識データとで再度
合成処理が試みられる。
The reserved data storage device 70 is connected to the recognition data synthesizing device 53 and stores the input character recognition data when the overlapping portion of the character recognition data and the synthetic recognition data is not detected and the synthesizing is not performed. It is to be stored temporarily. Then, when the next shooting is performed and the new character recognition data is combined with the combined recognition data, the combined recognition data and the character recognition data returned from the reserved data storage device 70 to the recognition data combining device 53 again. The synthesis process is tried again.

【0139】次に、第3の実施の形態による文字入力装
置1Bの動作を図面を参照して詳細に説明する。
Next, the operation of the character input device 1B according to the third embodiment will be described in detail with reference to the drawings.

【0140】図7を参照すると、本実施の形態の動作に
おけるステップA1からA8及びステップA10からA
13については、図2に示される第1の実施の形態の動
作と同じであるので説明は省略する。
Referring to FIG. 7, steps A1 to A8 and steps A10 to A in the operation of the present embodiment.
The operation of No. 13 is the same as the operation of the first embodiment shown in FIG.

【0141】ステップA9において、合成認識データと
文字認識データの重複部分を探索した結果、重複部分が
見つかった場合にはステップA10に進んで合成を行う
が、もし重複部分が見つからなかった場合には、文字認
識データは保留データとして、保留データ記憶装置70
に記憶され、カメラ映像出力に戻る(ステップD2)。
In step A9, when the overlapped portion of the combined recognition data and the character recognition data is searched for, the overlapped portion is found. Then, the process proceeds to step A10 to perform the combining. However, if the overlapped portion is not found, the overlapping portion is found. The character recognition data is reserved data, and the reserved data storage device 70
And is returned to the camera image output (step D2).

【0142】その後、別の文字認識データと合成認識デ
ータとの合成に成功した後(ステップA10からA1
3)、もし保留データ記憶装置70に保留データが記憶
されていた場合には、そのデータを新規文字列とみなし
て、再度合成処理を行う。保留データが記憶されていな
かった場合にはカメラ映像出力に戻る(ステップD
1)。
Then, after succeeding in synthesizing another character recognition data and the synthetic recognition data (steps A10 to A1).
3) If the reserved data is stored in the reserved data storage device 70, the data is regarded as a new character string and the combining process is performed again. When the hold data is not stored, the process returns to the camera image output (step D
1).

【0143】次に第3の実施の形態の効果について説明
する。
Next, the effect of the third embodiment will be described.

【0144】本実施の形態では、保留データ記憶装置7
0を備えており、重複部分が見つからず、入力データの
合成に失敗した場合でも、別の撮影によってそのデータ
が合成可能になるまで保留データとして記憶するように
したので、ユーザーが分割撮影する際に手を動かしすぎ
て、重複部分が無い画像を撮影してしまった場合にもそ
れまでに認識した文字認識データを無駄にすることなく
データの合成に利用することができる。
In the present embodiment, the reserved data storage device 7
Even if the input data fails to be merged because 0 is provided and the overlapping part is not found, it is stored as pending data until the data can be merged by another shooting. Even if the user moves his hand too much and shoots an image with no overlap, the character recognition data recognized up to that point can be used for data synthesis without wasting.

【0145】次に、本発明の第3の実施例を、図面を参
照して説明する。かかる実施例は本発明の第3の実施の
形態に対応するものである。
Next, a third embodiment of the present invention will be described with reference to the drawings. Such an example corresponds to the third embodiment of the present invention.

【0146】本実施例は第1の実施例と同じように、携
帯端末100によって実現されるが、記憶装置が保留デ
ータ記憶装置70としても機能するという点において異
なる。
Like the first embodiment, this embodiment is realized by the portable terminal 100, but is different in that the storage device also functions as the reserved data storage device 70.

【0147】今、第1の実施例と同じく図14に示す印
刷文章を入力するため、まず図27に示されるように左
半分を撮影し、しかる後に右半分を撮影するが、端末を
右に移動しすぎたため、図28に示すように撮影してし
まったものとする。これは1回目の入力結果と重複部分
が無いので合成することができない。そこで、この入力
に対する文字認識データは保留データ記憶装置70に一
旦記憶される。
Now, in order to input the print text shown in FIG. 14 as in the first embodiment, first the left half is photographed as shown in FIG. 27 and then the right half is photographed, but the terminal is moved to the right. It is assumed that the image is photographed as shown in FIG. 28 because it has moved too much. This cannot be combined because there is no overlap with the first input result. Therefore, the character recognition data for this input is temporarily stored in the reserved data storage device 70.

【0148】続いて、ユーザーが3回目として図29に
示すように撮影したとすると、これは1回目のと重複し
て撮影しているので、合成することができる。
Next, if the user takes a picture for the third time as shown in FIG. 29, since the picture is taken at the same time as the first picture, it can be combined.

【0149】ここで、1回目と3回目の合成結果に対し
て、さらに保留されていた2回目の文字認識データの合
成が試みられる。この場合、重複部分があるので合成は
成功し、文章を全て入力することができる。
Here, with respect to the first and third combining results, the second pending character combining data is tried to be combined. In this case, since there is an overlapping portion, the composition is successful and the entire sentence can be input.

【0150】次に本発明の第4の実施の形態による文字
入力装置を図を用いて詳細に説明する。
Next, a character input device according to the fourth embodiment of the present invention will be described in detail with reference to the drawings.

【0151】図8を参照すると、本発明の第4の実施の
形態による文字入力装置1Cは、図1に示された第1の
形態の構成に加え、画像一時記憶装置80と画像差分検
出装置90を有する点で相違する。
Referring to FIG. 8, a character input device 1C according to a fourth embodiment of the present invention is the same as the first embodiment shown in FIG. Difference in having 90.

【0152】この画像一時記憶装置80は、撮影装置1
0に接続され、撮影装置10から出力される映像を毎フ
レームごとに一時的に記憶する。
The image temporary storage device 80 is used in the image pickup device 1.
The image output from the image capturing apparatus 10 is temporarily stored in each frame when connected to 0.

【0153】差分検出装置90は、画像一時記憶装置8
0と撮影装置10に接続され、画像一時記憶装置80に
記憶された1フレーム前の画像と最新のフレーム画像の
差分を取ることで、撮影装置10の動き量を検出する。
撮影装置10の動きから撮影タイミングを決定して撮影
装置10に撮影指令を送ることで、静止画を撮影する。
The difference detection device 90 is the image temporary storage device 8
0 and the image capturing device 10 are connected to each other, and the amount of movement of the image capturing device 10 is detected by obtaining the difference between the image one frame before stored in the image temporary storage device 80 and the latest frame image.
A still image is photographed by determining the photographing timing from the movement of the photographing device 10 and sending a photographing command to the photographing device 10.

【0154】次いで、第4の実施の形態による文字入力
装置1Cの動作を図面を参照して詳細に説明する。
Next, the operation of the character input device 1C according to the fourth embodiment will be described in detail with reference to the drawings.

【0155】図9に示される本実施の形態の動作におい
て、図1に示される第1の実施の形態の動作と異なるの
はステップA2の代わりにステップE1とステップE2
による処理を行う点である。
The operation of this embodiment shown in FIG. 9 differs from the operation of the first embodiment shown in FIG. 1 in that instead of step A2, step E1 and step E2.
This is the point where processing is performed.

【0156】本実施の形態では、撮影装置10から出力
される映像を表示装置40に表示している間、上述した
画像一時記憶装置80と画像差分検出装置90によっ
て、毎フレームごとに前フレームとの差分量を計算し、
そして差分量から、撮影装置10が静止しているかどう
かを判別する(ステップE1)。
In the present embodiment, while the image output from the photographing device 10 is displayed on the display device 40, the image temporary storage device 80 and the image difference detection device 90 described above are used to change the previous frame for each frame. The difference amount of
Then, it is determined from the difference amount whether or not the photographing device 10 is stationary (step E1).

【0157】撮影装置10が静止していると判断される
と、画像差分検出装置90から撮影装置10に対して撮
影指示が出され(ステップE2)、ステップA3に進み
自動的に画像が撮影される。すなわち、入力装置20に
よる撮影指示の操作(シャッター)を行うことなく、自
動的に撮影が行われる。
When it is determined that the photographing device 10 is stationary, the image difference detection device 90 issues a photographing instruction to the photographing device 10 (step E2), and the process proceeds to step A3 to automatically photograph the image. It That is, the shooting is automatically performed without performing the shooting instruction operation (shutter) by the input device 20.

【0158】ここで、撮影装置10が静止しているかど
うかを判断する方法としては、例えば図10に示すよう
に、フレーム間差分量Fが一定の閾値pを下回った時
(t1、t2、t3)を撮影装置10の静止状態と判断
し、自動的に撮影の指示がなされるようにすることがで
きる。
Here, as a method of judging whether or not the photographing apparatus 10 is stationary, for example, as shown in FIG. 10, when the inter-frame difference amount F is below a certain threshold p (t1, t2, t3). ) Can be determined to be the stationary state of the photographing device 10, and the photographing instruction can be automatically issued.

【0159】上述した方法では、ユーザーは素早く連続
撮影を行うことができる一方、たまたま撮影装置10が
一瞬静止した場合などにも予期せず撮影が行われてしま
う可能性がある。
With the method described above, while the user can quickly perform continuous shooting, there is a possibility that shooting will occur unexpectedly even if the shooting device 10 happens to be still for a moment.

【0160】そこで、例えば図11のように、フレーム
間の差分量が一定の閾値pを下回り、更に一定の時間q
が過ぎる間、フレーム間差分量が閾値を上回らなかった
時(t4、t5)を撮影タイミングとすることもでき
る。
Therefore, for example, as shown in FIG. 11, the amount of difference between frames falls below a fixed threshold p and a fixed time q
It is also possible to set the shooting timing when the inter-frame difference amount does not exceed the threshold value during the period (t4, t5).

【0161】この方法を用いれば、ユーザーがある一定
時間、撮影装置10を静止させた状態で保持した場合に
撮影が行われるので、より明示的に撮影を指示がなさ
れ、予期せぬ撮影を回避できる。
By using this method, since the photographing is performed when the user holds the photographing apparatus 10 in a stationary state for a certain period of time, the photographing is more explicitly instructed and the unexpected photographing is avoided. it can.

【0162】次に、第4の実施の形態の効果について説
明する。
Next, the effect of the fourth embodiment will be described.

【0163】本実施の形態では、撮影装置10(カメ
ラ)の撮影画像から、撮影装置10の移動量を検出し、
撮影装置10が静止したときに自動的に撮影が行われ
る。
In the present embodiment, the movement amount of the photographing device 10 is detected from the photographed image of the photographing device 10 (camera),
Shooting is automatically performed when the shooting device 10 is stationary.

【0164】これによって、文書画像を撮影するのにシ
ャッターを押す(入力装置20を操作して撮影指示を出
す)必要はなく、ただ撮影装置10を動かして撮影対象
に狙いを定めればよい。大きな文書を撮影する場合に
も、撮影装置10を上下左右に動かしながら、一定の間
隔で手を止めて構える、という操作で次々に撮影が行わ
れ、入力結果をリアルタイムに表示装置40(液晶)に
表示するため、ユーザーはより手軽に撮影による文字入
力を行うことができる。また、シャッターを押す(入力
装置20を操作する)ことによる手ブレも防ぐことがで
きる。
Accordingly, it is not necessary to press the shutter (operate the input device 20 to issue a shooting instruction) to shoot a document image, and the shooting device 10 may be moved to aim at the shooting target. Even when photographing a large document, the photographing device 10 is moved up and down, left and right, and the photographer is photographed one after another by holding the hand at a constant interval, and the input result is displayed in real time on the display device 40 (liquid crystal). Since it is displayed on the screen, the user can more easily input characters by shooting. Further, camera shake caused by pressing the shutter (operating the input device 20) can be prevented.

【0165】次に、本発明の第4の実施例を、図面を参
照して説明する。かかる実施例は本発明の第4の実施の
形態に対応するものである。
Next, a fourth embodiment of the present invention will be described with reference to the drawings. Such an example corresponds to the fourth embodiment of the present invention.

【0166】本実施例は第1の実施例と同じように、携
帯端末100によって実現されるが、中央演算装置が画
像差分検出装置90としても機能し、記憶装置が画像一
時記憶装置80として機能するという点において異な
る。
Like the first embodiment, this embodiment is realized by the portable terminal 100, but the central processing unit also functions as the image difference detection device 90, and the storage device functions as the image temporary storage device 80. They differ in that they do.

【0167】本実施例は、撮影の際にシャッターボタン
などを押さずに、ただ端末を少しの間静止させるだけで
いいと言う点でのみ第1の実施例と異なる。図30に示
されるように、文書を端末でなぞるような自然な動作で
入力することができる。入力の誤りを修正する際も、同
じ様に誤って入力した文字の場所に戻って、端末100
を静止させればよい。
This embodiment is different from the first embodiment only in that the terminal is allowed to stand still for a while without pressing the shutter button or the like at the time of photographing. As shown in FIG. 30, a document can be input by a natural operation such as tracing on a terminal. Similarly, when correcting an input error, return to the place of the same input error character, and
Should be stationary.

【0168】次に本発明の第5の実施の形態による文字
入力装置を図を用いて詳細に説明する。
Next, a character input device according to a fifth embodiment of the present invention will be described in detail with reference to the drawings.

【0169】図31を参照すると、本発明の第5の実施
の形態による文字入力装置1Eは、図1に示された第1
の形態の構成に加え、目印描画装置31と行抽出装置5
5を備えているという点で相違する。
Referring to FIG. 31, the character input device 1E according to the fifth embodiment of the present invention is the first character input device 1E shown in FIG.
In addition to the configuration of FIG.
5 is different in that it has 5.

【0170】表示画像制御装置30の目印描画装置31
は、撮影装置10から送られる動画像中に利用者が対象
文字を合わせて撮影するための目印を描画し、表示装置
40に送る機能を有する。
The mark drawing device 31 of the display image control device 30
Has a function of drawing a mark for a user to capture a target character in a moving image sent from the image capturing device 10 and sending the mark to the display device 40.

【0171】データ処理装置50の行抽出装置55は、
撮影装置10に接続され、撮影装置10で撮影された画
像を行ごとに分解し、分割された行画像を、文字抽出装
置51に送る機能を有する。
The line extraction device 55 of the data processing device 50 is
It has a function of being connected to the photographing device 10, decomposing an image photographed by the photographing device 10 for each line, and sending the divided line images to the character extracting device 51.

【0172】次いで、第5の実施の形態による文字入力
装置1Eの動作を図面を参照して詳細に説明する。
Next, the operation of the character input device 1E according to the fifth embodiment will be described in detail with reference to the drawings.

【0173】図32に示される本実施の形態の動作にお
いて、ステップA2、A3、ステップA6からA8及び
ステップA10からA13に関しては、図2に示される
第1の実施の形態の動作と同じであるので、説明は省略
する。
In the operation of this embodiment shown in FIG. 32, steps A2, A3, steps A6 to A8, and steps A10 to A13 are the same as the operation of the first embodiment shown in FIG. Therefore, the description is omitted.

【0174】本装置が動作を開始すると、撮影装置10
からの撮影画像(動画像)が表示画像制御装置30に送
られる。表示画像制御装置30の目印描画装置31は、
撮影装置10から送られた撮影画像の特定の位置に目印
を描画し、表示装置40に表示する(ステップF1)。
When the present apparatus starts its operation, the photographing apparatus 10
The captured image (moving image) from is sent to the display image control device 30. The mark drawing device 31 of the display image control device 30 is
A mark is drawn at a specific position of the photographed image sent from the photographing device 10 and displayed on the display device 40 (step F1).

【0175】撮影操作が行われると、撮影装置10が出
力した撮影画像はまず行抽出装置54に送られる。行抽
出装置54は受け取った画像を行画像に分解し、撮影装
置10によって指定された画面上の位置に最も近い行画
像を、文字抽出装置51に送る。(ステップF2)この
行抽出処理は、例えば特開平05−182024号公報
に記載されるような従来技法を用いて実現することがで
きる。
When the photographing operation is performed, the photographed image output by the photographing device 10 is first sent to the row extracting device 54. The line extracting device 54 decomposes the received image into line images, and sends the line image closest to the position on the screen designated by the photographing device 10 to the character extracting device 51. (Step F2) This row extraction process can be realized by using a conventional technique as described in, for example, Japanese Patent Laid-Open No. 05-182024.

【0176】ステップA5において、文字が抽出できな
かった場合や、ステップA9において合成認識データと
文字認識データの重複部分が見つからなかった場合、行
抽出装置54は今回処理した行画像の次に撮影装置10
によって指定された位置に近い行画像を抽出し、再度文
字抽出装置51に送る。もし処理すべき他の行画像がな
い場合には、カメラ映像出力に戻る(ステップF3)。
If the character cannot be extracted in step A5 or if the overlapping portion of the combined recognition data and the character recognition data is not found in step A9, the line extracting device 54 determines the line image processed next to the image capturing device. 10
A line image close to the position designated by is extracted and sent to the character extracting device 51 again. If there is no other line image to be processed, the process returns to the camera image output (step F3).

【0177】次に、第5の実施の形態の効果について説
明する。
Next, the effect of the fifth embodiment will be described.

【0178】本実施の形態では、撮影装置10の撮影画
像をまず行画像に分解し、画面上に表示された目印にも
っとも近い位置で撮影された行の画像を抽出して処理す
る。
In the present embodiment, the photographed image of the photographing device 10 is first decomposed into line images, and the image of the line photographed at the position closest to the mark displayed on the screen is extracted and processed.

【0179】これによって、ユーザーはただ目的の文字
列を画面の目印に合わせて撮るという簡単な操作で、文
書の一部分の文字列を入力することができる。
With this, the user can input a character string of a part of a document by a simple operation of simply taking a desired character string in accordance with a mark on the screen and taking a picture.

【0180】また分割撮影時には、入力した結果が以前
までの入力結果と合成できなかった場合、上下に隣り合
う行を順番に処理しながら合成できる行を探す。よって
入力したい文字列の先頭さえ入力できれば、以降の撮影
では文字列を目印に正確にあわせる必要はない。また、
目印に近い順に行を抽出して処理をおこなうので、ユー
ザーが目印近くに文字列を合わせていれば、少ない処理
量で目的の文字列を探し出し、合成することができる。
In addition, in the divided photographing, when the input result cannot be combined with the previous input result, a line that can be combined is searched while sequentially processing vertically adjacent lines. Therefore, if only the beginning of the character string to be input can be input, it is not necessary to accurately match the character string with the mark in subsequent shooting. Also,
Since the lines are extracted and processed in the order of being closer to the mark, if the user matches the character strings near the mark, the target character string can be found and combined with a small amount of processing.

【0181】次に、本発明の第5の実施例を、図面を参
照して説明する。かかる実施例は本発明の第5の実施の
形態に対応するものである。
Next, a fifth embodiment of the present invention will be described with reference to the drawings. Such an example corresponds to the fifth embodiment of the present invention.

【0182】本実施例は第1の実施例と同じように、携
帯端末100によって実現されるが、中央演算装置が行
抽出装置54及び目印描画装置31としても機能すると
いう点において異なる。
Like the first embodiment, this embodiment is realized by the portable terminal 100, but is different in that the central processing unit also functions as the row extracting device 54 and the mark drawing device 31.

【0183】本実施例では、図37に示すような名刺3
00のメールアドレス部分「yamada@nec.c
o.jp」を入力する場合を考える。
In this embodiment, a business card 3 as shown in FIG.
00 email address part "yamada@nec.c
o. Consider the case of inputting "jp".

【0184】携帯端末100の液晶ディスプレイ112
には、図38に示されるようにカメラ113からのカメ
ラ映像又は撮影画像214Aと、撮影対象を指定するた
めの目印として、十字形状のマーク311が表示されて
いる。以下、本実施例から第7の実施例において、カメラ
113のシャッターを押す前はカメラ113からの映像
がリアルタイムに動画として液晶ディスプレイ112に
表示され、シャッターを押すと、その表示されていた映像
が撮影画像として表示されるものである。
Liquid crystal display 112 of portable terminal 100
As shown in FIG. 38, a camera image or a photographed image 214A from the camera 113 and a cross-shaped mark 311 are displayed as a mark for designating a photographing target. Hereinafter, in the present embodiment to the seventh embodiment, the image from the camera 113 is displayed as a moving image on the liquid crystal display 112 in real time before the shutter of the camera 113 is pressed, and when the shutter is pressed, the displayed image is displayed. It is displayed as a captured image.

【0185】メールアドレス前半部をマーク311に合
わせる様にカメラ位置を調整し、撮影を行うと、撮影画
像が行抽出処理され、マークに最も近い行が認識処理さ
れ、認識結果が表示される。
When the camera position is adjusted so that the first half of the mail address is aligned with the mark 311, and shooting is performed, the captured image is subjected to line extraction processing, the line closest to the mark is subjected to recognition processing, and the recognition result is displayed.

【0186】次にメールアドレスの後半部分を撮影する
際は、もうマークにメールアドレスを正確に合わせる必
要はなく、図39のように、画面内にメールアドレスが
入っていれば良い。
Next, when photographing the second half of the mail address, it is no longer necessary to accurately match the mail address to the mark, as shown in FIG. 39, the mail address may be entered in the screen.

【0187】データ処理装置50は撮影画像を行抽出
し、抽出した行をマークに近い方から順に結合を試み
る。例ではまず文字列「AX(03)3454−222
2」を結合することを試みるが、重複部分が無いので結
合できない。そこで次に文字列「a@nec.co.j
p」の結合を試みて成功する。このようにしてメールア
ドレスを正しく入力することができる
The data processing device 50 extracts the rows of the photographed images, and tries to combine the extracted rows in order from the side closer to the mark. In the example, first, the character string "AX (03) 3454-222
I try to combine 2 ", but I can't because there is no overlap. Then, next, the character string "a@nec.co.j
Attempts to join p "succeed. This way you can enter your email address correctly

【0188】次に本発明の第6の実施の形態による文字
入力装置を図を用いて詳細に説明する。
Next, a character input device according to a sixth embodiment of the present invention will be described in detail with reference to the drawings.

【0189】本発明の第6の実施の形態による文字入力
装置は、認識データ合成装置53の構成についてのみ、
図1に示す第1の形態の構成と相違するので、他の構成
要素についての説明は省略する。
In the character input device according to the sixth embodiment of the present invention, only the configuration of the recognition data synthesizer 53 is different.
Since the configuration is different from that of the first embodiment shown in FIG. 1, description of other components will be omitted.

【0190】図33を参照すると、第5の実施の形態に
おける認識データ合成装置53は、重複部分判別装置5
3Aと、重複部分選択装置53Bと、連結装置53Cか
らなり、これらは第1の実施の形態における認識データ
合成53装置にも含まれているが、本実施の形態におい
ては、さらに強制連結制御装置53Dを備えるという点
で異なる。
Referring to FIG. 33, the recognition data synthesizing apparatus 53 in the fifth embodiment is the same as the overlapping part discriminating apparatus 5 in FIG.
3A, an overlapping portion selection device 53B, and a concatenation device 53C, which are also included in the recognition data synthesis 53 device in the first embodiment, but in the present embodiment, a forced concatenation control device is further included. It differs in having 53D.

【0191】重複部分判別装置53Aは、文字認識デー
タと合成認識データの重複部分を判別する機能を有す
る。これは図2に示した第1の実施の形態の動作におけ
るステップA9に対応する。
The overlapping portion discriminating apparatus 53A has a function of discriminating an overlapping portion between the character recognition data and the synthetic recognition data. This corresponds to step A9 in the operation of the first embodiment shown in FIG.

【0192】重複部分判別装置53Bは、文字認識デー
タと合成認識データの重複部分に関して、信頼度の高い
データを選択することでデータの合成を行い、文字認識
データの残りの部分と合成認識データを連結装置53C
に送る機能を有する。これは図2に示した第1の実施の
形態の動作におけるステップA10に対応する。
The overlapping portion discriminating device 53B synthesizes the data by selecting the highly reliable data with respect to the overlapping portion of the character recognition data and the synthetic recognition data, and synthesizes the remaining portion of the character recognition data with the synthetic recognition data. Coupling device 53C
It has a function to send to. This corresponds to step A10 in the operation of the first embodiment shown in FIG.

【0193】連結装置53Cは、合成認識データの後ろ
に、文字認識データを連結する機能を有する。これは図
2に示した第1の実施の形態の動作におけるステップA
11に対応する。
The connecting device 53C has a function of connecting the character recognition data after the combined recognition data. This is step A in the operation of the first embodiment shown in FIG.
Corresponds to 11.

【0194】強制連結制御装置53Dは、重複部分判別
装置53Aと入力装置20に接続され、合成認識データ
と文字認識データに重複部分が無いと判断された場合
に、入力装置20に従って文字認識データを連結装置5
3Cに送る機能を有する。
The forced connection control device 53D is connected to the overlapping part discriminating device 53A and the input device 20, and when it is judged that there is no overlapping part in the combined recognition data and the character recognition data, the character recognition data is transmitted in accordance with the input device 20. Connection device 5
It has a function to send to 3C.

【0195】次いで、第6の実施の形態による文字入力
装置2Aの動作を図面を参照して詳細に説明する。
Next, the operation of the character input device 2A according to the sixth embodiment will be described in detail with reference to the drawings.

【0196】図34に示す本実施の形態の動作におい
て、ステップA1からA8及びステップA10からA1
3に関しては図2に示した第1の実施の形態の動作と同
じであるので説明は省略する。
In the operation of this embodiment shown in FIG. 34, steps A1 to A8 and steps A10 to A1.
The operation of No. 3 is the same as the operation of the first embodiment shown in FIG.

【0197】ステップA9において、合成認識データと
文字認識データの重複部分を探索した結果、重複部分が
見つかった場合にはステップA10に進んで合成を行う
が、もし重複部分が見つからなかった場合には、強制連
結を行うかどうかをユーザーに問うメッセージを出力装
置に表示する。ユーザーが強制連結を行わない旨を選択
した場合には、再びカメラ映像出力に戻る(ステップG
1)。
In step A9, when the overlapped portion of the combined recognition data and the character recognition data is searched for, the overlapped portion is found, and the process proceeds to step A10 to perform the combining, but if the overlapped portion is not found, , Display a message on the output device asking the user whether to force the connection. When the user selects not to perform the forced connection, the camera image output is returned again (step G).
1).

【0198】ユーザーが、強制連結を行う旨を入力した
場合には、文字認識データは、強制連結制御装置53D
を通って連結装置53Cに送られる。
When the user inputs that the forced connection is to be performed, the character recognition data is the forced connection control device 53D.
To the coupling device 53C.

【0199】連結装置53Cは、文字認識データ記憶装
置60から送られた合成認識データの後ろに、強制連結
制御装置53Dから送られた文字認識データを連結し、
連結後のデータを再び認識データ記憶装置60に送る
(ステップG2)。
The connection device 53C connects the character recognition data sent from the forced connection control device 53D after the combined recognition data sent from the character recognition data storage device 60,
The combined data is sent again to the recognition data storage device 60 (step G2).

【0200】次に、第6の実施の形態の効果について説
明する。
Next, the effect of the sixth embodiment will be described.

【0201】本実施の形態では、強制連結制御装置53
Dを備えており、文字認識データの合成に失敗した場合
には、ユーザーの指示によって、合成認識データの後ろ
に、文字認識データをそのまま連結させることができ
る。
In this embodiment, the forced connection control device 53 is used.
D is provided, and when the synthesis of the character recognition data fails, the character recognition data can be directly connected after the synthetic recognition data according to the user's instruction.

【0202】これによって、入力したい文字列が途中で
改行して印刷されていても、改行部分を撮影後、強制的
に連結することで、全体を一つの文字列として入力する
ことができる。
As a result, even if the character string to be input is printed with a line break in the middle, the entire line can be input as a single character line by forcibly connecting after the line break is photographed.

【0203】なお、本実施の形態における強制連結処理
は、改行して書かれた文字列を入力する場合に特に効果
を発揮するが、それに限定されるものではなく、例えば
2段組で書かれた文書の1段目を入力し、次に2段目を
入力する場合などにも有効である。
The forced concatenation process in this embodiment is particularly effective when inputting a character string written with a line break, but the present invention is not limited to this and, for example, it is written in two columns. This is also effective when inputting the first row of a document and then the second row.

【0204】次に、本発明の第6の実施例を、図面を参
照して説明する。かかる実施例は本発明の第6の実施の
形態に対応するものである。
Next, a sixth embodiment of the present invention will be described with reference to the drawings. Such an example corresponds to the sixth embodiment of the present invention.

【0205】本実施例は第1の実施例と同じように、携
帯端末100によって実現されるが、中央演算装置が強
制連結制御装置53Dとしても機能するという点におい
て異なる。
Like the first embodiment, this embodiment is realized by the portable terminal 100, but is different in that the central processing unit also functions as the forced connection control device 53D.

【0206】本実施例では、図40に示すようなカード
400に書かれたURLを入力する場合を考える。
In this embodiment, consider the case where the URL written on the card 400 as shown in FIG. 40 is input.

【0207】実施例1と同様に、URLを左から順に撮
影し、図40、41に示すように1行目の右端まで入力
し終わったものとする。
Similar to the first embodiment, it is assumed that the URLs are photographed in order from the left and the input is completed up to the right end of the first line as shown in FIGS.

【0208】ここで図42に示すように、2行目に印刷
されたURLの続き部分を撮影すると、今回認識した文
字認識データと記憶された合成認識データには重複部分
が無いため、図43に示すような連結確認メッセージ4
10が表示される。
As shown in FIG. 42, when the continuous portion of the URL printed on the second line is photographed, there is no overlapping portion between the character recognition data recognized this time and the stored combined recognition data. Connection confirmation message 4 as shown in
10 is displayed.

【0209】ここで「YES」を選んで強制連結を指示
すると、文字認識データは記憶された合成認識データの
最後に連結され、図44に示すように改行して印刷され
たURLを一つの文字列として入力することができる。
If "YES" is selected here to instruct forcible concatenation, the character recognition data is concatenated at the end of the stored composite recognition data, and the URL printed with a line break as shown in FIG. Can be entered as a column.

【0210】次に本発明の第7の実施の形態による文字
入力装置を図を用いて詳細に説明する。
Next, a character input device according to the seventh embodiment of the present invention will be described in detail with reference to the drawings.

【0211】図35を参照すると、本発明の第7の実施
の形態による文字入力装置1Fは、図1に示した第1の
形態の構成に加え、カーソル位置制御装置32が表示画
像制御装置30に備わり、文字削除装置35が認識デー
タ記憶装置60に接続されている点で、第5の実施の形
態と相違する。
Referring to FIG. 35, in a character input device 1F according to a seventh embodiment of the present invention, in addition to the configuration of the first embodiment shown in FIG. 1, the cursor position control device 32 includes a display image control device 30. This is different from the fifth embodiment in that the character deletion device 35 is connected to the recognition data storage device 60.

【0212】カーソル位置制御装置32は認識データ記
憶装置60から送られた合成認識データを元に、現入力
が初回の入力(撮影)かそれ以外かを判断し、初回であ
れば認識文字列の先頭にカーソルを移動し、初回でなけ
れば認識文字列の文末にカーソルを移動した状態で、表
示装置40に認識結果を出力する。
The cursor position control device 32 determines whether the current input is the first input (photographing) or not based on the combined recognition data sent from the recognition data storage device 60. The recognition result is output to the display device 40 in a state where the cursor is moved to the beginning and is moved to the end of the recognized character string if it is not the first time.

【0213】文字削除装置35は、入力装置20からの
入力によって、認識データ記憶装置60に記憶された合
成認識データを直接削除する機能を有する。
The character deletion device 35 has a function of directly deleting the combined recognition data stored in the recognition data storage device 60 by the input from the input device 20.

【0214】本実施の形態による文字入力装置1Fの動
作を図面を参照して説明する。
The operation of the character input device 1F according to this embodiment will be described with reference to the drawings.

【0215】図36は、第7の実施の形態による文字入
力装置2Bの動作を示すフローチャートである。ここ
で、本実施の形態の動作のうち、図2に示す本発明第1
の実施の形態の動作と異なる点は、ステップA13の後
にステップH1からステップH3を行う点である。よっ
て図2と共通するステップについては説明を省略する。
FIG. 36 is a flow chart showing the operation of the character input device 2B according to the seventh embodiment. Here, of the operations of the present embodiment, the first embodiment of the present invention shown in FIG.
The difference from the operation of the above embodiment is that steps H1 to H3 are performed after step A13. Therefore, the description of the steps common to FIG. 2 is omitted.

【0216】ステップA13において入力結果が表示さ
れた後、さらにカーソル位置制御装置32は、入力結果
文字列中のある一文字にカーソルを合わせて表示する。
(ステップH1)
After the input result is displayed in step A13, the cursor position control device 32 further displays the cursor by aligning the cursor with one character in the input result character string.
(Step H1)

【0217】ここで、今回の撮影が初回の入力であると
き、つまり認識データ記憶装置60に何も記憶されてい
ないときには、入力文字列の先頭にカーソルを位置付け
る。
Here, when the current photographing is the first input, that is, when nothing is stored in the recognition data storage device 60, the cursor is positioned at the beginning of the input character string.

【0218】これは、初回の入力では、入力したい文字
列の左に印刷された文字を一緒に撮影してしまうことが
多いため、それを簡単に削除できるようにするためであ
る。
This is because in the first input, the characters printed to the left of the character string to be input are often photographed together, so that they can be easily deleted.

【0219】また、2回目以降の撮影であった場合に
は、表示されている入力結果の最後の文字にカーソルを
位置づける。
In the case of the second and subsequent photographing, the cursor is positioned at the last character of the displayed input result.

【0220】これは、分割撮影における最後の撮影で
は、入力したい文字列の右に印刷された文字を一緒に撮
影してしまうことが多いため、それを簡単に削除できる
ようにするためである。
This is because in the final shooting in the split shooting, the characters printed to the right of the character string to be input are often taken together, so that they can be easily deleted.

【0221】次に入力装置20による文字削除の操作が
行われると、カーソル位置にある文字が一つ削除され、
以降の文字列が左に1文字シフトする。削除した文字が
認識結果の最後の文字であった場合には、カーソル位置
にある文字が一つ削除され、カーソルは左に1文字移動
する。文字削除操作は連続で行うことができる。文字削
除操作が終わると、カメラ映像出力に戻る(ステップH
2,H3)。
Next, when a character deletion operation is performed by the input device 20, one character at the cursor position is deleted,
Subsequent character strings are shifted one character to the left. If the deleted character is the last character in the recognition result, the character at the cursor position is deleted and the cursor moves one character to the left. Character deletion operations can be performed continuously. When the character deletion operation is completed, the screen returns to the camera image output (step H
2, H3).

【0222】なお本実施の形態は、実施の形態2と組み
合わせることによって、カーソル位置の文字の削除と修
正が両方とも行えるようにすることもできる。
By combining this embodiment with the second embodiment, it is possible to perform both deletion and correction of the character at the cursor position.

【0223】その場合には、カーソル位置制御装置32
は上記動作に加え、最後の撮影が今まで撮影された場所
に戻る再撮影だった場合には、実施の形態2と同様、カ
ーソルを最後の撮影時にもっとも真ん中近くで撮影され
た文字に移動させるのがよい。
In this case, the cursor position control device 32
In addition to the above operation, when the last shooting is re-shooting to return to the place where the shooting was performed, the cursor is moved to the character shot closest to the center of the last shooting, as in the second embodiment. Is good.

【0224】これによって、ユーザーが前後の余分な文
字を簡単に削除できるのに加えて、戻り撮影を行ったと
きには誤認識文字をすぐ修正できるため、より望まし
い。
This is more desirable because the user can easily delete the extra characters before and after, and at the same time, the misrecognized character can be corrected immediately at the time of returning shooting.

【0225】次に、第7の実施の形態の効果について説
明する。
Next, the effect of the seventh embodiment will be described.

【0226】本実施の形態では、カーソル位置制御装置
32と文字削除装置35を備えており、ユーザー操作に
よってカーソル位置の文字を削除することができる。こ
こで、初回撮影時は、カーソルは文字列の先頭に、以降
の撮影ではカーソルは文字列の最後に移動するので、ユ
ーザーはただ削除キーを数回押す簡単な操作で、文字列
の前後に混入した余分な文字を削除できるため、操作性
が向上する。
In the present embodiment, the cursor position control device 32 and the character deletion device 35 are provided, and the character at the cursor position can be deleted by the user operation. Here, when shooting for the first time, the cursor moves to the beginning of the character string, and in subsequent shootings, the cursor moves to the end of the character string, so the user can simply press the delete key several times, Since the mixed extra characters can be deleted, the operability is improved.

【0227】次に、本発明の第7の実施例を、図面を参
照して説明する。かかる実施例は本発明の第7の実施の
形態に対応するものである。
Next, a seventh embodiment of the present invention will be described with reference to the drawings. Such an example corresponds to the seventh embodiment of the present invention.

【0228】本実施例は第1の実施例と同じように、携
帯端末100によって実現されるが、中央演算装置がカ
ーソル制御装置32としても機能するという点において
異なる。
Like the first embodiment, this embodiment is realized by the portable terminal 100, but is different in that the central processing unit also functions as the cursor control device 32.

【0229】本実施例では、図45に示すようなカード
500に書かれた電話番号を入力する場合を考える。
In this embodiment, consider the case where the telephone number written on the card 500 as shown in FIG. 45 is input.

【0230】まず、電話番号の前半を撮影したところ、
図46に示するように、電話番号に加えて左に印刷され
た「EL:」という文字列も一緒に撮影してしまい、認
識結果に混入してしまったとする。
First, when the first half of the telephone number was photographed,
As shown in FIG. 46, it is assumed that, in addition to the telephone number, the character string “EL:” printed on the left is also photographed and mixed in the recognition result.

【0231】ここでカーソル制御装置32は、合成デー
タ記憶装置にデータが記憶されていない状態に、新しい
合成認識データが記憶されたことにより、今回の撮影が
初回の撮影であると判断し、文字認識結果上でカーソル
216を認識結果文字列の先頭に移動する
Here, the cursor control device 32 determines that the current photographing is the first photographing because the new synthetic recognition data is stored in the state where the data is not stored in the synthetic data storage device, and the character photographing is performed. Move the cursor 216 to the beginning of the recognition result character string on the recognition result

【0232】認識結果を見たユーザーは、入力ボタン類
111に含まれる削除キーを3回押すだけで、図47に
示すように混入した「EL:」を削除することができ
る。
The user who sees the recognition result can delete the mixed “EL:” as shown in FIG. 47 by merely pressing the delete key included in the input buttons 111 three times.

【0233】次に電話番号の後半を撮影し、図48に示
すように電話番号の後に印刷された「(代」の文字列が
入力結果の後半に混入してしまったとする。
Next, it is assumed that the latter half of the telephone number is photographed, and the character string "(alternative)" printed after the telephone number is mixed in the latter half of the input result as shown in FIG.

【0234】カーソル制御装置32は合成認識データが
更新されたことにより、文字認識結果上でカーソル21
6を認識結果文字列の最後に移動する
Since the cursor control device 32 updates the synthetic recognition data, the cursor 21 is displayed on the character recognition result.
Move 6 to the end of the recognition result character string

【0235】ここでユーザーは削除キーを2回押すこと
で、図49に示すように混入した「(代」を削除するこ
とができる。このように、簡単な操作で混入文字を削除
できるため、込み入って印刷された文章の一部も手軽に
入力できる。
[0235] Here, the user can delete the mixed "(alternative)" by pressing the delete key twice, as shown in Fig. 49. Thus, since the mixed character can be deleted by a simple operation, You can easily enter a part of the complicated printed text.

【0236】なお、上記各実施の形態の文字入力装置に
おけるデータ処理装置50の文字抽出装置51、文字認
識装置52、認識データ合成装置53の各機能、及び文
字修正装置25、画像差分検出装置90の機能、その他
の機能については、各機能を備える制御プログラムを、
コンピュータ処理装置のメモリにロードすることでソフ
トウェア的に実現することができる。この制御プログラ
ム300は、磁気ディスク、半導体メモリその他の記録
媒体に格納される。そして、その記録媒体からコンピュ
ータ処理装置にロードされ、コンピュータ処理装置の動
作を制御することにより、上述した各機能を実現する。
The functions of the character extracting device 51, the character recognizing device 52, the recognition data synthesizing device 53 of the data processing device 50 in the character input device of each of the above embodiments, the character correcting device 25, and the image difference detecting device 90. For other functions and other functions, install a control program that has each function,
It can be realized by software by loading it in the memory of the computer processing device. This control program 300 is stored in a magnetic disk, a semiconductor memory, or another recording medium. Then, it is loaded from the recording medium to the computer processing device and controls the operation of the computer processing device to realize the above-described functions.

【0237】以上好ましい実施の形態及び実施例をあげ
て本発明を説明したが、本発明は必ずしも上記実施の形
態及び実施例に限定されるものではなく、その技術的思
想の範囲内において様々に変形して実施することができ
る。
Although the present invention has been described with reference to the preferred embodiments and examples, the present invention is not necessarily limited to the above-described embodiments and examples, and various modifications are possible within the scope of the technical idea. It can be modified and implemented.

【0238】上記の実施の形態及び実施例では、撮影装
置として特にカメラを使用する場合を説明したが、その
他撮影装置としてスキャナ(ハンディスキャナ等)を使
用する場合も本発明に含まれる。本発明は、解像度の低
いカメラ等の撮影装置で文書を撮影して文字入力を行う
場合は勿論として、解像度の高いスキャナ等の撮影装置
で文字入力する場合にも効果が得られる。
In the above-described embodiments and examples, the case where the camera is used as the image taking apparatus has been described. However, the case where a scanner (handy scanner or the like) is used as the image taking apparatus is also included in the present invention. The present invention is effective not only when a document is photographed by a photographing device such as a camera having a low resolution to input characters, but also when a character is inputted by a photographing device such as a scanner having a high resolution.

【0239】[0239]

【発明の効果】以上説明したように本発明の文字入力装
置及び文字入力方法によれば、以下に述べる効果が得ら
れる。
As described above, according to the character input device and the character input method of the present invention, the following effects can be obtained.

【0240】第1に、カメラを用いて文字入力を行う際
に、カメラの解像度やレンズの歪み等による高品質な撮
影画像が得られなくとも、正確な文字認識による入力が
実現される。加えて、認識に適した画像を取得するため
に、画像処理によって撮影画像を補正するといった無駄
な処理をなくすことができる。
First, when a character is input using the camera, accurate character recognition can be realized even if a high-quality photographed image due to the camera resolution or lens distortion cannot be obtained. In addition, it is possible to eliminate useless processing such as correcting a captured image by image processing in order to obtain an image suitable for recognition.

【0241】その理由は、文字ごとに認識の信頼度を記
憶しており、撮影するごとに、より信頼できる結果で置
き換えるからである。
The reason for this is that the reliability of recognition is stored for each character, and each time a photograph is taken, it is replaced with a more reliable result.

【0242】第2に、カメラを用いて文字入力を行う際
に、文字の誤認識による入力誤りを簡単に修正できる。
Secondly, when a character is input using the camera, an input error due to an erroneous recognition of the character can be easily corrected.

【0243】その理由は、誤って入力された文字を再度
撮影し直すことによって、正しい文字に置き換わること
が期待され、さらにそれで修正されなかった場合にも、
少ないキー操作で正しい文字を入力することができるか
らである。
The reason is that it is expected that the characters that have been input by mistake will be replaced by the correct characters by re-shooting, and if they are not corrected by it,
This is because correct characters can be input with a few key operations.

【0244】第3に、カメラを用いて文字入力を行う際
に、分割撮影で重複する部分が無い範囲を撮影してしま
ったとしても、その画像を無駄にすることなく利用する
ことができる。
Thirdly, when characters are input using the camera, even if a range where there is no overlapping portion is photographed in divided photographing, the image can be used without wasting.

【0245】その理由は、重複部分が無いためにそれま
でで入力した結果と合成できなかったとしても、その結
果を保留しておき、別の入力が行われた後に再び合成を
試みるようにしたからである。
The reason is that even if the result cannot be combined with the input result until then because there is no overlapping portion, the result is held and the combination is tried again after another input is made. Because.

【0246】第4に、文書を分割撮影する際に何度も構
え直してシャッターボタンを押すといった一連の操作が
不要となる。また、シャッターを押すことによる手ブレ
も防ぐことができる。
Fourthly, when a document is divided and photographed, a series of operations such as re-holding the document and pressing the shutter button becomes unnecessary. Also, camera shake caused by pressing the shutter can be prevented.

【0247】その理由は、カメラからの入力映像のフレ
ーム差分を調べることで、カメラの動きが一定時間静止
したタイミングで自動的に撮影を行うようにしたからで
ある。
The reason is that the frame difference of the input image from the camera is examined so that the photographing is automatically performed at the timing when the motion of the camera is stationary for a predetermined time.

【0248】第5に、文書中の一部分の文字列を簡単に
入力できる。
Fifth, it is possible to easily input a partial character string in the document.

【0249】その理由は、入力したい文字列を画面の目
印に合わせて撮影すれば良く、また長い文字列の場合に
は、最初だけ入力したい文字列を目印に合わせて撮影す
れば、以降の撮影では前回までの入力に合成できる行の
みを抽出して自動で合成するからである。
The reason is that the character string to be input may be photographed according to the mark on the screen, and in the case of a long character string, if the character string to be inputted is photographed according to the mark, the subsequent photographing is performed. Then, only the lines that can be combined with the input up to the previous time are extracted and automatically combined.

【0250】第6に、途中で改行している文字列も簡単
に入力することができる。
Sixth, it is possible to easily input a character string having a line break in the middle.

【0251】その理由は、文字列を分割撮影するのと同
じ要領で、改行している文字列を続けて撮影すれば、画
面に連結をするかどうかのメッセージが表示され、キー
操作一つで改行前後の文字列を連結するからである。
The reason for this is that, in the same way as when shooting a character string in a divided manner, if you shoot consecutive character strings that are line feed, a message asking whether to connect to the screen will be displayed, and one key operation is required. This is because the character strings before and after the line break are connected.

【0252】第7に、入力したい文字列の前後に密着し
て余分な文字列が印刷されていたとしても、簡単に修正
できる。
Seventh, even if an extra character string is printed closely before and after the desired character string, it can be easily corrected.

【0253】その理由は、余分な文字列を含めて撮影し
てしまえば、初回撮影時は行頭に、以降の撮影は文末に
カーソルが自動的に移動するので、ただ削除キーを押す
だけで、前後の余分な文字を簡単に削除できるからであ
る。
The reason for this is that once the image is taken including the extra character string, the cursor will automatically move to the beginning of the line when shooting for the first time, and to the end of the sentence for subsequent shooting, so simply press the delete key. This is because the extra characters before and after can be easily deleted.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の第1の実施の形態による文字入力装
置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a character input device according to a first embodiment of the present invention.

【図2】 本発明の第1の実施の形態の動作を説明する
フローチャートである。
FIG. 2 is a flowchart illustrating an operation of the first exemplary embodiment of the present invention.

【図3】 本発明の第2の実施の形態による文字入力装
置の構成を示すブロック図である。
FIG. 3 is a block diagram showing a configuration of a character input device according to a second embodiment of the present invention.

【図4】 本発明の第2の実施の形態の動作を説明する
フローチャートである。
FIG. 4 is a flowchart illustrating an operation of the second exemplary embodiment of the present invention.

【図5】 本発明の第2の実施の形態における認識結果
修正処理の動作を説明するフローチャートである。
FIG. 5 is a flowchart illustrating an operation of a recognition result correction process according to the second embodiment of the present invention.

【図6】 本発明の第3の実施の形態による文字入力装
置の構成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of a character input device according to a third embodiment of the present invention.

【図7】 本発明の第3の実施の形態の動作を説明する
フローチャートである。
FIG. 7 is a flowchart illustrating an operation of the third exemplary embodiment of the present invention.

【図8】 本発明の第4の実施の形態による文字入力装
置の構成を示すブロック図である。
FIG. 8 is a block diagram showing a configuration of a character input device according to a fourth embodiment of the present invention.

【図9】 本発明の第4の実施の形態の動作を説明する
フローチャートである。
FIG. 9 is a flowchart illustrating an operation of the fourth exemplary embodiment of the present invention.

【図10】 本発明の第4の実施の形態における撮影装
置による撮影タイミングを決定する第1の方法を説明す
る図である。
FIG. 10 is a diagram illustrating a first method of determining a shooting timing by a shooting device according to a fourth embodiment of the present invention.

【図11】 本発明の第4の実施の形態における撮影装
置による撮影タイミングを決定する第2の方法を説明す
る図である。
FIG. 11 is a diagram illustrating a second method for determining the shooting timing by the shooting device according to the fourth embodiment of the present invention.

【図12】 本発明の第1の実施例による携帯端末を表
から見た斜視図である。
FIG. 12 is a front perspective view of the mobile terminal according to the first embodiment of the present invention.

【図13】 本発明の第1の実施例による携帯端末を裏
から見た斜視図である。
FIG. 13 is a perspective view of the mobile terminal according to the first embodiment of the present invention as seen from the back side.

【図14】 本発明の第1の実施例の撮影対象と撮影範
囲の関係を説明する図である。
FIG. 14 is a diagram illustrating a relationship between a shooting target and a shooting range according to the first embodiment of this invention.

【図15】 本発明の第1の実施例における印刷文書の
左側を撮影する様子を説明した図である。
FIG. 15 is a diagram illustrating a state in which the left side of a printed document is photographed according to the first embodiment of this invention.

【図16】 本発明の第1の実施例における文章2列目
の左側の文字認識の様子を説明した図である。
FIG. 16 is a diagram illustrating a state of character recognition on the left side of the second column of a sentence according to the first embodiment of this invention.

【図17】 本発明の第1の実施例における印刷文書の
右側を撮影する様子を説明した図である。
FIG. 17 is a diagram illustrating a state in which the right side of a printed document is photographed according to the first embodiment of this invention.

【図18】 本発明の第1の実施例における文章2列目
の右側の文字認識の様子を説明した図である。
FIG. 18 is a diagram illustrating a state of character recognition on the right side of the second column of a sentence in the first example of the present invention.

【図19】 本発明の第1の実施例における認識データ
合成の様子を説明した図である。
FIG. 19 is a diagram for explaining a state of recognition data composition in the first embodiment of the present invention.

【図20】 本発明の第1の実施例における撮り直しに
よる修正の様子を説明した図である。
FIG. 20 is a diagram illustrating a state of correction by re-imaging according to the first embodiment of the present invention.

【図21】 本発明の第1の実施例における文章2列目
のbを中心とした範囲の文字認識の様子を説明した図で
ある。
FIG. 21 is a diagram illustrating a state of character recognition in a range centered on b in the second column of a sentence in the first example of the present invention.

【図22】 本発明の第1の実施例における撮り直しに
よる認識データ合成の様子を説明した図である。
FIG. 22 is a diagram for explaining how recognition data is combined by retaking in the first embodiment of the present invention.

【図23】 本発明の第1の実施例における高解像度の
カメラを用いた撮影の様子を説明した図である。
[Fig. 23] Fig. 23 is a diagram for describing the manner of shooting with a high-resolution camera according to the first embodiment of the present invention.

【図24】 本発明の第1の実施例における接写による
修正の様子を説明した図である。
FIG. 24 is a diagram illustrating a state of correction by close-up photography according to the first embodiment of this invention.

【図25】 本発明の第2の実施例における入力結果の
表示の様子を説明した図である。
FIG. 25 is a diagram illustrating a display state of an input result according to the second embodiment of this invention.

【図26】 本発明の第2の実施例における「b」の文
字の認識データの様子を説明した図である。
FIG. 26 is a diagram illustrating a state of recognition data of a character “b” according to the second embodiment of the present invention.

【図27】 本発明の第3の実施例における印刷文書の
左側を撮影する様子を説明した図である。
FIG. 27 is a diagram illustrating a state in which the left side of a printed document is photographed according to the third embodiment of the present invention.

【図28】 本発明の第3の実施例における印刷文書の
右側を撮影する様子を説明した図である。
FIG. 28 is a diagram illustrating a manner of photographing the right side of a print document according to the third embodiment of the present invention.

【図29】 本発明の第3の実施例における印刷文書の
中心付近を撮影する様子を説明した図である。
FIG. 29 is a diagram illustrating a manner of photographing the vicinity of the center of a print document according to the third embodiment of this invention.

【図30】 本発明の第4の実施例における自動撮影の
様子を説明した図である。
FIG. 30 is a diagram illustrating a state of automatic shooting according to the fourth embodiment of the present invention.

【図31】 本発明の第5の実施の形態による文字入力
装置の構成を示すブロック図である。
FIG. 31 is a block diagram showing a configuration of a character input device according to a fifth embodiment of the present invention.

【図32】 本発明の第5の実施の形態の動作を説明す
るフローチャートである。
FIG. 32 is a flowchart illustrating an operation of the fifth embodiment of the present invention.

【図33】 本発明の第6の実施の形態による文字入力
装置における認識データ合成装置の構成を示すブロック
図である。
FIG. 33 is a block diagram showing a configuration of a recognition data synthesizing device in a character input device according to a sixth embodiment of the present invention.

【図34】 本発明の第6の実施の形態の動作を説明す
るフローチャートである。
FIG. 34 is a flowchart illustrating an operation according to the sixth embodiment of the present invention.

【図35】 本発明の第7の実施の形態による文字入力
装置の構成を示すブロック図である。
FIG. 35 is a block diagram showing a configuration of a character input device according to a seventh embodiment of the present invention.

【図36】 本発明の第7の実施の形態の動作を説明す
るフローチャートである。
FIG. 36 is a flow chart explaining the operation of the seventh embodiment of the present invention.

【図37】 本発明の第5の実施例における名刺のメー
ルアドレスの左側を撮影する様子を説明した図である。
[Fig. 37] Fig. 37 is a diagram illustrating a manner of photographing the left side of a mail address of a business card according to the fifth embodiment of the present invention.

【図38】 本発明の第5の実施例における名刺のメー
ルアドレスの左側の入力結果を表示する様子を説明した
図である。
FIG. 38 is a diagram illustrating a manner of displaying an input result on the left side of a mail address of a business card according to the fifth embodiment of the present invention.

【図39】 本発明の第5の実施例における名刺のメー
ルアドレスの右側の入力結果を表示する様子を説明した
図である。
FIG. 39 is a diagram illustrating a manner of displaying an input result on the right side of a mail address of a business card according to the fifth embodiment of the present invention.

【図40】 本発明の第6の実施例におけるURLが印
刷されたカードの1行目を撮影する様子を説明した図で
ある。
FIG. 40 is a diagram illustrating a manner of photographing the first line of a card on which a URL is printed according to the sixth embodiment of the present invention.

【図41】 本発明の第6の実施例におけるURLが印
刷されたカードの1行目の入力結果を表示する様子を説
明した図である。
FIG. 41 is a diagram illustrating a manner of displaying the input result of the first line of the card on which the URL is printed according to the sixth embodiment of the present invention.

【図42】 本発明の第6の実施例におけるURLが印
刷されたカードの2行目を撮影する様子を説明した図で
ある。
FIG. 42 is a diagram illustrating a manner of photographing the second line of a card on which a URL is printed according to the sixth embodiment of the present invention.

【図43】 本発明の第6の実施例における強制連結処
理の可否を問うメッセージの様子を説明した図である。
FIG. 43 is a diagram illustrating a state of a message asking whether or not forced connection processing is possible according to the sixth embodiment of this invention.

【図44】 本発明の第6の実施例における強制連結処
理の結果を説明した図である。
FIG. 44 is a diagram illustrating the result of the forced connection process according to the sixth embodiment of the present invention.

【図45】 本発明の第7の実施例における電話番号が
印刷されたカードの左側を撮影する様子を説明した図で
ある。
FIG. 45 is a diagram illustrating a situation in which the left side of the card on which the telephone number is printed is photographed in the seventh embodiment of the present invention.

【図46】 本発明の第7の実施例における電話番号が
印刷されたカードの左側の入力結果を表示する様子を説
明した図である。
FIG. 46 is a diagram illustrating a manner of displaying an input result on the left side of a card on which a telephone number is printed according to the seventh embodiment of the present invention.

【図47】 本発明の第7の実施例における電話番号の
入力結果の左に混入した余分な文字を削除する様子を説
明した図である。
[Fig. 47] Fig. 47 is a diagram for explaining a manner of deleting an extra character mixed to the left of the input result of a telephone number in the seventh example of the present invention.

【図48】 本発明の第7の実施例における電話番号が
印刷されたカードの右側の入力結果を表示する様子を説
明した図である。
FIG. 48 is a diagram illustrating a manner of displaying an input result on the right side of a card on which a telephone number is printed according to the seventh embodiment of the present invention.

【図49】 本発明の第7の実施例における電話番号の
入力結果の右に混入した余分な文字を削除する様子を説
明した図である。
FIG. 49 is a diagram illustrating a state of deleting an extra character mixed to the right of a telephone number input result according to the seventh embodiment of this invention.

【符号の説明】[Explanation of symbols]

10 撮影装置 20 入力装置 25 文字修正装置 30 表示画像制御装置 31 目印描画装置 35 文字削除装置 40 表示装置 50 データ処理装置 53A 重複部分判別装置 53B 重複部分選択装置 53C 連結装置 53D 強制連結制御装置 54 行抽出装置 60 認識データ記憶装置 70 保留データ記憶装置 80 画像一時記憶装置 90 画像差分検出装置 100 携帯端末 111 入力ボタン 112 液晶ディスプレイ 113 カメラ 200 文書 214 撮影画像 214A カメラ映像又は撮影画像 215 入力結果 216 カーソル 300 名刺 311 入力文字列を合わせる目印 400 URLが印刷されたカード 410 連結確認メッセージ 500 電話番号が書かれたカード 10 Imaging device 20 Input device 25-character correction device 30 Display image control device 31 Mark drawing device 35 character deletion device 40 display device 50 data processor 53A Overlapping part discriminating device 53B Overlapping part selection device 53C coupling device 53D Forced connection control device 54 line extractor 60 recognition data storage device 70 Reserved data storage device 80 image temporary storage 90 Image difference detection device 100 mobile terminals 111 Input button 112 LCD display 113 camera 200 documents 214 photographed image 214A camera image or captured image 215 Input result 216 cursor 300 business cards 311 Mark to match the input character strings Card with 400 URL printed 410 Connection confirmation message Card with 500 phone numbers

フロントページの続き Fターム(参考) 5B029 BB02 CC30 5B064 BA01 EA07 EA11 EA12 EA14 EA15 FA04 FA05 FA06 FA13Continued front page    F term (reference) 5B029 BB02 CC30                 5B064 BA01 EA07 EA11 EA12 EA14                       EA15 FA04 FA05 FA06 FA13

Claims (32)

【特許請求の範囲】[Claims] 【請求項1】 撮影装置による文書の撮影画像から文字
の抽出と認識を行うことにより、文字入力を行う文字入
力装置において、 前記文字の認識結果に、認識の確からしさを示す信頼度
を付加して記憶し、 前記文書の全体又は一部を繰り返し撮影した画像からの
文字認識結果を比較することにより、前記信頼度の最も
高い文字の認識結果に基づいて文字入力を行うことを特
徴とする文字入力装置。
1. A character input device for inputting a character by extracting and recognizing a character from a captured image of a document by the image capturing device, wherein the character recognition result is added with a reliability indicating a certainty of recognition. Characters characterized by performing character input based on the recognition result of the character with the highest reliability by comparing the character recognition results from images obtained by repeatedly capturing the whole or part of the document. Input device.
【請求項2】 撮影装置による文書の撮影画像から文字
の抽出と認識を行うことにより、文字入力を行う文字入
力装置において、 前記撮影装置が撮影した画像から文字部分の画像を抽出
する文字抽出手段と、 前記文字部分の画像から文字認識を行い、文字認識結果
に前記信頼度を付加して文字認識データとする文字認識
手段と、 同一文書の複数の画像から得られた前記文字認識データ
の重複部分を検出し連結すると共に、重複部分に関し前
記信頼度の高い文字認識データを選択することにより、
複数の前記文字認識データを一つの前記文字認識データ
に合成する認識データ合成手段と、 合成した前記文字認識データを記憶する認識データ記憶
手段とを備えることを特徴とする文字入力装置。
2. A character input device for inputting characters by extracting and recognizing characters from a photographed image of a document by the photographing device, wherein the character extracting means extracts a character portion image from the image photographed by the photographing device. And character recognition means for performing character recognition from the image of the character portion and adding the reliability to the character recognition result as character recognition data, and duplication of the character recognition data obtained from a plurality of images of the same document. By detecting and concatenating the parts, and selecting the highly reliable character recognition data for the overlapping parts,
A character input device comprising: a recognition data combining means for combining a plurality of the character recognition data into one piece of the character recognition data; and a recognition data storage means for storing the combined character recognition data.
【請求項3】 前記信頼度を、少なくとも文字認識で参
照する辞書と前記撮影画像から抽出した文字との一致の
度合いや前記撮影画像の歪みに関する情報に基づいて定
めることを特徴とする請求項1又は請求項2に記載の文
字入力装置。
3. The reliability is determined based on at least a degree of matching between a dictionary referred to in character recognition and a character extracted from the captured image and information about distortion of the captured image. Alternatively, the character input device according to claim 2.
【請求項4】 前記認識データ合成手段は、同一文書の
複数の画像から得られた前記文字認識データに関し、最
新の画像から得られた前記文字認識データと、前記認識
データ記憶手段に記憶された以前の画像から得られた前
記文字認識データとの重複部分を検出し、前記最新の画
像から得られた前記文字認識データの前記信頼度の方が
高い場合に、前記認識データ記憶手段の以前の画像から
得た前記文字認識データを書き換えることを特徴とする
請求項2に記載の文字入力装置。
4. The recognition data synthesizing means stores the character recognition data obtained from the latest image of the character recognition data obtained from a plurality of images of the same document, and the character recognition data stored in the recognition data storage means. When the overlapping portion with the character recognition data obtained from the previous image is detected and the reliability of the character recognition data obtained from the latest image is higher, the previous recognition data storage means The character input device according to claim 2, wherein the character recognition data obtained from an image is rewritten.
【請求項5】 文字認識データとして記憶された文字か
ら指定された文字の少なくとも一つ以上の他の認識候補
を前記認識データ記憶手段から読み出して提示し、前記
認識候補から選択された文字の文字認識データで前記指
定された文字の文字認識データを置き換えることで前記
文字認識データの修正を行う文字修正手段を備えること
を特徴とする請求項2から請求項4のいずれか一つに記
載の文字入力装置。
5. The character of the character selected from the recognition candidates, which is read out from the recognition data storage means and presents at least one other recognition candidate of at least one of the characters designated from the characters stored as the character recognition data. The character according to any one of claims 2 to 4, further comprising character correction means for correcting the character recognition data by replacing the character recognition data of the designated character with the recognition data. Input device.
【請求項6】 前記文字修正手段は、表示手段に表示さ
れた前記文字認識データのうち、撮影された画像の中央
近傍に位置する文字の文字認識データを修正対象の文字
として選択することを特徴とする請求項5に記載の文字
入力装置。
6. The character correcting means selects, as the character to be corrected, the character recognizing data of the character located near the center of the photographed image among the character recognizing data displayed on the display means. The character input device according to claim 5.
【請求項7】 前記認識データ合成手段は、同一文書の
複数の画像から得られた前記文字認識データに関し、最
新の画像から得られた前記文字認識データと、前記認識
データ記憶手段に記憶された以前の画像から得られた前
記文字認識データとの重複部分を検出し、前記重複部分
が検出されない場合、前記最新の画像から得られた前記
文字認識データを保留データとして記憶し、次に入力さ
れた画像から得られる文字認識データについて前記保留
データとの重複部分も検出することを特徴とする請求項
2から請求項6のいずれか一つに記載の文字入力装置。
7. The recognition data synthesizing means stores the character recognition data obtained from the latest image of the character recognition data obtained from a plurality of images of the same document and the character recognition data stored in the recognition data storage means. If the overlapping portion with the character recognition data obtained from the previous image is detected, and if the overlapping portion is not detected, the character recognition data obtained from the latest image is stored as pending data and then input. The character input device according to any one of claims 2 to 6, wherein the character recognition data obtained from the image is also detected with an overlapping portion with the reserved data.
【請求項8】 連続的に入力される画像相互の差分から
前記撮影装置の移動量を検出し、前記移動量に基づいて
前記撮影装置の静止状態を判別して画像の撮影指示を自
動的に行う手段を備えることを特徴する請求項1に記載
の文字入力装置。
8. A moving amount of the photographing device is detected from a difference between images which are continuously input, a still state of the photographing device is determined based on the moving amount, and an image photographing instruction is automatically issued. The character input device according to claim 1, further comprising means for performing.
【請求項9】 前記撮影装置による撮影画像を一時的に
記憶する画像一時記憶手段と、 前記画像一時記憶手段に記憶された画像と前記撮影装置
から入力される画像との差分を検出し、検出した前記差
分が所定の閾値以下の場合に前記撮影装置が静止状態で
あると判断して前記撮影装置に対して撮影指令を送る画
像差分検出手段とを備えることを特徴とする請求項2か
ら請求項8のいずれか一つに記載の文字入力装置。
9. An image temporary storage unit for temporarily storing a captured image by the image capturing apparatus, and detecting and detecting a difference between an image stored in the image temporary storage unit and an image input from the image capturing apparatus. The image difference detecting means for determining that the photographing device is in a stationary state and sending a photographing command to the photographing device when the difference is less than or equal to a predetermined threshold value. Item 9. The character input device according to any one of items 8.
【請求項10】 前記画像差分検出手段は、前記差分が
所定の閾値以下の状態が所定時間継続した場合に、前記
撮影装置が静止状態にあると判断することを特徴とする
請求項9に記載の文字入力装置。
10. The image difference detection means determines that the photographing device is in a stationary state when the difference is equal to or less than a predetermined threshold for a predetermined time. Character input device.
【請求項11】 撮影装置による文書の撮影画像から文
字の抽出と認識を行うことにより、文字入力を行う文字
入力方法において、 前記文字の認識結果に、認識の確からしさを示す信頼度
を付加し、 前記文書の全体又は一部を繰り返し撮影した画像からの
文字認識結果を比較し、 前記信頼度の最も高い文字の認識結果を選択することを
特徴とする文字入力方法。
11. A character input method for inputting a character by extracting and recognizing a character from a captured image of a document by an image capturing device, wherein the character recognition result is added with a reliability indicating a certainty of recognition. A character input method comprising: comparing character recognition results from images obtained by repeatedly photographing the whole or a part of the document and selecting a recognition result of the character having the highest reliability.
【請求項12】 前記信頼度が、少なくとも文字認識で
参照する辞書と前記撮影画像から抽出した文字との一致
の度合いや前記撮影画像の歪みに関する情報に基づいて
定めることを特徴とする請求項11に記載の文字入力方
法。
12. The reliability is determined based on at least a degree of matching between a dictionary referred to in character recognition and a character extracted from the captured image and information about distortion of the captured image. Character input method described in.
【請求項13】 同一文書の複数の画像から得られた前
記文字認識データの重複部分を検出して連結し、 重複部分に関し前記信頼度の高い文字認識データを選択
することにより、複数の前記文字認識データを一つの前
記文字認識データに合成することを特徴とする請求項1
1又は請求項12に記載の文字入力方法。
13. A plurality of the characters are detected by detecting and concatenating overlapping portions of the character recognition data obtained from a plurality of images of the same document, and selecting the highly reliable character recognition data for the overlapping portions. 2. The recognition data is combined into one character recognition data.
The character input method according to claim 1 or claim 12.
【請求項14】 前記認識データ合成において、同一文
書の複数の画像から得られた前記文字認識データに関
し、最新の画像から得られた前記文字認識データと、以
前の画像から得られた前記文字認識データとの重複部分
を検出し、前記最新の画像から得られた前記文字認識デ
ータの前記信頼度の方が高い場合に、以前の画像から得
た前記文字認識データを書き換えることを特徴とする請
求項13に記載の文字入力方法。
14. Regarding the character recognition data obtained from a plurality of images of the same document in the recognition data combination, the character recognition data obtained from the latest image and the character recognition obtained from a previous image. The character recognition data obtained from the previous image is rewritten when an overlapping portion with the data is detected and the reliability of the character recognition data obtained from the latest image is higher. Item 13. The character input method according to item 13.
【請求項15】 文字認識データとして記憶された文字
を指定することにより、指定された文字の他の候補を提
示し、前記候補から選択された文字の文字認識データで
前記指定された文字の文字認識データを置き換えること
で前記文字認識データの修正を行うことを特徴とする請
求項13に記載の文字入力方法。
15. A character stored as character recognition data is designated to present another candidate of the designated character, and the character recognition data of the character selected from the candidate is used to display the character of the designated character. 14. The character input method according to claim 13, wherein the character recognition data is corrected by replacing the recognition data.
【請求項16】 表示された前記文字認識データのう
ち、撮影された画像の中央近傍に位置する文字の文字認
識データにカーソルを移動することにより、修正の可能
性の高い文字であることを示すことを特徴とする請求項
15に記載の文字入力方法。
16. Among the displayed character recognition data, by moving the cursor to the character recognition data of the character located near the center of the photographed image, the character is highly likely to be corrected. The character input method according to claim 15, wherein:
【請求項17】 前記認識データ合成において、同一文
書の複数の画像から得られた前記文字認識データに関
し、最新の画像から得られた前記文字認識データと、以
前の画像から得られた前記文字認識データとの重複部分
を検出し、前記重複部分が検出されない場合、前記最新
の画像から得られた前記文字認識データを保留データと
して記憶し、次に入力された画像から得られる文字認識
データについて前記保留データとの重複部分も検出する
ことを特徴とする請求項13に記載の文字入力方法。
17. In the recognition data composition, regarding the character recognition data obtained from a plurality of images of the same document, the character recognition data obtained from the latest image and the character recognition obtained from a previous image. If an overlapping portion with data is detected and the overlapping portion is not detected, the character recognition data obtained from the latest image is stored as reserved data, and the character recognition data obtained from the next input image is stored as above. The character input method according to claim 13, wherein an overlapping portion with the reserved data is also detected.
【請求項18】 連続的に入力される画像相互の差分か
ら前記撮影装置の移動量を検出し、前記移動量に基づい
て前記撮影装置の静止状態を判別して画像の撮影を自動
的に実行することを特徴する請求項11に記載の文字入
力装方法。
18. The amount of movement of the photographing device is detected from the difference between images that are continuously input, the still state of the photographing device is determined based on the movement amount, and the image is automatically photographed. The character inputting method according to claim 11, wherein
【請求項19】 前記撮影装置による撮影画像を一時的
に記憶し、 前記一時的に記憶された画像と前記撮影装置から入力さ
れる画像との差分を検出し、検出した前記差分が所定の
閾値以下の場合に前記撮影装置が静止状態であると判断
して前記撮影装置に対して撮影指令を送ることを特徴と
する請求項13に記載の文字入力方法。
19. An image captured by the image capturing device is temporarily stored, a difference between the temporarily stored image and an image input from the image capturing device is detected, and the detected difference is a predetermined threshold value. 14. The character input method according to claim 13, wherein in the following cases, the photographing device is determined to be in a stationary state and a photographing command is sent to the photographing device.
【請求項20】 前記差分が所定の閾値以下の状態が所
定時間継続した場合に、前記撮影装置が静止状態にある
と判断することを特徴とする請求項19に記載の文字入
力方法。
20. The character input method according to claim 19, wherein when the difference is equal to or smaller than a predetermined threshold value for a predetermined time, it is determined that the imaging device is in a stationary state.
【請求項21】 コンピュータ上で実行され、撮影装置
による文書の撮影画像から文字の抽出と認識を行うこと
により、文字入力を行う文字入力プログラムにおいて、 前記文字の認識結果に、認識の確からしさを示す信頼度
を付加する機能と、 前記文書の全体又は一部を繰り返し撮影した画像からの
文字認識結果を比較し、前記信頼度の最も高い文字の認
識結果を選択する機能を有することを特徴とする文字入
力プログラム。
21. In a character input program for executing a character input by extracting characters from a captured image of a document by a photographing device and recognizing the character by a photographing device, the recognition result of the character indicates the certainty of recognition. And a function of adding a confidence level, and a function of comparing character recognition results from images obtained by repeatedly capturing the whole or a part of the document and selecting a recognition result of the character with the highest reliability level. Character input program
【請求項22】 前記信頼度が、少なくとも文字認識で
参照する辞書と前記撮影画像から抽出した文字との一致
の度合いや前記撮影画像の歪みに関する情報に基づいて
定めることを特徴とする請求項21に記載の文字入力プ
ログラム。
22. The reliability is determined based on at least a degree of matching between a dictionary referred to in character recognition and a character extracted from the captured image and information about distortion of the captured image. The character input program described in.
【請求項23】 同一文書の複数の画像から得られた前
記文字認識データの重複部分を検出して連結する機能
と、 重複部分に関し前記信頼度の高い文字認識データを選択
することにより、複数の前記文字認識データを一つの前
記文字認識データに合成する機能を有することを特徴と
する請求項21又は請求項22に記載の文字入力プログ
ラム。
23. A function of detecting and connecting overlapping portions of the character recognition data obtained from a plurality of images of the same document, and selecting a plurality of character recognition data having high reliability with respect to the overlapping portions, 23. The character input program according to claim 21 or 22, having a function of combining the character recognition data into one piece of the character recognition data.
【請求項24】 前記認識データ合成機能は、同一文書
の複数の画像から得られた前記文字認識データに関し、
最新の画像から得られた前記文字認識データと、以前の
画像から得られた前記文字認識データとの重複部分を検
出し、前記最新の画像から得られた前記文字認識データ
の前記信頼度の方が高い場合に、以前の画像から得た前
記文字認識データを書き換えることを特徴とする請求項
23に記載の文字入力プログラム。
24. The recognition data synthesizing function relates to the character recognition data obtained from a plurality of images of the same document,
The reliability of the character recognition data obtained from the latest image is detected by detecting an overlapping portion between the character recognition data obtained from the previous image and the character recognition data obtained from the previous image. 24. The character input program according to claim 23, wherein the character recognition data obtained from the previous image is rewritten when the value is high.
【請求項25】 文字認識データとして記憶された文字
を指定することにより、指定された文字の他の候補を提
示し、前記候補から選択された文字の文字認識データで
前記指定された文字の文字認識データを置き換えること
で前記文字認識データの修正を行う文字修正機能を有す
ることを特徴とする請求項23に記載の文字入力プログ
ラム。
25. By designating a character stored as character recognition data, another candidate of the designated character is presented, and the character of the designated character is selected from the character recognition data of the character selected from the candidates. The character input program according to claim 23, having a character correction function for correcting the character recognition data by replacing the recognition data.
【請求項26】 文字修正機能が、表示された前記文字
認識データのうち、撮影された画像の中央近傍に位置す
る文字の文字認識データにカーソルを移動することによ
り、修正の可能性の高い文字であることを示すことを特
徴とする請求項25に記載の文字入力プログラム。
26. The character correction function moves a cursor to the character recognition data of a character located in the vicinity of the center of a photographed image among the displayed character recognition data, so that the character having a high possibility of being corrected. 26. The character input program according to claim 25, wherein
【請求項27】 前記認識データ合成機能は、同一文書
の複数の画像から得られた前記文字認識データに関し、
最新の画像から得られた前記文字認識データと、以前の
画像から得られた前記文字認識データとの重複部分を検
出し、前記重複部分が検出されない場合、前記最新の画
像から得られた前記文字認識データを保留データとして
記憶し、次に入力された画像から得られる文字認識デー
タについて前記保留データとの重複部分も検出すること
を特徴とする請求項23に記載の文字入力プログラム。
27. The recognition data synthesizing function relates to the character recognition data obtained from a plurality of images of the same document,
The overlapping portion between the character recognition data obtained from the latest image and the character recognition data obtained from the previous image is detected, and when the overlapping portion is not detected, the character obtained from the latest image 24. The character input program according to claim 23, wherein the recognition data is stored as reservation data, and the character recognition data obtained from an image input next is also detected for an overlapping portion with the reservation data.
【請求項28】 連続的に入力される画像相互の差分か
ら前記撮影装置の移動量を検出し、前記移動量に基づい
て前記撮影装置の静止状態を判別して画像の撮影を自動
的に実行する機能を有することを特徴する請求項21に
記載の文字入力装プログラム。
28. An amount of movement of the photographing device is detected from a difference between images that are continuously input, and a still state of the photographing device is determined based on the movement amount to automatically photograph an image. 22. The character input device program according to claim 21, having a function of:
【請求項29】 前記撮影装置による撮影画像を一時的
に記憶する機能と、 前記一時的に記憶された画像と前記撮影装置から入力さ
れる画像との差分を検出し、検出した前記差分が所定の
閾値以下の場合に前記撮影装置が静止状態であると判断
して前記撮影装置に対して撮影指令を送る機能を有する
ことを特徴とする請求項23に記載の文字入力プログラ
ム。
29. A function of temporarily storing an image captured by the image capturing device, a difference between the temporarily stored image and an image input from the image capturing device is detected, and the detected difference is predetermined. 24. The character input program according to claim 23, further comprising a function of determining that the photographing device is in a stationary state and sending a photographing command to the photographing device when the threshold value is equal to or less than the threshold value.
【請求項30】 前記撮影装置による撮影画像中におけ
る指定された特定の文字列の位置を示す目印を描画する
目印描画手段と、前記撮影画像を行ごとに行画像として
分割し、分割された行画像を前記目印に近い行画像から
順に前記文字抽出手段に送る行抽出手段を備えることを
特徴とする請求項2から請求項10の何れか1項に記載
の文字入力装置。
30. A mark drawing means for drawing a mark indicating the position of a specified specific character string in a photographed image by the photographing device, and the photographed image is divided into row images row by row, and the divided rows are divided. The character input device according to any one of claims 2 to 10, further comprising line extracting means for sending an image to the character extracting means in order from a line image closer to the mark.
【請求項31】 前記認識データ合成手段は、最新の画
像から得られた前記文字認識データと、前記認識データ
記憶手段に記憶された以前の画像から得られた前記文字
認識データとの重複部分が検出されない場合に、前記利
用者からの指示に従って前記文字認識データを強制的に
連結する強制連結手段を備えることを特徴とする請求項
2から請求項10又は請求項30の何れか1項に記載の
文字入力装置。
31. The recognition data synthesizing means detects an overlapping portion between the character recognition data obtained from the latest image and the character recognition data obtained from the previous image stored in the recognition data storage means. 31. A forcible connection unit for forcibly connecting the character recognition data in accordance with an instruction from the user when not detected, the method according to any one of claims 2 to 10 or 30. Character input device.
【請求項32】 前記認識データ記憶手段に記憶されて
いる文字認識データを元に、初回の撮影画像による文字
認識データか否かを判別し、初回であれば認識文字列の
先頭の、初回でなければ認識文字列の文末の位置を明示
する位置制御手段と、認識文字列の先頭又は文末の明示
位置に基づいて、前記文字認識データの文字の削除を行
う削除手段とを備えることを特徴とする請求項2から請
求項10または請求項30から請求項31の何れか1項
に記載の文字入力装置。
32. Based on the character recognition data stored in the recognition data storage means, it is determined whether or not the character recognition data is a character recognition data by a first shot image. If not, it is provided with position control means for clearly indicating the position of the end of the recognition character string, and deletion means for deleting the character of the character recognition data based on the explicit position of the beginning or end of the recognition character string. The character input device according to any one of claims 2 to 10 or claim 30 to 31.
JP2002265397A 2002-03-08 2002-09-11 Character input device, character input method and character input program Pending JP2003331217A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002265397A JP2003331217A (en) 2002-03-08 2002-09-11 Character input device, character input method and character input program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002064323 2002-03-08
JP2002-64323 2002-03-08
JP2002265397A JP2003331217A (en) 2002-03-08 2002-09-11 Character input device, character input method and character input program

Publications (1)

Publication Number Publication Date
JP2003331217A true JP2003331217A (en) 2003-11-21

Family

ID=29713917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002265397A Pending JP2003331217A (en) 2002-03-08 2002-09-11 Character input device, character input method and character input program

Country Status (1)

Country Link
JP (1) JP2003331217A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216102A (en) * 2004-01-30 2005-08-11 Toshiba Solutions Corp Personal digital assistant and image processing method thereby
JP2007243438A (en) * 2006-03-07 2007-09-20 Nippon Hoso Kyokai <Nhk> Presentation information output apparatus
JP2008250818A (en) * 2007-03-30 2008-10-16 Omron Corp Program for portable terminal device and portable terminal device
JP2009258815A (en) * 2008-04-14 2009-11-05 Fuji Xerox Co Ltd Image processor and image processing program
JP2010020622A (en) * 2008-07-11 2010-01-28 Panasonic Corp Image processor and image processing method
JP2010098695A (en) * 2008-10-20 2010-04-30 Sony Computer Entertainment Inc Device, method and program for controlling picked-up image storage, and storage medium with program for controlling picked-up image storage stored therein
JP2013008389A (en) * 2012-09-12 2013-01-10 Omron Corp Program for portable terminal device and portable terminal device
US8509571B2 (en) 2008-06-11 2013-08-13 Panasonic Corporation Pattern recognition apparatus, pattern recognition method, image processing apparatus, and image processing method
JP2016502218A (en) * 2013-01-04 2016-01-21 クアルコム,インコーポレイテッド Mobile device based text detection and tracking
JP2017162390A (en) * 2016-03-11 2017-09-14 株式会社東芝 Language processing device, method, and program
JP2020515996A (en) * 2017-03-20 2020-05-28 北京金山▲辧▼公▲軟▼件股▲ふん▼有限公司Beijing Kingsoft Office Software,Inc. Method and device for quickly inserting recognized words
JP2022160662A (en) * 2021-08-13 2022-10-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Character recognition method, device, apparatus, storage medium, smart dictionary pen, and computer program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216102A (en) * 2004-01-30 2005-08-11 Toshiba Solutions Corp Personal digital assistant and image processing method thereby
JP2007243438A (en) * 2006-03-07 2007-09-20 Nippon Hoso Kyokai <Nhk> Presentation information output apparatus
JP2008250818A (en) * 2007-03-30 2008-10-16 Omron Corp Program for portable terminal device and portable terminal device
JP4539756B2 (en) * 2008-04-14 2010-09-08 富士ゼロックス株式会社 Image processing apparatus and image processing program
JP2009258815A (en) * 2008-04-14 2009-11-05 Fuji Xerox Co Ltd Image processor and image processing program
US8391607B2 (en) 2008-04-14 2013-03-05 Fuji Xerox Co., Ltd. Image processor and computer readable medium
US8509571B2 (en) 2008-06-11 2013-08-13 Panasonic Corporation Pattern recognition apparatus, pattern recognition method, image processing apparatus, and image processing method
US8620094B2 (en) 2008-06-11 2013-12-31 Panasonic Corporation Pattern recognition apparatus, pattern recogntion method, image processing apparatus, and image processing method
JP2010020622A (en) * 2008-07-11 2010-01-28 Panasonic Corp Image processor and image processing method
JP2010098695A (en) * 2008-10-20 2010-04-30 Sony Computer Entertainment Inc Device, method and program for controlling picked-up image storage, and storage medium with program for controlling picked-up image storage stored therein
JP2013008389A (en) * 2012-09-12 2013-01-10 Omron Corp Program for portable terminal device and portable terminal device
JP2016502218A (en) * 2013-01-04 2016-01-21 クアルコム,インコーポレイテッド Mobile device based text detection and tracking
JP2017162390A (en) * 2016-03-11 2017-09-14 株式会社東芝 Language processing device, method, and program
JP2020515996A (en) * 2017-03-20 2020-05-28 北京金山▲辧▼公▲軟▼件股▲ふん▼有限公司Beijing Kingsoft Office Software,Inc. Method and device for quickly inserting recognized words
JP2022160662A (en) * 2021-08-13 2022-10-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Character recognition method, device, apparatus, storage medium, smart dictionary pen, and computer program

Similar Documents

Publication Publication Date Title
US7221796B2 (en) Character input device, character input method and character input program
US6466262B1 (en) Digital wide camera
KR101351091B1 (en) Image forming apparatus and control method of consecutive photographing image
US7623742B2 (en) Method for processing document image captured by camera
US20080095447A1 (en) Retrieval System and Retrieval Method
KR20060050729A (en) Method and apparatus for processing document image captured by camera
JP2003331217A (en) Character input device, character input method and character input program
JPWO2004015619A1 (en) Character recognition processing device, character recognition processing method, and portable terminal device
US7873186B2 (en) Target-image detecting apparatus and method of controlling same
US20090115857A1 (en) Image capturing apparatus providing image blur information and method thereof
JP2007148691A (en) Image processor
JP2003111009A (en) Electronic album editing device
JP5024028B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
JP2006094082A (en) Image photographing device, and program
JP2010068207A (en) Image capturing apparatus, method, program, and image capturing system
US7898566B2 (en) Video processing apparatus and object identifying method
JP2008090814A (en) Printer, image retrieval method and image retrieval program
JP4383790B2 (en) Portable information terminal
JP2005151130A (en) Device and method for outputting image, storage medium, and program
JP2005339000A (en) Image recognition device and program
JP2005346628A (en) Character input method, character input device and program
JP2005055973A (en) Personal digital assistant
JP3302236B2 (en) Panoramic image synthesizing apparatus and method for creating panoramic image
JP5366522B2 (en) Image display device and digital camera having image display device
JP2004030118A (en) Image compositing apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070307

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070307

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070416

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070502

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080604