JP2013077243A - Character input device, character input system and character input method - Google Patents

Character input device, character input system and character input method Download PDF

Info

Publication number
JP2013077243A
JP2013077243A JP2011217988A JP2011217988A JP2013077243A JP 2013077243 A JP2013077243 A JP 2013077243A JP 2011217988 A JP2011217988 A JP 2011217988A JP 2011217988 A JP2011217988 A JP 2011217988A JP 2013077243 A JP2013077243 A JP 2013077243A
Authority
JP
Japan
Prior art keywords
character
candidate group
image
character input
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011217988A
Other languages
Japanese (ja)
Inventor
Takafumi Yamazoe
隆文 山添
Tsutomu Mitsui
力 三井
Atsushi Iwasaki
淳 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2011217988A priority Critical patent/JP2013077243A/en
Publication of JP2013077243A publication Critical patent/JP2013077243A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a character input device, character input system and character input method capable of efficiently inputting a characters without being affected by a failure of character recognition.SOLUTION: A character input device 1 includes an acquisition part 103 for acquiring an image, a character recognition processing part 107 for extracting a character candidate group on the basis of character recognition processing to the image acquired by the acquisition part 103, a language processing part 109 for extracting a word candidate group on the basis of the character candidate group extracted by the character recognition processing part 107, and a candidate group display part 112 for displaying the character candidate group extracted by the character recognition processing part 107 and the word candidate group extracted by the language processing part 109 as an input candidate group during character inputting.

Description

本発明は、文字入力機能を備える文字入力装置、当該文字入力装置を含む文字入力システム、及び当該文字入力装置における文字入力方法に関するものである。   The present invention relates to a character input device having a character input function, a character input system including the character input device, and a character input method in the character input device.

従来、文字入力を行うためのソフトウェアとしてIME(Input Method Editor)が知られている。一般的なIMEを利用して日本語における仮名漢字変換を行う場合、ユーザは、入力したい漢字の読み方や対応する文字コードを予め知っておく必要があり、または、大量の漢字リストの中から入力したい漢字を探し、選択する必要がある。他の言語、例えば中国語等においても、同様である。   Conventionally, IME (Input Method Editor) is known as software for inputting characters. When performing kana-kanji conversion in Japanese using general IME, the user needs to know in advance how to read the kanji to be input and the corresponding character code, or input from a large list of kanji You need to find and select the kanji you want. The same applies to other languages such as Chinese.

また、従来、ユーザが手書きで文字を入力する際の書き順から入力文字を推定するオンライン文字認識技術を用いたIMEが知られている。ただし、オンライン文字認識では、文字の書き順が異なると誤認識が発生する等、文字の見た目の形状だけでは文字入力を行えない場合がある。また、オンライン文字認識では、手書き同様の入力となるため、複雑な漢字等では文字入力の手間が大きい。   Conventionally, IME using online character recognition technology that estimates an input character from a writing order when a user inputs characters by handwriting is known. However, in online character recognition, there are cases where character input cannot be performed with only the appearance of the characters, such as erroneous recognition occurring when the character writing order is different. Also, in online character recognition, input is similar to handwriting, so that complicated character input requires a lot of time for character input.

一方、特許文献1では、画像に含まれる文字について文字認識を行い、確定した文字認識結果を用いて仮名漢字変換を行う装置が開示されている。   On the other hand, Patent Document 1 discloses an apparatus that performs character recognition on characters included in an image and performs kana-kanji conversion using a confirmed character recognition result.

特開2010−191907号公報JP 2010-191907 A

一般的に、文字認識において、文字認識の失敗が発生する、すなわち、誤認識が発生する可能性がある。特許文献1の装置において、文字認識の失敗が発生した場合、確定された誤認識結果が仮名漢字変換に用いられるため、文字入力を効率良く行うことができないという問題が生じる。   Generally, in character recognition, there is a possibility that character recognition failure occurs, that is, erroneous recognition occurs. In the apparatus of Patent Document 1, when a character recognition failure occurs, a problem that the character input cannot be performed efficiently occurs because the confirmed erroneous recognition result is used for kana-kanji conversion.

そこで、本発明は上記に鑑みてなされたもので、文字認識の失敗に左右されることなく効率的に文字入力を行うことができる文字入力装置、文字入力システム及び文字入力方法を提供することを目的とする。   Therefore, the present invention has been made in view of the above, and provides a character input device, a character input system, and a character input method capable of efficiently inputting characters without being influenced by a failure in character recognition. Objective.

上記課題を解決するために、本発明の文字入力装置は、画像を取得する取得手段と、画像に対する文字認識処理に基づいて、文字候補群を抽出する文字認識処理手段と、文字候補群に基づいて、単語候補群を抽出する言語処理手段と、文字候補群又は単語候補群を、文字入力時の入力候補群として表示する候補群表示手段と、を備えることを特徴とする。   In order to solve the above problems, a character input device of the present invention is based on an acquisition unit that acquires an image, a character recognition processing unit that extracts a character candidate group based on a character recognition process on the image, and a character candidate group. The language processing means for extracting the word candidate group and the candidate group display means for displaying the character candidate group or the word candidate group as an input candidate group at the time of character input.

また、本発明の文字入力方法は、文字入力装置における文字入力方法であって、取得手段が、画像を取得する取得ステップと、文字認識処理手段が、画像に対する文字認識処理に基づいて、文字候補群を抽出する文字認識処理ステップと、言語処理手段が、文字候補群に基づいて、単語候補群を抽出する言語処理ステップと、候補群表示手段が、文字候補群又は単語候補群を、文字入力時の入力候補群として表示する候補群表示ステップと、を備えることを特徴とする。   The character input method of the present invention is a character input method in a character input device, in which an acquisition unit acquires an image, and a character recognition processing unit is a character candidate based on a character recognition process for the image. A character recognition processing step for extracting a group; a language processing unit for extracting a word candidate group based on the character candidate group; and a candidate group display unit for inputting a character candidate group or a word candidate group. A candidate group display step for displaying as a candidate input group at the time.

このような本発明の文字入力装置及び文字入力方法によれば、取得手段は、画像を取得し、文字認識処理手段は、取得した画像に対する文字認識処理に基づいて、文字候補群を抽出し、言語処理手段は、抽出した文字候補群に基づいて、単語候補群を抽出する。そして、候補群表示手段は、抽出した文字候補群又は単語候補群を、文字入力時の入力候補群として表示する。このように、本発明においては、文字入力時の入力候補群として、取得した画像に対する文字認識処理に基づいた文字候補群又は単語候補群が表示される。例えば、文字候補群には、文字認識処理結果の複数の文字候補が含まれ、単語候補群には当該複数の文字候補の組み合わせから成る複数の単語候補が含まれるため、ユーザが入力したい文字を文字候補群又は単語候補群から選ぶことにより、文字認識の失敗に左右されることなく効率的に文字入力を行うことができる。   According to such a character input device and character input method of the present invention, the acquisition unit acquires an image, and the character recognition processing unit extracts a character candidate group based on the character recognition processing for the acquired image, The language processing means extracts a word candidate group based on the extracted character candidate group. And a candidate group display means displays the extracted character candidate group or word candidate group as an input candidate group at the time of character input. Thus, in the present invention, a character candidate group or a word candidate group based on the character recognition processing for the acquired image is displayed as an input candidate group at the time of character input. For example, the character candidate group includes a plurality of character candidates as a result of character recognition processing, and the word candidate group includes a plurality of word candidates composed of combinations of the plurality of character candidates. By selecting from the character candidate group or the word candidate group, it is possible to input characters efficiently without being affected by the failure of character recognition.

また、本発明においては、取得手段により取得された画像に紐付く文字情報又は単語情報に基づいて、文字候補群又は単語候補群を抽出する候補群抽出手段を更に備え、候補群表示手段は、候補群抽出手段により抽出された文字候補群又は単語候補群を更に表示してもよい。   Further, in the present invention, based on the character information or word information associated with the image acquired by the acquisition means, further comprising a candidate group extraction means for extracting a character candidate group or word candidate group, the candidate group display means, You may further display the character candidate group or word candidate group extracted by the candidate group extraction means.

この発明によれば、候補群抽出手段は、画像に紐付く文字情報又は単語情報に基づいて、文字候補群又は単語候補群を抽出し、候補群表示手段は、抽出された文字候補群又は単語候補群を更に表示する。このように、画像に紐付く文字情報又は単語情報に基づいた文字候補群又は単語候補群が、文字入力時の入力候補群として更に表示されるため、効率的に文字入力を行うことができる。   According to the present invention, the candidate group extraction unit extracts the character candidate group or the word candidate group based on the character information or the word information associated with the image, and the candidate group display unit extracts the extracted character candidate group or the word The candidate group is further displayed. As described above, the character candidate group or the word candidate group based on the character information or the word information associated with the image is further displayed as the input candidate group at the time of character input, so that the character input can be performed efficiently.

また、本発明においては、撮像手段を更に備え、取得手段は、撮像手段により撮像された画像を取得してもよい。   In the present invention, an imaging unit may be further provided, and the acquisition unit may acquire an image captured by the imaging unit.

この発明によれば、撮像手段により撮像された画像を文字認識処理の対象とすることができる。例えば、ユーザは、文字又は単語を含む撮像可能なものが身近にあれば、撮像し、当該文字又は単語を含む画像として取得することで、当該文字又は単語を文字入力時の入力候補群として利用することができるため、効率的に文字入力を行うことができる。   According to the present invention, an image captured by the imaging unit can be used as a target for character recognition processing. For example, if a user can capture an image that includes a character or a word, the user can capture the image and acquire it as an image including the character or word, thereby using the character or word as an input candidate group when inputting characters. Therefore, it is possible to input characters efficiently.

また、本発明においては、画像を格納する画像格納手段を更に備え、取得手段は、画像格納手段により格納された画像を取得してもよい。   In the present invention, image storage means for storing an image may be further provided, and the acquisition means may acquire the image stored by the image storage means.

この発明によれば、画像格納手段により格納された画像を文字認識処理の対象とすることができるため、例えば、ユーザは、文字又は単語を含む画像を画像格納手段により格納していれば、当該文字又は単語を文字入力時の入力候補群として利用することができるため、効率的に文字入力を行うことができる。   According to the present invention, since the image stored by the image storage means can be the target of character recognition processing, for example, if the user stores an image containing characters or words by the image storage means, the image storage means Since characters or words can be used as input candidate groups when inputting characters, it is possible to efficiently input characters.

また、本発明においては、タッチパネルと、取得手段により取得された画像をタッチパネルに表示する画像表示手段と、タッチパネル上のタッチ操作に基づいて、画像表示手段により表示された画像の一部領域を示す領域情報を抽出する領域抽出手段と、を更に備え、領域抽出手段は、抽出した領域情報により特定される一部領域に相当する画像を、文字認識処理手段に出力してもよい。   In the present invention, the touch panel, the image display means for displaying the image acquired by the acquisition means on the touch panel, and a partial area of the image displayed by the image display means based on the touch operation on the touch panel are shown. Area extraction means for extracting area information, and the area extraction means may output an image corresponding to a partial area specified by the extracted area information to the character recognition processing means.

この発明によれば、画像表示手段は、画像をタッチパネルに表示する。そして、領域抽出手段は、タッチパネル上のタッチ操作に基づいて、画像の一部領域を示す領域情報を抽出し、抽出した領域情報により特定される一部領域に相当する画像を、文字認識処理手段に出力する。これにより、例えば、ユーザは、タッチパネルに表示された画像を見ながら、タッチ操作により必要な文字を含む一部領域を選択し、選択した一部領域に相当する画像を文字認識処理の対象とすることができるため、効率的に文字入力を行うことができる。   According to this invention, the image display means displays an image on the touch panel. Then, the area extracting means extracts area information indicating a partial area of the image based on a touch operation on the touch panel, and an image corresponding to the partial area specified by the extracted area information is converted into a character recognition processing means. Output to. Thereby, for example, the user selects a partial area including a necessary character by a touch operation while viewing an image displayed on the touch panel, and sets an image corresponding to the selected partial area as a target of character recognition processing. Therefore, it is possible to input characters efficiently.

また、本発明においては、領域抽出手段は、一部領域を抽出するための枠を固定した上で、タッチパネル上のシングルタッチ操作に基づいて画像を移動し、且つタッチパネル上のマルチタッチ操作に基づいて画像を拡大又は縮小してもよい。なお、シングルタッチ操作とは、ユーザが1本の指をタッチパネルに接触したままタッチパネル上で移動させる操作を指す。また、マルチタッチ操作とは、ユーザが2本以上の指をタッチパネルに接触したままそれぞれの指をタッチパネル上で移動させる操作を指す。   Further, in the present invention, the area extracting means moves the image based on a single touch operation on the touch panel after fixing a frame for extracting a partial area, and based on the multi touch operation on the touch panel. The image may be enlarged or reduced. The single touch operation refers to an operation in which a user moves a finger on the touch panel while touching the touch panel. The multi-touch operation refers to an operation in which a user moves each finger on the touch panel while keeping two or more fingers in contact with the touch panel.

この発明によれば、ユーザは簡単な操作で効率的に画像中の一部領域を選択することができる。   According to the present invention, the user can efficiently select a partial region in an image with a simple operation.

また、本発明においては、領域抽出手段は、画像を固定した上で、タッチパネル上のシングルタッチ操作に基づいて一部領域を抽出するための枠を移動し、且つタッチパネル上のマルチタッチ操作に基づいて枠を拡大又は縮小してもよい。   In the present invention, the area extracting means moves the frame for extracting a partial area based on the single touch operation on the touch panel after fixing the image, and based on the multi touch operation on the touch panel. The frame may be enlarged or reduced.

この発明によれば、ユーザは簡単な操作で効率的に画像中の一部領域を選択することができる。   According to the present invention, the user can efficiently select a partial region in an image with a simple operation.

また、本発明の文字入力システムは、ネットワークを介して互いに通信可能な文字入力装置とサーバとを含む文字入力システムであって、文字入力装置は、画像を取得する取得手段と、画像に対する文字認識処理に基づいて、文字候補群を抽出する文字認識処理手段と、文字候補群をサーバに送信するクライアント送信手段と、サーバから単語候補群を受信するクライアント受信手段と、文字候補群又は単語候補群を、文字入力時の入力候補群として表示する候補群表示手段と、を備え、サーバは、文字入力装置から文字候補群を受信するサーバ受信手段と、サーバ受信手段により受信された文字候補群に基づいて、単語候補群を抽出する言語処理手段と、言語処理手段により抽出された単語候補群を文字入力装置に送信するサーバ送信手段と、を備えることを特徴とする。   The character input system of the present invention is a character input system including a character input device and a server that can communicate with each other via a network. The character input device includes an acquisition means for acquiring an image, and character recognition for the image. Character recognition processing means for extracting a character candidate group based on processing, client transmission means for transmitting the character candidate group to the server, client receiving means for receiving the word candidate group from the server, character candidate group or word candidate group A candidate group display means for displaying a character candidate group from a character input device, and a server candidate means received by the server receiver means. Based on the language processing means for extracting the word candidate group and the server transmitting means for transmitting the word candidate group extracted by the language processing means to the character input device , Characterized in that it comprises a.

このような本発明の文字入力システムによれば、文字入力装置にて、画像に対する文字認識処理に基づいて文字候補群を抽出し、サーバにて、当該文字候補群に基づいて単語候補群を抽出する。このように、単語候補群の抽出がサーバ側で行われるため、文字入力装置における処理の負荷を低減することができる。   According to such a character input system of the present invention, a character input group is extracted based on character recognition processing on an image by a character input device, and a word candidate group is extracted based on the character candidate group at a server. To do. In this way, since the word candidate group is extracted on the server side, the processing load on the character input device can be reduced.

また、本発明の文字入力システムは、ネットワークを介して互いに通信可能な文字入力装置とサーバとを含む文字入力システムであって、文字入力装置は、画像を取得する取得手段と、画像をサーバに送信するクライアント送信手段と、サーバから文字候補群又は単語候補群を受信するクライアント受信手段と、文字候補群又は単語候補群を、文字入力時の入力候補群として表示する候補群表示手段と、を備え、サーバは、文字入力装置から画像を受信するサーバ受信手段と、サーバ受信手段により受信された画像に対する文字認識処理に基づいて、文字候補群を抽出する文字認識処理手段と、文字認識処理手段により抽出された文字候補群に基づいて、単語候補群を抽出する言語処理手段と、文字認識処理手段により抽出された文字候補群又は言語処理手段により抽出された単語候補群を、文字入力装置に送信するサーバ送信手段と、を備えることを特徴とする。   The character input system of the present invention is a character input system including a character input device and a server that can communicate with each other via a network. The character input device includes an acquisition means for acquiring an image, and the image to the server. Client transmitting means for transmitting; client receiving means for receiving a character candidate group or word candidate group from the server; and candidate group display means for displaying the character candidate group or word candidate group as an input candidate group at the time of character input. A server receiving means for receiving an image from the character input device, a character recognition processing means for extracting a character candidate group based on a character recognition process for the image received by the server receiving means, and a character recognition processing means. The language processing means for extracting the word candidate group based on the character candidate group extracted by the above, and the character candidate group extracted by the character recognition processing means Characterized in that the provided word candidates extracted by the language processing unit, a server sending means for sending the character input device, the.

このような本発明の文字入力システムによれば、サーバにて、画像に対する文字認識処理に基づいて文字候補群を抽出し、当該文字候補群に基づいて単語候補群を抽出する。このように、文字候補群及び単語候補群の抽出がサーバ側で行われるため、文字入力装置における処理の負荷を低減することができる。   According to such a character input system of the present invention, a server extracts a character candidate group based on a character recognition process for an image, and extracts a word candidate group based on the character candidate group. Thus, since extraction of a character candidate group and a word candidate group is performed by the server side, the processing load in a character input device can be reduced.

本発明によれば、文字認識の失敗に左右されることなく効率的に文字入力を行うことができる文字入力装置、文字入力システム及び文字入力方法を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the character input device, character input system, and character input method which can perform character input efficiently, without being influenced by failure of character recognition can be provided.

本発明の第1実施形態に係る文字入力装置1の構成概要図である。1 is a schematic configuration diagram of a character input device 1 according to a first embodiment of the present invention. 文字入力装置1及びサーバ2のハードウェア構成図である。It is a hardware block diagram of the character input device 1 and the server 2. 本発明の第1実施形態に係る文字入力装置1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the character input device 1 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る文字入力装置1の実施例を示す図(その1)である。It is FIG. (1) which shows the Example of the character input device 1 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る文字入力装置1の実施例を示す図(その2)である。It is FIG. (2) which shows the Example of the character input device 1 which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る文字入力システム3Aの構成概要図である。It is a structure schematic diagram of the character input system 3A which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る文字入力システム3Bの構成概要図である。It is a structure schematic diagram of the character input system 3B which concerns on 3rd Embodiment of this invention.

以下、添付図面を参照して本発明にかかる文字入力装置、文字入力システム及び文字入力方法の好適な実施形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of a character input device, a character input system, and a character input method according to the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(第1実施形態に係る文字入力装置1の構成)
まず、本発明の第1実施形態に係る文字入力装置1の構成について、図1を参照しながら説明する。第1実施形態として、文字入力装置1は、他の装置と通信等を行わず、自装置内で文字認識処理及び言語処理を完結するスタンドアローンの構成をとる。図1は、文字入力装置1の構成概要図である。文字入力装置1は、後述の撮像部101やタッチパネル104を備える携帯電話端末である。なお、文字入力装置1は、ノートPC(Personal Computer)やPC等であってもよい。
(Configuration of the character input device 1 according to the first embodiment)
First, the configuration of the character input device 1 according to the first embodiment of the present invention will be described with reference to FIG. As the first embodiment, the character input device 1 does not communicate with other devices, and has a stand-alone configuration that completes character recognition processing and language processing within the device itself. FIG. 1 is a schematic configuration diagram of the character input device 1. The character input device 1 is a mobile phone terminal including an imaging unit 101 and a touch panel 104 described later. The character input device 1 may be a notebook PC (Personal Computer), a PC, or the like.

図2は文字入力装置1のハードウェア構成図である。図2に示すように、文字入力装置1は、物理的には、CPU201、ROM202及びRAM203等の主記憶装置、外部の他の装置との間でデータの送受信を行うための通信モジュール204、後述の撮像部101やタッチパネル104等の入出力デバイス205、補助記憶装置206等を含む通常の携帯電話端末として構成される。後述する文字入力装置1の各機能は、CPU201、ROM202、RAM203等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU201の制御の元で通信モジュール204、入出力デバイス205を動作させると共に、ROM202、RAM203や補助記憶装置206におけるデータの読み出しおよび書き込みを行うことで実現される。   FIG. 2 is a hardware configuration diagram of the character input device 1. As shown in FIG. 2, the character input device 1 physically includes a CPU 201, a main storage device such as a ROM 202 and a RAM 203, and a communication module 204 for transmitting / receiving data to / from other external devices, which will be described later. The image forming unit 101, the input / output device 205 such as the touch panel 104, the auxiliary storage device 206, and the like are configured as a normal mobile phone terminal. Each function of the character input device 1 to be described later operates the communication module 204 and the input / output device 205 under the control of the CPU 201 by reading predetermined computer software on hardware such as the CPU 201, the ROM 202, and the RAM 203. It is realized by reading and writing data in the ROM 202, RAM 203 and auxiliary storage device 206.

図1に戻り、文字入力装置1は、機能的には、撮像部101(特許請求の範囲における「撮像手段」に相当)、画像格納部102(特許請求の範囲における「画像格納手段」に相当)、取得部103(特許請求の範囲における「取得手段」に相当)、タッチパネル104(特許請求の範囲における「タッチパネル」に相当)、画像表示部105(特許請求の範囲における「画像表示手段」に相当)、領域抽出部106(特許請求の範囲における「領域抽出手段」に相当)、文字認識処理部107(特許請求の範囲における「文字認識処理手段」に相当)、文字認識用辞書108、言語処理部109(特許請求の範囲における「言語処理手段」に相当)、語彙辞書110、候補群抽出部111(特許請求の範囲における「候補群抽出手段」に相当)及び候補群表示部112(特許請求の範囲における「候補群表示手段」に相当)を備えて構成される。以下、文字入力装置1の各構成要素について詳細に説明する。   Returning to FIG. 1, the character input device 1 functionally corresponds to an imaging unit 101 (corresponding to “imaging unit” in the claims) and an image storage unit 102 (corresponding to “image storage unit” in the claims). ), An acquisition unit 103 (corresponding to “acquisition means” in the claims), a touch panel 104 (corresponding to “touch panel” in the claims), and an image display unit 105 (“image display means” in the claims). Equivalent), region extraction unit 106 (corresponding to “region extraction means” in claims), character recognition processing unit 107 (corresponding to “character recognition processing means” in claims), character recognition dictionary 108, language A processing unit 109 (corresponding to “language processing means” in claims), a vocabulary dictionary 110, and a candidate group extraction unit 111 (corresponding to “candidate group extraction means” in claims) ) Configured with considerable) to "candidate group display means" in the scope of and candidate group display section 112 (claims. Hereinafter, each component of the character input device 1 will be described in detail.

撮像部101は、具体的にはカメラであり、静止画や動画を撮像する。以後、静止画や動画をまとめて画像と呼ぶ。   The imaging unit 101 is specifically a camera and captures still images and moving images. Hereinafter, still images and moving images are collectively referred to as images.

画像格納部102は、一つ以上の画像を格納する。具体的には、画像格納部102は、撮像部101により撮像された画像や、通信モジュール204を介して外部の装置から受信した画像等を格納する。画像格納部102は、予め画像を格納していてもよい。   The image storage unit 102 stores one or more images. Specifically, the image storage unit 102 stores an image captured by the imaging unit 101, an image received from an external device via the communication module 204, and the like. The image storage unit 102 may store an image in advance.

取得部103は、画像を取得する。具体的には、取得部103は、撮像部101により撮像された画像を取得したり、画像格納部102により格納された画像を取得したり、通信モジュール204を介して外部の装置から画像を取得したりする。   The acquisition unit 103 acquires an image. Specifically, the acquisition unit 103 acquires an image captured by the imaging unit 101, acquires an image stored by the image storage unit 102, and acquires an image from an external device via the communication module 204. To do.

タッチパネル104は、画像等をタッチパネル上に表示する出力デバイスの機能と、タッチパネル上のタッチ操作を受け付ける入力デバイスの機能を兼ね備えた装置である。なお、タッチ操作とは、タッチパネル上におけるユーザの指等による接触操作である。また、タッチ操作にはシングルタッチ操作とマルチタッチ操作とが含まれる。シングルタッチ操作とは、ユーザが1本の指をタッチパネルに接触したままタッチパネル上で移動させる操作を指す。また、マルチタッチ操作とは、ユーザが2本以上の指をタッチパネルに接触したままそれぞれの指をタッチパネル上で移動させる操作を指す。   The touch panel 104 is an apparatus having both the function of an output device that displays an image or the like on the touch panel and the function of an input device that accepts a touch operation on the touch panel. The touch operation is a contact operation with a user's finger or the like on the touch panel. The touch operation includes a single touch operation and a multi-touch operation. The single touch operation refers to an operation in which the user moves one finger on the touch panel while touching the touch panel. The multi-touch operation refers to an operation in which a user moves each finger on the touch panel while keeping two or more fingers in contact with the touch panel.

画像表示部105は、取得部103により取得された画像をタッチパネル104に表示する。   The image display unit 105 displays the image acquired by the acquisition unit 103 on the touch panel 104.

領域抽出部106は、タッチパネル104上のタッチ操作に基づいて、画像表示部105により表示された画像の一部領域を示す領域情報を抽出し、抽出した領域情報により特定される一部領域に相当する画像を、後述の文字認識処理部107に出力する。ここで、領域情報とは、例えば、画像の一部領域を示すピクセル上のXY座標値の集合である。なお、領域抽出部106は、一部領域を抽出するための枠を固定した上で、タッチパネル104上のシングルタッチ操作に基づいて画像を移動し、且つタッチパネル104上のマルチタッチ操作に基づいて画像を拡大又は縮小してもよい。また、領域抽出部106は、画像を固定した上で、タッチパネル104上のシングルタッチ操作に基づいて一部領域を抽出するための枠を移動し、且つタッチパネル104上のマルチタッチ操作に基づいて枠を拡大又は縮小してもよい。領域抽出部106の動作の詳細については、後述の「第1実施形態に係る文字入力装置1の実施例」にて説明する。   The area extraction unit 106 extracts area information indicating a partial area of the image displayed by the image display unit 105 based on a touch operation on the touch panel 104, and corresponds to the partial area specified by the extracted area information. The image to be output is output to a character recognition processing unit 107 described later. Here, the area information is, for example, a set of XY coordinate values on a pixel indicating a partial area of the image. The area extraction unit 106 fixes a frame for extracting a partial area, moves an image based on a single touch operation on the touch panel 104, and moves the image based on a multi-touch operation on the touch panel 104. May be enlarged or reduced. In addition, the region extraction unit 106 fixes the image, moves a frame for extracting a partial region based on a single touch operation on the touch panel 104, and moves the frame based on the multi-touch operation on the touch panel 104. May be enlarged or reduced. Details of the operation of the area extracting unit 106 will be described in “Example of Character Input Device 1 According to First Embodiment” described later.

文字認識処理部107は、画像に対する文字認識処理に基づいて、文字候補群を抽出する。具体的には、文字認識処理部107は、まず、取得部103により取得された画像や、領域抽出部106により出力された画像を入力する。次に、文字認識処理部107は、画像における、文字が存在する領域である文字領域を検出する。次に、文字認識処理部107は、検出した文字領域内の文字を一文字単位で分割し、分割した分割領域に存在する文字に対して、一文字ごとに文字認識処理を実行する。なお、文字認識処理部107が実行する文字認識処理としては、既存の文字認識処理技術を適用する。文字認識処理部107は、文字認識処理を実行する際に、文字認識用辞書108を補助的に用いてもよい。文字認識処理部107は、文字認識処理の実行の結果、一文字につき一つ以上の文字認識処理結果の文字候補を出力し、一つ以上の文字候補を含む文字候補群を抽出する。   The character recognition processing unit 107 extracts a character candidate group based on the character recognition processing for the image. Specifically, the character recognition processing unit 107 first inputs an image acquired by the acquisition unit 103 or an image output by the region extraction unit 106. Next, the character recognition processing unit 107 detects a character region that is a region where characters exist in the image. Next, the character recognition processing unit 107 divides the characters in the detected character region in units of characters, and executes character recognition processing for each character on the characters existing in the divided regions. As the character recognition processing executed by the character recognition processing unit 107, an existing character recognition processing technology is applied. The character recognition processing unit 107 may supplementarily use the character recognition dictionary 108 when executing the character recognition processing. As a result of executing the character recognition process, the character recognition processing unit 107 outputs one or more character candidates as a result of the character recognition process for each character, and extracts a character candidate group including one or more character candidates.

言語処理部109は、文字認識処理部107により抽出された文字候補群に基づいて、単語候補群を抽出する。例えば、言語処理部109は、記号列変換と重みの集合を状態遷移として表現した重み付き有限状態トランスデューサ(Weighted Finite State Transducer)を利用して単語候補群を抽出してもよい。具体的には、言語処理部109は、文字認識処理部107により抽出された文字候補群を入力し、文字候補への遷移に対する重み値を計算し、文字候補及び重み値の組に基づく文字列遷移データを作成する。次に、言語処理部109は、文字列遷移データに基づき状態遷移を順次行い、各状態遷移における重み値を累積して状態遷移ごとの累積重み値を算出し、一つ以上の状態遷移の結果を累積重み値に基づいて出力する。そして、言語処理部109は、累積重み値に基づいて一つ以上の単語候補を含む単語候補群を抽出する。言語処理部109は、単語候補群を抽出する際に、語彙辞書110を補助的に用いてもよい。なお、言語処理部109は、外部の装置から文字候補群を更に受信し、受信した文字候補群に基づいて、単語候補群を抽出してもよい。   The language processing unit 109 extracts word candidate groups based on the character candidate groups extracted by the character recognition processing unit 107. For example, the language processing unit 109 may extract a word candidate group using a weighted finite state transducer (Weighted Finite State Transducer) expressing a symbol string conversion and a set of weights as state transitions. Specifically, the language processing unit 109 inputs the character candidate group extracted by the character recognition processing unit 107, calculates a weight value for the transition to the character candidate, and a character string based on the combination of the character candidate and the weight value Create transition data. Next, the language processing unit 109 sequentially performs the state transition based on the character string transition data, accumulates the weight value in each state transition, calculates the cumulative weight value for each state transition, and results of one or more state transitions Is output based on the cumulative weight value. Then, the language processing unit 109 extracts a word candidate group including one or more word candidates based on the cumulative weight value. The language processing unit 109 may supplementarily use the vocabulary dictionary 110 when extracting word candidate groups. Note that the language processing unit 109 may further receive a character candidate group from an external device, and extract the word candidate group based on the received character candidate group.

候補群抽出部111は、取得部103により取得された画像に紐付く文字情報又は単語情報に基づいて、文字候補群又は単語候補群を抽出する。例えば、取得部103により取得された画像には、予め文字又は単語が紐付いて登録されている場合がある。画像に紐付いて登録されている文字や単語は、ユーザが自由に追加や削除等の編集操作を行うことができる。取得部103は、画像に紐付いて登録されている文字又は単語を取得し、取得した文字又は単語、及びそれらの組み合わせを文字候補群又は単語候補群として抽出する。   The candidate group extraction unit 111 extracts a character candidate group or a word candidate group based on character information or word information associated with the image acquired by the acquisition unit 103. For example, the image acquired by the acquisition unit 103 may be registered with characters or words in advance. The user can freely perform editing operations such as addition and deletion of characters and words registered in association with images. The acquisition unit 103 acquires a character or word registered in association with an image, and extracts the acquired character or word and a combination thereof as a character candidate group or a word candidate group.

候補群表示部112は、文字認識処理部107により抽出された文字候補群、又は言語処理部109により抽出された単語候補群を、文字入力時の入力候補群として表示する。また、候補群表示部112は、候補群抽出部111により抽出された文字候補群又は単語候補群を、文字認識処理部107により抽出された文字候補群又は言語処理部109により抽出された単語候補群に加えて、文字入力時の入力候補群として更に表示してもよい。ここで、文字入力時の入力候補群とは、例えば、IMEを用いて仮名漢字変換を行う際に、複数の変換候補が表示され、ユーザがそのうちの一つの変換候補を選択することで変換が確定されるが、その表示される複数の変換候補のことを指す。   The candidate group display unit 112 displays the character candidate group extracted by the character recognition processing unit 107 or the word candidate group extracted by the language processing unit 109 as an input candidate group at the time of character input. In addition, the candidate group display unit 112 selects the character candidate group or the word candidate group extracted by the candidate group extraction unit 111 from the character candidate group extracted by the character recognition processing unit 107 or the word candidate extracted by the language processing unit 109. In addition to the group, it may be further displayed as an input candidate group when inputting characters. Here, the input candidate group at the time of character input is, for example, when performing kana-kanji conversion using IME, a plurality of conversion candidates are displayed, and conversion is performed by the user selecting one of these conversion candidates. Although it is fixed, it indicates the plurality of conversion candidates displayed.

(第1実施形態に係る文字入力装置1の動作)
続いて、第1実施形態に係る文字入力装置1により行われる動作である文字入力方法について、図3を参照しながら説明する。図3は、文字入力装置1における文字入力方法を示すフローチャートである。
(Operation of the character input device 1 according to the first embodiment)
Next, a character input method that is an operation performed by the character input device 1 according to the first embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing a character input method in the character input device 1.

最初に、取得部103が、画像を取得する(ステップS01、取得ステップ)。次に、文字認識処理部107が、ステップS01において取得した画像に対する文字認識処理に基づいて、文字候補群を抽出する(ステップS02、文字認識処理ステップ)。次に、言語処理部109が、ステップS02において抽出した文字候補群に基づいて、単語候補群を抽出する(ステップS03、言語処理ステップ)。次に、候補群表示部112が、ステップS02において抽出した文字候補群、又はステップS03において抽出した単語候補群を、文字入力時の入力候補群として表示する(ステップS04、候補群表示ステップ)。   First, the acquisition unit 103 acquires an image (step S01, acquisition step). Next, the character recognition processing unit 107 extracts a character candidate group based on the character recognition processing for the image acquired in step S01 (step S02, character recognition processing step). Next, the language processing unit 109 extracts a word candidate group based on the character candidate group extracted in step S02 (step S03, language processing step). Next, the candidate group display unit 112 displays the character candidate group extracted in step S02 or the word candidate group extracted in step S03 as an input candidate group at the time of character input (step S04, candidate group display step).

(第1実施形態に係る文字入力装置1の実施例)
続いて、第1実施形態に係る文字入力装置1の実施例について、図4及び図5を参照しながら説明する。図4及び図5は、文字入力装置1を用いて、検索サイトを表示し、検索用の入力文字を入力するまでの実施例を示した図である。ここで、検索用の入力文字を入力する際に、画像に含まれる文字から文字候補群及び単語候補群を抽出して入力候補群として表示し、ユーザが入力候補群から選択した単語を検索用の入力文字として入力している。
(Example of the character input device 1 according to the first embodiment)
Next, an example of the character input device 1 according to the first embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 and FIG. 5 are diagrams showing an example of displaying a search site and inputting a search input character using the character input device 1. Here, when inputting an input character for search, a character candidate group and a word candidate group are extracted from the characters included in the image and displayed as an input candidate group, and the word selected by the user from the input candidate group is used for the search. It is input as an input character.

図4(a)は、文字入力装置1のタッチパネル104に検索サイトを表示している状態を示す図である。検索用テキストボックス内に、文字挿入位置を示すキャレットCが表示されている。図4(a)に示す状態において、ユーザがIMEの切替えを文字入力装置1に命令した際、例えばIMEの切替え操作に対応付いたボタンをユーザが押した際に、図4(a)に示す状態から、図4(b)に示す状態に遷移する。   FIG. 4A is a diagram illustrating a state in which a search site is displayed on the touch panel 104 of the character input device 1. A caret C indicating a character insertion position is displayed in the search text box. In the state shown in FIG. 4A, when the user instructs the character input device 1 to switch the IME, for example, when the user presses a button corresponding to the switching operation of the IME, the user is shown in FIG. Transition from the state to the state shown in FIG.

図4(b)は、タッチパネル104の画面下部に文字認識処理の対象となる画像の取得方法を選択できるメニューM1が表示されている状態を示す図である。図4(b)に示す状態において、ユーザがメニューM1から「カメラ」あるいは「ギャラリー」の何れかを選択すると、図4(b)に示す状態から、図4(c)に示す状態に遷移する。図4(b)に示す状態において、ユーザがメニューM1から「カメラ」を選択した場合、撮像部101が起動し、撮像部101により撮像された画像が、画像表示部105により、図4(c)の画像表示欄Pに表示される。一方、図4(b)に示す状態において、ユーザがメニューM1から「ギャラリー」を選択した場合、画像格納部102により格納されている画像から特定の画像の選択を促す画面が表示される(不図示)。そこで、ユーザが特定の画像を選択すると、選択された画像が、画像表示部105により、図4(c)の画像表示欄Pに表示される。   FIG. 4B is a diagram illustrating a state in which a menu M1 that can select an acquisition method of an image to be subjected to character recognition processing is displayed at the bottom of the touch panel 104. In the state shown in FIG. 4B, when the user selects either “camera” or “gallery” from the menu M1, the state shown in FIG. 4B transitions to the state shown in FIG. 4C. . In the state shown in FIG. 4B, when the user selects “camera” from the menu M1, the imaging unit 101 is activated, and an image captured by the imaging unit 101 is displayed by the image display unit 105 in FIG. ) In the image display field P. On the other hand, when the user selects “Gallery” from the menu M1 in the state shown in FIG. 4B, a screen prompting the user to select a specific image from the images stored in the image storage unit 102 is displayed (not shown). (Illustrated). Therefore, when the user selects a specific image, the selected image is displayed in the image display field P of FIG.

図4(c)に示す状態では、画像表示欄Pに画像が表示されると共に、画像上に、画像の一部領域を抽出するための枠Fが表示され、また、画像表示欄Pの下には、画像の一部領域を選択する際のモードを選択できるメニューM2が表示される。本実施例では、枠Fは長方形であるが、これに限るものではない。例えば、枠Fは円形や多角形であってもよい。   In the state shown in FIG. 4C, an image is displayed in the image display column P, and a frame F for extracting a partial region of the image is displayed on the image. Displays a menu M2 for selecting a mode for selecting a partial region of the image. In the present embodiment, the frame F is rectangular, but is not limited thereto. For example, the frame F may be a circle or a polygon.

図4(c)に示す状態で、ユーザが、メニューM2から「枠固定」を選択した場合について説明する。この場合、枠Fは画像表示欄P上で固定される。そして、タッチパネル104上でユーザがシングルタッチ操作を行う、例えば画像上で右方向に移動するシングルタッチ操作を行うと、その移動量に応じて画像が右方向に移動する。なお、枠Fの位置は固定されたままであり、すなわち、枠Fのタッチパネル104上における絶対位置は、シングルタッチ操作の前後で変化しない。また、タッチパネル104上でユーザがマルチタッチ操作を行う、例えば画像上で2本の指が互いに離れるようなマルチタッチ操作を行うと、その移動量に応じて画像が拡大する。逆に、例えば画像上で2本の指が互いに近づくようなマルチタッチ操作を行うと、その移動量に応じて画像が縮小する。なお、画像が拡大及び縮小する際も、枠Fの位置や大きさは固定されたままである。   A case where the user selects “Fix frame” from the menu M2 in the state shown in FIG. 4C will be described. In this case, the frame F is fixed on the image display field P. When the user performs a single touch operation on the touch panel 104, for example, when performing a single touch operation that moves to the right on the image, the image moves to the right according to the amount of movement. Note that the position of the frame F remains fixed, that is, the absolute position of the frame F on the touch panel 104 does not change before and after the single touch operation. Further, when the user performs a multi-touch operation on the touch panel 104, for example, a multi-touch operation in which two fingers are separated from each other on the image, the image is enlarged according to the amount of movement. Conversely, for example, when a multi-touch operation is performed such that two fingers approach each other on the image, the image is reduced according to the amount of movement. Note that the position and size of the frame F remain fixed when the image is enlarged or reduced.

次に、図4(c)に示す状態で、ユーザが、メニューM2から「画像固定」を選択した場合について説明する。この場合、画像は画像表示欄P上で固定される。そして、タッチパネル104上でユーザがシングルタッチ操作を行う、例えば枠F上で右方向に移動するシングルタッチ操作を行うと、その移動量に応じて枠Fが右方向に移動する。なお、画像の位置は固定されたままであり、すなわち、画像のタッチパネル104上における絶対位置は、シングルタッチ操作の前後で変化しない。また、タッチパネル104上でユーザがマルチタッチ操作を行う、例えば枠F上で2本の指が互いに離れるようなマルチタッチ操作を行うと、その移動量に応じて枠Fが拡大する。逆に、例えば枠F上で2本の指が互いに近づくようなマルチタッチ操作を行うと、その移動量に応じて枠Fが縮小する。なお、枠Fが拡大及び縮小する際も、画像の位置や大きさは固定されたままである。   Next, a case where the user selects “fix image” from the menu M2 in the state shown in FIG. 4C will be described. In this case, the image is fixed on the image display field P. When the user performs a single touch operation on the touch panel 104, for example, when performing a single touch operation that moves in the right direction on the frame F, the frame F moves in the right direction according to the amount of movement. Note that the position of the image remains fixed, that is, the absolute position of the image on the touch panel 104 does not change before and after the single touch operation. Further, when the user performs a multi-touch operation on the touch panel 104, for example, a multi-touch operation in which two fingers are separated from each other on the frame F, the frame F is enlarged according to the movement amount. Conversely, for example, when a multi-touch operation is performed such that two fingers approach each other on the frame F, the frame F is reduced according to the amount of movement. Even when the frame F is enlarged or reduced, the position and size of the image remain fixed.

図4(c)に示す状態において、ユーザがメニューM2から「枠固定」あるいは「画像固定」の何れかを選択し、タッチ操作を終えると、図4(c)に示す状態から、図5(a)に示す状態に遷移する。図5(a)は、枠Fに相当する画像が文字認識処理部107及び文字認識用辞書108により処理され、抽出された文字候補群及び単語候補群が、候補群表示部112により、文字入力の入力候補群として入力候補リストLに表示されている状態を示す図である。図5(a)に示す通り、画像中の「煮込み」に枠Fが位置し、「煮込み」、「見込み」、「煮込」及び「煮」という文字候補群及び単語候補群が入力候補リストLに表示されている。   In the state shown in FIG. 4C, when the user selects either “Fix frame” or “Fix image” from the menu M2 and finishes the touch operation, the state shown in FIG. Transition to the state shown in a). In FIG. 5A, an image corresponding to the frame F is processed by the character recognition processing unit 107 and the character recognition dictionary 108, and the extracted character candidate group and word candidate group are input by the candidate group display unit 112. It is a figure which shows the state currently displayed on the input candidate list | wrist L as an input candidate group. As shown in FIG. 5A, a frame F is positioned at “boiled” in the image, and character candidate groups and word candidate groups of “boiled”, “expected”, “boiled” and “boiled” are input candidate lists. L is displayed.

図5(a)に示す状態において、ユーザが入力候補リストLに表示された入力候補を一つ選択すると、図5(b)に示す状態に遷移する。図5(b)に示すように、ユーザが入力候補リストLから「煮込」を選択すると、選択された「煮込」という単語が、検索用テキストボックス内のキャレットCの位置に挿入される。この際、文字入力装置1は、ユーザによって選択された単語を、取得部103により取得された画像に紐付けて登録してもよい。これにより、次回、当該画像を取得部103が取得した際には、候補群抽出部111により当該画像に紐付けて登録された文字候補群又は単語候補群が抽出され、抽出された文字候補群又は単語候補群が候補群表示部112により表示される。そのため、ユーザは、予め画像に紐付けて登録された文字候補群又は単語候補群を選択することができ、ユーザの操作を簡便化することができる。   If the user selects one input candidate displayed in the input candidate list L in the state shown in FIG. 5A, the state transitions to the state shown in FIG. As shown in FIG. 5B, when the user selects “boiled” from the input candidate list L, the selected word “boiled” is inserted at the position of the caret C in the search text box. . At this time, the character input device 1 may register the word selected by the user in association with the image acquired by the acquisition unit 103. Thereby, when the acquisition unit 103 acquires the image next time, the candidate group extraction unit 111 extracts the character candidate group or the word candidate group registered in association with the image, and the extracted character candidate group Alternatively, the word candidate group is displayed by the candidate group display unit 112. Therefore, the user can select a character candidate group or a word candidate group registered in advance in association with an image, and the user's operation can be simplified.

(第1実施形態に係る文字入力装置1の作用及び効果)
続いて、第1実施形態に係る文字入力装置1の作用及び効果について説明する。
(Operation and effect of the character input device 1 according to the first embodiment)
Then, the effect | action and effect of the character input device 1 which concern on 1st Embodiment are demonstrated.

文字入力装置1によれば、取得部103は、画像を取得し、文字認識処理部107は、取得した画像に対する文字認識処理に基づいて、文字候補群を抽出し、言語処理部109は、抽出した文字候補群に基づいて、単語候補群を抽出する。そして、候補群表示部112は、抽出した文字候補群又は単語候補群を、文字入力時の入力候補群として表示する。このように、文字入力装置1においては、文字入力時の入力候補群として、取得した画像に対する文字認識処理に基づいた文字候補群又は単語候補群が表示される。例えば、文字候補群には、文字認識処理結果の複数の文字候補が含まれ、単語候補群には当該複数の文字候補の組み合わせから成る複数の単語候補が含まれるため、ユーザが入力したい文字を文字候補群又は単語候補群から選ぶことにより、文字認識の失敗に左右されることなく効率的に文字入力を行うことができる。   According to the character input device 1, the acquisition unit 103 acquires an image, the character recognition processing unit 107 extracts a character candidate group based on the character recognition processing for the acquired image, and the language processing unit 109 extracts A word candidate group is extracted based on the character candidate group. And candidate group display part 112 displays the extracted character candidate group or word candidate group as an input candidate group at the time of character input. Thus, in the character input device 1, a character candidate group or a word candidate group based on the character recognition process for the acquired image is displayed as an input candidate group at the time of character input. For example, the character candidate group includes a plurality of character candidates as a result of character recognition processing, and the word candidate group includes a plurality of word candidates composed of combinations of the plurality of character candidates. By selecting from the character candidate group or the word candidate group, it is possible to input characters efficiently without being affected by the failure of character recognition.

また、文字入力の際に、書き順に従った筆記入力や、仮名入力及びローマ字入力結果を再変換しての利用等の複雑な入力操作を必要としないことから、特定用途における文字入力の効率化を図ることができる。例えば、多言語認識の環境を用意することで、他国の言語のような一目見ただけでは意味がわからないだけでなく、入力すること自体が困難な状況でも、一般的な文字入力の要領で候補群から選択するだけで文字入力を行うことができる。つまり、文字入力装置1によれば、文字の見た目の形状からの推定のみでユーザが事前知識のない文字の入力が可能となる。   In addition, when inputting characters, there is no need for complicated input operations such as writing input according to the stroke order, re-translation of kana input and romaji input results. Can be achieved. For example, by preparing an environment for multilingual recognition, it is not only possible to understand the meaning at first glance like a language in another country, but even in situations where it is difficult to input itself, candidates for general character input can be used. Characters can be entered simply by selecting from the group. That is, according to the character input device 1, the user can input characters without prior knowledge only by estimation from the appearance of the characters.

また、文字入力装置1によれば、候補群抽出部111は、画像に紐付く文字情報又は単語情報に基づいて、文字候補群又は単語候補群を抽出し、候補群表示部112は、抽出された文字候補群又は単語候補群を更に表示する。このように、画像に紐付く文字情報又は単語情報に基づいた文字候補群又は単語候補群が、文字入力時の入力候補群として更に表示されるため、効率的に文字入力を行うことができる。   Further, according to the character input device 1, the candidate group extraction unit 111 extracts a character candidate group or a word candidate group based on character information or word information associated with the image, and the candidate group display unit 112 is extracted. The character candidate group or word candidate group is further displayed. As described above, the character candidate group or the word candidate group based on the character information or the word information associated with the image is further displayed as the input candidate group at the time of character input, so that the character input can be performed efficiently.

また、文字入力装置1によれば、撮像部101により撮像された画像を文字認識処理の対象とすることができる。例えば、ユーザは、文字又は単語を含む撮像可能なものが身近にあれば、撮像し、当該文字又は単語を含む画像として取得することで、当該文字又は単語を文字入力時の入力候補群として利用することができるため、効率的に文字入力を行うことができる。   Further, according to the character input device 1, an image captured by the imaging unit 101 can be a target of character recognition processing. For example, if a user can capture an image that includes a character or a word, the user can capture the image and acquire it as an image including the character or word, thereby using the character or word as an input candidate group when inputting characters. Therefore, it is possible to input characters efficiently.

また、文字入力装置1によれば、画像格納部102により格納された画像を文字認識処理の対象とすることができるため、例えば、ユーザは、文字又は単語を含む画像を画像格納部102により格納していれば、当該文字又は単語を文字入力時の入力候補群として利用することができるため、効率的に文字入力を行うことができる。   In addition, according to the character input device 1, the image stored in the image storage unit 102 can be a target of character recognition processing. For example, the user stores an image including characters or words in the image storage unit 102. If it does, since the said character or word can be utilized as an input candidate group at the time of character input, character input can be performed efficiently.

また、文字入力装置1によれば、画像表示部105は、画像をタッチパネル104に表示する。そして、領域抽出部106は、タッチパネル104上のタッチ操作に基づいて、画像の一部領域を示す領域情報を抽出し、抽出した領域情報により特定される一部領域に相当する画像を、文字認識処理部107に出力する。これにより、例えば、ユーザは、タッチパネル104に表示された画像を見ながら、タッチ操作により必要な文字を含む一部領域を選択し、選択した一部領域に相当する画像を文字認識処理の対象とすることができるため、効率的に文字入力を行うことができる。   Further, according to the character input device 1, the image display unit 105 displays an image on the touch panel 104. Then, the area extraction unit 106 extracts area information indicating a partial area of the image based on the touch operation on the touch panel 104, and recognizes an image corresponding to the partial area specified by the extracted area information. The data is output to the processing unit 107. Thereby, for example, the user selects a partial area including a necessary character by a touch operation while viewing an image displayed on the touch panel 104, and selects an image corresponding to the selected partial area as a target of character recognition processing. Therefore, it is possible to input characters efficiently.

また、文字入力装置1によれば、領域抽出部106は、一部領域を抽出するための枠を固定した上で、タッチパネル104上のシングルタッチ操作に基づいて画像を移動し、且つタッチパネル104上のマルチタッチ操作に基づいて画像を拡大又は縮小するため、ユーザは簡単な操作で効率的に画像中の一部領域を選択することができる。   Further, according to the character input device 1, the area extraction unit 106 moves an image based on a single touch operation on the touch panel 104 after fixing a frame for extracting a partial area, and on the touch panel 104. Since the image is enlarged or reduced based on the multi-touch operation, the user can efficiently select a partial region in the image with a simple operation.

また、文字入力装置1によれば、領域抽出部106は、画像を固定した上で、タッチパネル104上のシングルタッチ操作に基づいて一部領域を抽出するための枠を移動し、且つタッチパネル104上のマルチタッチ操作に基づいて枠を拡大又は縮小するため、ユーザは簡単な操作で効率的に画像中の一部領域を選択することができる。   In addition, according to the character input device 1, the area extraction unit 106 moves the frame for extracting a partial area based on the single touch operation on the touch panel 104 after fixing the image, and on the touch panel 104. Since the frame is enlarged or reduced based on the multi-touch operation, the user can efficiently select a partial region in the image with a simple operation.

また、文字入力装置1によれば、画像を解析し、解析結果に基づき文字と文字候補および単語と単語候補を生成し複数の文字入力候補として利用者に選択・利用させることで、書き順に従った筆記入力や、かな入力・ローマ字入力結果を再変換しての利用などの複雑な入力操作を必要としないことから、特定用途における文字入力効率化、利用者が理解しない海外の言語の入力手段として用いることができる。つまり、本実施形態によれば、文字入力システムから文字の見た目の形状からの推定のみで利用者が事前知識のない文字の入力が可能となる。   Further, according to the character input device 1, the image is analyzed, and characters and character candidates and words and word candidates are generated based on the analysis result, and the user selects and uses them as a plurality of character input candidates. This eliminates the need for complicated input operations such as handwriting input, re-converting Kana input and Romaji input results, improving character input efficiency for specific applications, and means for inputting foreign languages that users do not understand Can be used as That is, according to this embodiment, the user can input characters without prior knowledge only by estimation from the appearance of the characters from the character input system.

(第2実施形態に係る文字入力システム3Aの構成)
続いて、本発明の第2実施形態に係る、文字入力装置1Aとサーバ2Aとを含む文字入力システム3Aの構成について、図6を参照しながら説明する。第2実施形態として、文字入力装置1Aは、ネットワークを介してサーバ2Aと通信を行い、文字入力システム3Aにおいて文字入力に関する処理を行う構成をとる。図6は、文字入力装置1A及びサーバ2Aの構成概要図である。なお、図6に示す文字入力装置1A、取得部103A、文字認識処理部107A、文字認識用辞書108A、言語処理部109A、語彙辞書110A、及び候補群表示部112Aは、それぞれ、第1実施形態における符号Aがない構成要素と同様の構成または機能を有している。よって、本第2実施形態では、それらの構成要素については、機能的な差分についてのみ説明する。
(Configuration of the character input system 3A according to the second embodiment)
Next, the configuration of the character input system 3A including the character input device 1A and the server 2A according to the second embodiment of the present invention will be described with reference to FIG. As a second embodiment, the character input device 1A communicates with the server 2A via a network and performs a process related to character input in the character input system 3A. FIG. 6 is a schematic configuration diagram of the character input device 1A and the server 2A. Note that the character input device 1A, the acquisition unit 103A, the character recognition processing unit 107A, the character recognition dictionary 108A, the language processing unit 109A, the vocabulary dictionary 110A, and the candidate group display unit 112A shown in FIG. Have the same configuration or function as the component without the symbol A in FIG. Therefore, in the second embodiment, only functional differences will be described for those components.

図6において、文字入力装置1Aとサーバ2Aとは、インターネット等のネットワークを介して互いに通信可能な状態である。また、サーバ2Aは、PC等のサーバ装置である。サーバ2Aは、第1実施形態における文字入力装置1と同様に、図2に示すハードウェア構成を持ち、サーバ2Aの各機能はCPU201、ROM202、RAM203等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU201の制御の元で通信モジュール204、入出力デバイス205を動作させると共に、ROM202、RAM203や補助記憶装置206におけるデータの読み出しおよび書き込みを行うことで実現される。   In FIG. 6, the character input device 1A and the server 2A can communicate with each other via a network such as the Internet. The server 2A is a server device such as a PC. Similarly to the character input device 1 in the first embodiment, the server 2A has the hardware configuration shown in FIG. 2, and each function of the server 2A reads predetermined computer software on hardware such as the CPU 201, ROM 202, and RAM 203. Thus, the communication module 204 and the input / output device 205 are operated under the control of the CPU 201, and data is read and written in the ROM 202, the RAM 203, and the auxiliary storage device 206.

文字入力装置1Aは、機能的には、取得部103A、文字認識処理部107A、文字認識用辞書108A、候補群表示部112A、クライアント送信部120A(特許請求の範囲における「クライアント送信手段」に相当)、及びクライアント受信部121A(特許請求の範囲における「クライアント受信手段」に相当)を備えて構成される。   The character input device 1A is functionally equivalent to the acquisition unit 103A, the character recognition processing unit 107A, the character recognition dictionary 108A, the candidate group display unit 112A, and the client transmission unit 120A (corresponding to “client transmission unit” in the claims). ), And a client receiving unit 121A (corresponding to “client receiving means” in the claims).

取得部103Aは、画像を取得する。文字認識処理部107Aは、取得部103Aにより取得された画像に対する文字認識処理に基づいて、文字認識用辞書108Aを適宜利用し、文字候補群を抽出する。クライアント送信部120Aは、文字認識処理部107Aにより抽出された文字候補群をサーバ2Aに送信する。クライアント受信部121Aは、サーバ2Aから単語候補群を受信する。候補群表示部112Aは、文字認識処理部107Aにより抽出された文字候補群、又はクライアント受信部121Aにより受信された単語候補群を、文字入力時の入力候補群として表示する。   The acquisition unit 103A acquires an image. The character recognition processing unit 107A extracts a character candidate group by appropriately using the character recognition dictionary 108A based on the character recognition processing for the image acquired by the acquisition unit 103A. The client transmission unit 120A transmits the character candidate group extracted by the character recognition processing unit 107A to the server 2A. The client reception unit 121A receives a word candidate group from the server 2A. The candidate group display unit 112A displays the character candidate group extracted by the character recognition processing unit 107A or the word candidate group received by the client reception unit 121A as an input candidate group at the time of character input.

なお、文字入力装置1Aは、第1実施形態に係る文字入力装置1の撮像部101、画像格納部102、タッチパネル104、画像表示部105、及び領域抽出部106を備えていてもよい。   The character input device 1A may include the imaging unit 101, the image storage unit 102, the touch panel 104, the image display unit 105, and the region extraction unit 106 of the character input device 1 according to the first embodiment.

続いて、サーバ2Aは、機能的には、言語処理部109A、語彙辞書110A、サーバ受信部122A(特許請求の範囲における「サーバ受信手段」に相当)、及びサーバ送信部123A(特許請求の範囲における「サーバ送信手段」に相当)を備えて構成される。   Subsequently, the server 2A functionally includes a language processing unit 109A, a vocabulary dictionary 110A, a server reception unit 122A (corresponding to “server reception means” in the claims), and a server transmission unit 123A (claims). Equivalent to “server transmission means” in FIG.

サーバ受信部122Aは、文字入力装置1Aから文字候補群を受信する。言語処理部109Aは、サーバ受信部122Aにより受信された文字候補群に基づいて、語彙辞書110Aを適宜利用し、単語候補群を抽出する。サーバ送信部123Aは、言語処理部109Aにより抽出された単語候補群を文字入力装置1Aに送信する。なお、サーバ受信部122Aは、文字入力装置1A以外の外部の装置から文字候補群を更に受信してもよい。   Server reception unit 122A receives a character candidate group from character input device 1A. Based on the character candidate group received by the server reception unit 122A, the language processing unit 109A extracts the word candidate group by appropriately using the vocabulary dictionary 110A. The server transmission unit 123A transmits the word candidate group extracted by the language processing unit 109A to the character input device 1A. Note that the server reception unit 122A may further receive a character candidate group from an external device other than the character input device 1A.

(第2実施形態に係る文字入力システム3Aの作用及び効果)
続いて、第2実施形態に係る文字入力システム3Aの作用及び効果について説明する。
(Operation and effect of the character input system 3A according to the second embodiment)
Next, the operation and effect of the character input system 3A according to the second embodiment will be described.

第1実施形態に係る文字入力装置1では、文字入力装置1内にて、言語処理部109による単語候補群の抽出が実行されている。一方、本第2実施形態に係る文字入力システム3Aでは、サーバ2A内にて、言語処理部109Aによる単語候補群の抽出が実行されている。これにより、文字入力装置1A内で単語候補群の抽出を実行する必要がなくなり、文字入力装置1Aの処理負荷が低減する。   In the character input device 1 according to the first embodiment, a word candidate group is extracted by the language processing unit 109 in the character input device 1. On the other hand, in the character input system 3A according to the second embodiment, the word candidate group is extracted by the language processing unit 109A in the server 2A. Thereby, it is not necessary to perform extraction of a word candidate group in the character input device 1A, and the processing load of the character input device 1A is reduced.

また、第1実施形態に係る文字入力装置1では、文字入力装置1内にて、語彙辞書110が保持されている。一方、本第2実施形態に係る文字入力システム3Aでは、サーバ2A内にて、語彙辞書110Aが保持されている。これにより、文字入力装置1A内で語彙辞書を保持する必要がなくなり、文字入力装置1Aに必要なメモリ容量が低減する。また、文字入力装置1Aにおいて、語彙辞書の読み込みが不要となり、処理速度が向上する。   In the character input device 1 according to the first embodiment, the vocabulary dictionary 110 is held in the character input device 1. On the other hand, in the character input system 3A according to the second embodiment, the vocabulary dictionary 110A is held in the server 2A. This eliminates the need to maintain a vocabulary dictionary in the character input device 1A, and reduces the memory capacity required for the character input device 1A. Further, in the character input device 1A, it is not necessary to read a vocabulary dictionary, and the processing speed is improved.

(第3実施形態に係る文字入力システム3Bの構成)
続いて、本発明の第3実施形態に係る、文字入力装置1Bとサーバ2Bとを含む文字入力システム3Bの構成について、図7を参照しながら説明する。第3実施形態として、文字入力装置1Bは、ネットワークを介してサーバ2Bと通信を行い、文字入力システム3Bにおいて文字入力に関する処理を行う構成をとる。図7は、文字入力装置1B及びサーバ2Bの構成概要図である。なお、図7に示す文字入力装置1B、サーバ2B、取得部103B、文字認識処理部107B、文字認識用辞書108B、言語処理部109B、語彙辞書110B、候補群表示部112B、クライアント送信部120B、クライアント受信部121B、サーバ受信部122B、及びサーバ送信部123Bは、それぞれ、第2実施形態における同参照番号の符号Aの構成要素と同様の構成または機能を有している。よって、本第3実施形態では、それらの構成要素については、機能的な差分についてのみ説明する。
(Configuration of the character input system 3B according to the third embodiment)
Next, the configuration of a character input system 3B including a character input device 1B and a server 2B according to a third embodiment of the present invention will be described with reference to FIG. As a third embodiment, the character input device 1B communicates with the server 2B via a network and performs a process related to character input in the character input system 3B. FIG. 7 is a schematic configuration diagram of the character input device 1B and the server 2B. It should be noted that the character input device 1B, server 2B, acquisition unit 103B, character recognition processing unit 107B, character recognition dictionary 108B, language processing unit 109B, vocabulary dictionary 110B, candidate group display unit 112B, client transmission unit 120B, Each of the client reception unit 121B, the server reception unit 122B, and the server transmission unit 123B has the same configuration or function as the component of the reference numeral A having the same reference number in the second embodiment. Therefore, in the third embodiment, only functional differences will be described for those components.

文字入力装置1Bは、機能的には、取得部103B、候補群表示部112B、クライアント送信部120B、及びクライアント受信部121Bを備えて構成される。   The character input device 1B functionally includes an acquisition unit 103B, a candidate group display unit 112B, a client transmission unit 120B, and a client reception unit 121B.

取得部103Bは、画像を取得する。クライアント送信部120Bは、取得部103Bにより取得された画像をサーバ2Bに送信する。クライアント受信部121Bは、サーバ2Bから文字候補群又は単語候補群を受信する。候補群表示部112Bは、クライアント受信部121Bにより受信された文字候補群又は単語候補群を、文字入力時の入力候補群として表示する。   The acquisition unit 103B acquires an image. The client transmission unit 120B transmits the image acquired by the acquisition unit 103B to the server 2B. The client reception unit 121B receives a character candidate group or a word candidate group from the server 2B. The candidate group display unit 112B displays the character candidate group or the word candidate group received by the client reception unit 121B as an input candidate group at the time of character input.

なお、文字入力装置1Bは、第1実施形態に係る文字入力装置1の撮像部101、画像格納部102、タッチパネル104、画像表示部105、及び領域抽出部106を備えていてもよい。   The character input device 1B may include the imaging unit 101, the image storage unit 102, the touch panel 104, the image display unit 105, and the region extraction unit 106 of the character input device 1 according to the first embodiment.

続いて、サーバ2Bは、機能的には、文字認識処理部107B、文字認識用辞書108B、言語処理部109B、語彙辞書110B、サーバ受信部122B、及びサーバ送信部123Bを備えて構成される。   Subsequently, the server 2B functionally includes a character recognition processing unit 107B, a character recognition dictionary 108B, a language processing unit 109B, a vocabulary dictionary 110B, a server reception unit 122B, and a server transmission unit 123B.

サーバ受信部122Bは、文字入力装置1Bから画像を受信する。文字認識処理部107Bは、サーバ受信部122Bにより受信された画像に対する文字認識処理に基づいて、文字認識用辞書108Bを適宜利用し、文字候補群を抽出する。言語処理部109Bは、文字認識処理部107Bにより抽出された文字候補群に基づいて、語彙辞書110Bを適宜利用し、単語候補群を抽出する。サーバ送信部123Bは、文字認識処理部107Bにより抽出された文字候補群、又は言語処理部109Bにより抽出された単語候補群を、文字入力装置1Bに送信する。なお、サーバ受信部122Bは、文字入力装置1B以外の外部の装置から文字認識用の画像を更に受信してもよい。また、サーバ受信部122Bは、文字入力装置1B以外の外部の装置から文字候補群を更に受信し、言語処理部109Bは、サーバ受信部122Bにより受信された文字候補群に基づいて、語彙辞書110Bを適宜利用し、更に単語候補群を抽出してもよい。   Server receiving unit 122B receives an image from character input device 1B. The character recognition processing unit 107B extracts a character candidate group by appropriately using the character recognition dictionary 108B based on the character recognition processing for the image received by the server reception unit 122B. The language processing unit 109B extracts the word candidate group by appropriately using the vocabulary dictionary 110B based on the character candidate group extracted by the character recognition processing unit 107B. The server transmission unit 123B transmits the character candidate group extracted by the character recognition processing unit 107B or the word candidate group extracted by the language processing unit 109B to the character input device 1B. The server reception unit 122B may further receive an image for character recognition from an external device other than the character input device 1B. The server reception unit 122B further receives a character candidate group from an external device other than the character input device 1B, and the language processing unit 109B uses the vocabulary dictionary 110B based on the character candidate group received by the server reception unit 122B. May be used as appropriate to further extract word candidate groups.

(第3実施形態に係る文字入力システム3Bの作用及び効果)
続いて、第3実施形態に係る文字入力システム3Bの作用及び効果について説明する。
(Operation and effect of the character input system 3B according to the third embodiment)
Then, the effect | action and effect of the character input system 3B which concern on 3rd Embodiment are demonstrated.

第1実施形態に係る文字入力装置1では、文字入力装置1内にて、文字認識処理部107による文字候補群の抽出が実行され、言語処理部109による単語候補群の抽出が実行されている。一方、本第3実施形態に係る文字入力システム3Bでは、サーバ2B内にて、文字認識処理部107Bによる文字候補群の抽出が実行され、言語処理部109Bによる単語候補群の抽出が実行されている。これにより、文字入力装置1B内で文字候補群及び単語候補群の抽出を実行する必要がなくなり、文字入力装置1Aの処理負荷が低減する。   In the character input device 1 according to the first embodiment, extraction of character candidate groups is executed by the character recognition processing unit 107 in the character input device 1, and extraction of word candidate groups is executed by the language processing unit 109. . On the other hand, in the character input system 3B according to the third embodiment, extraction of character candidate groups is executed by the character recognition processing unit 107B in the server 2B, and extraction of word candidate groups is executed by the language processing unit 109B. Yes. Thereby, it is not necessary to perform extraction of the character candidate group and the word candidate group in the character input device 1B, and the processing load of the character input device 1A is reduced.

また、第1実施形態に係る文字入力装置1では、文字入力装置1内にて、文字認識用辞書108及び語彙辞書110が保持されている。一方、本第3実施形態に係る文字入力システム3Bでは、サーバ2B内にて、文字認識用辞書108B及び語彙辞書110Bが保持されている。これにより、文字入力装置1B内で文字認識用辞書及び語彙辞書を保持する必要がなくなり、文字入力装置1Bに必要なメモリ容量が低減する。また、文字入力装置1Bにおいて、文字認識用辞書及び語彙辞書の読み込みが不要となり、処理速度が向上する。   In the character input device 1 according to the first embodiment, the character recognition dictionary 108 and the vocabulary dictionary 110 are held in the character input device 1. On the other hand, in the character input system 3B according to the third embodiment, a character recognition dictionary 108B and a vocabulary dictionary 110B are held in the server 2B. Thereby, it is not necessary to hold the character recognition dictionary and the vocabulary dictionary in the character input device 1B, and the memory capacity required for the character input device 1B is reduced. Further, in the character input device 1B, it is not necessary to read the character recognition dictionary and the vocabulary dictionary, and the processing speed is improved.

1、1A、1B…文字入力装置、2、2A、2B…サーバ、3、3A、3B…文字入力システム、101…撮像部、102…画像格納部、103、103A、103B…取得部、104…タッチパネル、105…画像表示部、106…領域抽出部、107、107A、107B…文字認識処理部、108、108A、108B…文字認識用辞書、109、109A、109B…言語処理部、110、110A、110B…語彙辞書、111…候補群抽出部、112、112A、112B…候補群表示部、120、120A、120B…クライアント送信部、121、121A、121B…クライアント受信部、122、122A、122B…サーバ受信部、123、123A、123B…サーバ送信部。   DESCRIPTION OF SYMBOLS 1, 1A, 1B ... Character input device 2, 2A, 2B ... Server, 3, 3A, 3B ... Character input system, 101 ... Imaging part, 102 ... Image storage part, 103, 103A, 103B ... Acquisition part, 104 ... Touch panel, 105 ... Image display unit, 106 ... Area extraction unit, 107, 107A, 107B ... Character recognition processing unit, 108, 108A, 108B ... Character recognition dictionary, 109, 109A, 109B ... Language processing unit, 110, 110A, 110B: Vocabulary dictionary, 111: Candidate group extraction unit, 112, 112A, 112B ... Candidate group display unit, 120, 120A, 120B ... Client transmission unit, 121, 121A, 121B ... Client reception unit, 122, 122A, 122B ... Server Receiving unit, 123, 123A, 123B... Server transmitting unit.

Claims (10)

画像を取得する取得手段と、
前記画像に対する文字認識処理に基づいて、文字候補群を抽出する文字認識処理手段と、
前記文字候補群に基づいて、単語候補群を抽出する言語処理手段と、
前記文字候補群又は前記単語候補群を、文字入力時の入力候補群として表示する候補群表示手段と、
を備えることを特徴とする文字入力装置。
An acquisition means for acquiring an image;
Character recognition processing means for extracting a character candidate group based on the character recognition processing for the image;
Language processing means for extracting a word candidate group based on the character candidate group;
A candidate group display means for displaying the character candidate group or the word candidate group as an input candidate group at the time of character input;
A character input device comprising:
前記取得手段により取得された前記画像に紐付く文字情報又は単語情報に基づいて、文字候補群又は単語候補群を抽出する候補群抽出手段を更に備え、
前記候補群表示手段は、前記候補群抽出手段により抽出された該文字候補群又は該単語候補群を更に表示する、
ことを特徴とする請求項1に記載の文字入力装置。
Further comprising candidate group extraction means for extracting a character candidate group or a word candidate group based on character information or word information associated with the image acquired by the acquisition means;
The candidate group display means further displays the character candidate group or the word candidate group extracted by the candidate group extraction means.
The character input device according to claim 1.
撮像手段を更に備え、
前記取得手段は、前記撮像手段により撮像された画像を取得する、
ことを特徴とする請求項1又は2に記載の文字入力装置。
Further comprising an imaging means,
The acquisition unit acquires an image captured by the imaging unit.
The character input device according to claim 1, wherein the character input device is a character input device.
画像を格納する画像格納手段を更に備え、
前記取得手段は、前記画像格納手段により格納された該画像を取得する、
ことを特徴とする請求項1又は2に記載の文字入力装置。
It further comprises image storage means for storing an image,
The acquisition unit acquires the image stored by the image storage unit;
The character input device according to claim 1, wherein the character input device is a character input device.
タッチパネルと、
前記取得手段により取得された前記画像を前記タッチパネルに表示する画像表示手段と、
前記タッチパネル上のタッチ操作に基づいて、前記画像表示手段により表示された前記画像の一部領域を示す領域情報を抽出する領域抽出手段と、
を更に備え、
前記領域抽出手段は、抽出した前記領域情報により特定される前記一部領域に相当する画像を、前記文字認識処理手段に出力する、
ことを特徴とする請求項1〜4の何れか一項に記載の文字入力装置。
A touch panel;
Image display means for displaying the image acquired by the acquisition means on the touch panel;
Area extracting means for extracting area information indicating a partial area of the image displayed by the image display means based on a touch operation on the touch panel;
Further comprising
The area extraction means outputs an image corresponding to the partial area specified by the extracted area information to the character recognition processing means.
The character input device according to claim 1, wherein the character input device is a character input device.
前記領域抽出手段は、前記一部領域を抽出するための枠を固定した上で、前記タッチパネル上のシングルタッチ操作に基づいて前記画像を移動し、且つ前記タッチパネル上のマルチタッチ操作に基づいて前記画像を拡大又は縮小する、
ことを特徴とする請求項5に記載の文字入力装置。
The area extracting means moves the image based on a single touch operation on the touch panel after fixing a frame for extracting the partial area, and based on the multi touch operation on the touch panel. Enlarge or reduce the image,
The character input device according to claim 5.
前記領域抽出手段は、前記画像を固定した上で、前記タッチパネル上のシングルタッチ操作に基づいて前記一部領域を抽出するための枠を移動し、且つ前記タッチパネル上のマルチタッチ操作に基づいて前記枠を拡大又は縮小する、
ことを特徴とする請求項5に記載の文字入力装置。
The region extracting means moves the frame for extracting the partial region based on a single touch operation on the touch panel after fixing the image, and based on the multi touch operation on the touch panel. Enlarge or reduce the frame,
The character input device according to claim 5.
ネットワークを介して互いに通信可能な文字入力装置とサーバとを含む文字入力システムであって、
前記文字入力装置は、
画像を取得する取得手段と、
前記画像に対する文字認識処理に基づいて、文字候補群を抽出する文字認識処理手段と、
前記文字候補群を前記サーバに送信するクライアント送信手段と、
前記サーバから単語候補群を受信するクライアント受信手段と、
前記文字候補群又は前記単語候補群を、文字入力時の入力候補群として表示する候補群表示手段と、
を備え、
前記サーバは、
前記文字入力装置から前記文字候補群を受信するサーバ受信手段と、
前記サーバ受信手段により受信された前記文字候補群に基づいて、前記単語候補群を抽出する言語処理手段と、
前記言語処理手段により抽出された前記単語候補群を前記文字入力装置に送信するサーバ送信手段と、
を備えることを特徴とする文字入力システム。
A character input system including a character input device and a server that can communicate with each other via a network,
The character input device includes:
An acquisition means for acquiring an image;
Character recognition processing means for extracting a character candidate group based on the character recognition processing for the image;
Client transmission means for transmitting the character candidate group to the server;
Client receiving means for receiving word candidate groups from the server;
A candidate group display means for displaying the character candidate group or the word candidate group as an input candidate group at the time of character input;
With
The server
Server receiving means for receiving the character candidate group from the character input device;
Language processing means for extracting the word candidate group based on the character candidate group received by the server receiving means;
Server transmission means for transmitting the word candidate group extracted by the language processing means to the character input device;
A character input system comprising:
ネットワークを介して互いに通信可能な文字入力装置とサーバとを含む文字入力システムであって、
前記文字入力装置は、
画像を取得する取得手段と、
前記画像を前記サーバに送信するクライアント送信手段と、
前記サーバから文字候補群又は単語候補群を受信するクライアント受信手段と、
前記文字候補群又は前記単語候補群を、文字入力時の入力候補群として表示する候補群表示手段と、
を備え、
前記サーバは、
前記文字入力装置から前記画像を受信するサーバ受信手段と、
前記サーバ受信手段により受信された前記画像に対する文字認識処理に基づいて、前記文字候補群を抽出する文字認識処理手段と、
前記文字認識処理手段により抽出された前記文字候補群に基づいて、前記単語候補群を抽出する言語処理手段と、
前記文字認識処理手段により抽出された前記文字候補群又は前記言語処理手段により抽出された前記単語候補群を、前記文字入力装置に送信するサーバ送信手段と、
を備えることを特徴とする文字入力システム。
A character input system including a character input device and a server that can communicate with each other via a network,
The character input device includes:
An acquisition means for acquiring an image;
Client transmission means for transmitting the image to the server;
Client receiving means for receiving character candidate groups or word candidate groups from the server;
A candidate group display means for displaying the character candidate group or the word candidate group as an input candidate group at the time of character input;
With
The server
Server receiving means for receiving the image from the character input device;
Character recognition processing means for extracting the character candidate group based on character recognition processing for the image received by the server receiving means;
Language processing means for extracting the word candidate group based on the character candidate group extracted by the character recognition processing means;
Server transmitting means for transmitting the character candidate group extracted by the character recognition processing means or the word candidate group extracted by the language processing means to the character input device;
A character input system comprising:
文字入力装置における文字入力方法であって、
取得手段が、画像を取得する取得ステップと、
文字認識処理手段が、前記画像に対する文字認識処理に基づいて、文字候補群を抽出する文字認識処理ステップと、
言語処理手段が、前記文字候補群に基づいて、単語候補群を抽出する言語処理ステップと、
候補群表示手段が、前記文字候補群又は前記単語候補群を、文字入力時の入力候補群として表示する候補群表示ステップと、
を備えることを特徴とする文字入力方法。
A character input method in a character input device,
An acquisition step in which the acquisition means acquires an image;
A character recognition processing means for extracting a character candidate group based on the character recognition processing for the image;
A language processing step for extracting a word candidate group based on the character candidate group;
Candidate group display means, the candidate group display step of displaying the character candidate group or the word candidate group as an input candidate group at the time of character input,
A character input method comprising:
JP2011217988A 2011-09-30 2011-09-30 Character input device, character input system and character input method Pending JP2013077243A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011217988A JP2013077243A (en) 2011-09-30 2011-09-30 Character input device, character input system and character input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011217988A JP2013077243A (en) 2011-09-30 2011-09-30 Character input device, character input system and character input method

Publications (1)

Publication Number Publication Date
JP2013077243A true JP2013077243A (en) 2013-04-25

Family

ID=48480638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011217988A Pending JP2013077243A (en) 2011-09-30 2011-09-30 Character input device, character input system and character input method

Country Status (1)

Country Link
JP (1) JP2013077243A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229091A (en) * 2013-05-23 2014-12-08 オムロン株式会社 Program for character input

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713998A (en) * 1993-06-25 1995-01-17 Canon Inc Character recognizing device and method therefor
JPH11191143A (en) * 1997-12-25 1999-07-13 Canon Inc Device and method for processing information and computer readable memory
JP2010191907A (en) * 2009-02-20 2010-09-02 Panasonic Corp Character input device and character input method
JP2011050038A (en) * 2009-07-27 2011-03-10 Sanyo Electric Co Ltd Image reproducing apparatus and image sensing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713998A (en) * 1993-06-25 1995-01-17 Canon Inc Character recognizing device and method therefor
JPH11191143A (en) * 1997-12-25 1999-07-13 Canon Inc Device and method for processing information and computer readable memory
JP2010191907A (en) * 2009-02-20 2010-09-02 Panasonic Corp Character input device and character input method
JP2011050038A (en) * 2009-07-27 2011-03-10 Sanyo Electric Co Ltd Image reproducing apparatus and image sensing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229091A (en) * 2013-05-23 2014-12-08 オムロン株式会社 Program for character input

Similar Documents

Publication Publication Date Title
US10078376B2 (en) Multimodel text input by a keyboard/camera text input module replacing a conventional keyboard text input module on a mobile device
US10698604B2 (en) Typing assistance for editing
CN106687889B (en) Display portable text entry and editing
US9019308B2 (en) Display apparatus and computer-readable medium
US8952897B2 (en) Single page soft input panels for larger character sets
EP2704061A2 (en) Apparatus and method for recognizing a character in terminal equipment
US10664658B2 (en) Abbreviated handwritten entry translation
US9262399B2 (en) Electronic device, character conversion method, and storage medium
KR20160060110A (en) Quick tasks for on-screen keyboards
CN108256523B (en) Identification method and device based on mobile terminal and computer readable storage medium
WO2015045676A1 (en) Information processing device and control program
US9395911B2 (en) Computer input using hand drawn symbols
JP2016186717A (en) Character conversion device, control method of the same, program, and storage medium
JP2015041284A (en) Text processing apparatus, text display system, and program
EP3467820A1 (en) Information processing device and information processing method
JP2013077243A (en) Character input device, character input system and character input method
JP6342194B2 (en) Electronic device, method and program
US20170131890A1 (en) Touchscreen oriented input integrated with enhanced four-corner indexing
JP6051175B2 (en) Portable terminal, portable terminal program, and keyword input method
JP7098897B2 (en) Image processing equipment, programs and image data
JP5674140B2 (en) Text input device, text input receiving method and program
Bellino et al. CameraKeyboard: A novel interaction technique for text entry through smartphone cameras
JP2018163413A (en) Information processing device, program, and information processing method
JP2010244402A (en) Device, method and program for display of electronic book
JP2024064941A (en) Display method, device, pen-type electronic dictionary, electronic device, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140930

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150310