JP6170241B2 - Character identification device and control program - Google Patents
Character identification device and control program Download PDFInfo
- Publication number
- JP6170241B2 JP6170241B2 JP2016514842A JP2016514842A JP6170241B2 JP 6170241 B2 JP6170241 B2 JP 6170241B2 JP 2016514842 A JP2016514842 A JP 2016514842A JP 2016514842 A JP2016514842 A JP 2016514842A JP 6170241 B2 JP6170241 B2 JP 6170241B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- area
- line
- region
- character string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
Description
本発明は、表示画像に含まれる文字を特定するための文字特定装置に関する。 The present invention relates to a character identification device for identifying a character included in a display image.
近年、画像に含まれる文字(文字列)を文字認識し、文字認識した文字を用いた処理を実行する技術が知られている。このような技術としては、例えば、文字に関する情報を取得し、文字を含む画像に取得した情報から生成した画像を重畳表示させる技術や、抽出した文字を翻訳して、翻訳結果を出力する技術などが知られている。また、上述した技術では、画像に含まれる文字のうち、ユーザが選択した文字について上記のような処理を実行することも可能である。 2. Description of the Related Art In recent years, a technique for recognizing characters (character strings) included in an image and executing processing using the recognized characters is known. As such a technique, for example, a technique for acquiring information on characters and displaying an image generated from the acquired information on an image including characters, a technique for translating the extracted characters, and outputting a translation result, etc. It has been known. In the above-described technique, it is also possible to execute the above-described process for a character selected by the user among characters included in the image.
しかしながら、上述のような技術は、画像全体を文字認識の対象とする場合に、当該画像に多くの文字が記載されていると、目的の文字(例えば、ユーザが選択した文字列)を文字認識して特定するまでに時間がかかってしまうという問題がある。この問題に対する解決策として、以下のような技術が提案されている。下記特許文献1には、ユーザがタッチパネルに対してワンアクションの操作で範囲選択した領域内の文字列のみを文字認識する技術が記載されている。下記特許文献2には、画面全体から文字列行のみを抽出しておき、ユーザがタッチパネルに対してタッチした座標に最も近い文字列行を文字認識する技術が記載されている。下記特許文献3には、ユーザがタッチパネルに対してタッチした座標の近傍に表示された画像から文字列を切り出す技術が記載されている。
However, in the above-described technique, when the entire image is a target for character recognition, if a large number of characters are described in the image, the target character (for example, a character string selected by the user) is recognized. There is a problem that it takes time to specify. As a solution to this problem, the following techniques have been proposed.
しかしながら、上記特許文献1〜3の技術には以下のような問題がある。特許文献1の技術では、範囲選択内に目的の文字列が収まらなかった場合に誤認識が発生するおそれがある。また、特許文献2の技術では、画面全体を行抽出する必要があるため、文字列の特定に時間がかかってしまうおそれがある。また、特許文献3の技術では、ユーザが目的としていない文字列も一緒に切り出す可能性があり、目的の文字列を特定するまでに余計な手順が必要となる可能性がある。つまり、特許文献1〜3の技術は、ユーザが目的とする文字のみを短時間で精度よく特定するには十分でないという課題がある。また、スマートフォンなどの機器において、写真を撮影するためにカメラから入力される画像(いわゆるスルー画像)を表示して、当該スルー画像に対して文字認識を実行する場合、ユーザが機器を動かすたびに表示部に表示される文字が変わるため、上記特許文献1〜3の問題は特に顕著となる。
However, the techniques of
本発明は、上記の課題に鑑みてなされたものであり、その目的は、目的とする文字のみを短時間で精度よく特定することができる文字特定装置等を実現することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to realize a character identification device and the like that can accurately identify only a target character in a short time.
上記の課題を解決するために、本発明の一態様に係る文字特定装置は、表示画像に含まれる文字を特定するための文字特定装置であって、上記表示画像に対するユーザ操作によって特定された上記表示画像内の特定領域を拡大した拡大領域に対し、文字認識を実行する文字認識実行部と、上記文字認識実行部による文字認識によって得られる上記拡大領域に含まれる文字に設定された領域と、上記特定領域との重なり度合いが所定量を超える文字をユーザに選択された文字として特定する選択文字特定部と、を備える。 In order to solve the above-described problem, a character identification device according to an aspect of the present invention is a character identification device for identifying a character included in a display image, and is specified by a user operation on the display image. A character recognition execution unit that performs character recognition on an enlarged region obtained by enlarging a specific region in the display image, and a region that is set as a character included in the enlarged region obtained by character recognition by the character recognition execution unit, A selected character specifying unit that specifies, as a character selected by the user, a character whose degree of overlap with the specific region exceeds a predetermined amount.
本発明の一態様によれば、目的とする文字のみを短時間で精度よく特定することができるという効果を奏する。 According to one aspect of the present invention, there is an effect that only a target character can be specified accurately in a short time.
まず、以下に説明する実施形態1〜3の概要について、図2を参照して説明する。まず、スマートフォン1は、図2の(a)に示すように、画像10(以降、文字列画像10と称する)の中から、入力操作によって特定された領域である総タッチ領域11を特定する。なお図2では、説明の便宜上、文字列画像10の一部のみを示している。次に、スマートフォン1は、図2の(b)に示すように、総タッチ領域11を拡大した文字認識領域12を特定する。スマートフォン1は、この文字認識領域12について、文字認識を実行する。なお、文字認識の対象としては、単一の文字であってもよいし、複数の文字からなる文字列であってもよい。また、以降では文字認識の対象として上記文字列を例に挙げて説明する。続いて、図2の(c)に示すように、スマートフォン1は、文字認識領域12に含まれる行の領域である抽出行領域を特定する。図2の(c)の例の場合、スマートフォン1は、抽出行領域13、抽出行領域14、抽出行領域15を特定する。そして、スマートフォン1は、各抽出行領域と総タッチ領域11との重なり度合いに応じて、選択された文字列を特定する。図2の場合、図2の(d)に示すように、スマートフォン1は選択文字列16を特定する。
First, the outline | summary of Embodiment 1-3 demonstrated below is demonstrated with reference to FIG. First, as illustrated in FIG. 2A, the
以上よりスマートフォン1は、画像全体ではなく、特定領域を拡大した拡大領域に対して文字認識を実行するので、短時間で文字認識を実行することができる。また、文字認識によって得られる拡大領域に含まれる文字列に設定された領域と、特定領域との重なり度合いが所定量を超える文字列を特定するので、選択された文字列を精度よく特定することができる。
As described above, the
以下、実施形態1〜3を詳細に説明する。なお、以下の実施形態においてはスマートフォン1を例に挙げて説明するが、表示画像に含まれる文字を特定するための文字特定装置であれば、本発明を適用可能である。
Hereinafter,
〔実施形態1〕
本発明の一実施形態について、図1および図3〜図8に基づいて説明すれば以下のとおりである。まず、図1を参照して、スマートフォン1(文字特定装置)の要部構成について説明する。スマートフォン1は少なくとも、タッチパネル2、撮影部3、制御部4、記憶部5、および通信部6を備えている。
An embodiment of the present invention will be described below with reference to FIGS. 1 and 3 to 8. First, with reference to FIG. 1, the principal part structure of the smart phone 1 (character identification device) is demonstrated. The
タッチパネル2は、入力部21および表示部22を含む。入力部21は、ユーザによる入力操作を受け付ける入力デバイスである。本実施形態にて説明するタッチパネル2は矩形であり、タッチパネル2には、後述するように、タッチパネル2における座標検知領域の左上頂点を原点とするXY平面座標系が設定されている。入力部21は、指示体(指またはペンなど)の接触(接近も含む)を受け付けるタッチ面と、指示体とタッチ面との間の接触の有無、および、接触位置(座標)を検知するためのタッチセンサとで構成されている。タッチセンサは、指示体とタッチ面との接触の有無を検知できればどのようなセンサで実現されてもよい。また、入力部21は検知した座標などを後述する入力特定部41に出力する。表示部22はスマートフォン1が処理する情報を画像として表示領域に表示する表示デバイスであり、例えばLCD(液晶ディスプレイ)である。具体的には、表示部22は、後述する表示制御部46によって処理された情報が表示される。表示部22に表示される画像の一例としては、文字列画像10が挙げられる。
The
撮影部3は、対象物を撮影するための撮影デバイスであり、いわゆるカメラである。撮影部3としては、スマートフォンに一般的に搭載されている、既存のカメラを用いることができる。撮影部3は、後述する画像取得部47によって制御され、対象物を撮影する。また、撮影部3は、撮影した静止画像や映像を画像取得部47に出力する。
The
制御部4は、スマートフォン1が備える各部を統括制御するものである。制御部4は、入力特定部41、抽出領域特定部42、文字認識部43(文字認識実行部)、選択文字列特定部44(選択文字特定部)、処理実行部45、表示制御部46、および、画像取得部47を含んでいる。
The
入力特定部41は、入力部21が受け付けた入力操作を特定するものである。具体的には、入力特定部41は、上記入力操作における座標、指示体が入力面に接触していた時間、および、入力面に接触した指示体の移動方向などに基づいて、当該入力操作を特定する。なお、入力操作の種別としては、シングルタップ、フリック、ドラッグなどの例があるが、これに限定されない。例えば、入力特定部41は、文字列を含む画像(文字列画像10)が表示部22に表示されている状態で、文字列画像内の文字列に対するユーザのシングルタップ操作、ドラッグ操作またはフリック操作を特定して、当該操作の座標を抽出領域特定部42に供給する。また、入力特定部41は、撮影を実行するための操作(例えば、表示部22に表示されたUI部品に対するシングルタップ操作)を特定して、画像取得部47に撮影を実行するための撮影指示を供給する。
The
抽出領域特定部42は、入力操作によって特定された領域(特定領域)を拡大した領域である拡大領域を特定するものである。この拡大領域の特定について、図3および図4を参照して説明する。なお、図3に示す座標の原点は、入力部21のタッチセンサが座標を検知可能な領域である座標検知領域の左上頂点と対応している。また、本実施形態において座標検知領域は矩形の領域として説明するが、この例に限定されるものではない。
The extraction
まず、抽出領域特定部42は、タッチパネル2に対して行われた入力操作によって選択された領域である総タッチ領域11(特定領域)を特定する。図3の(a)は、ユーザがタッチパネル2に対してシングルタップ操作を行った場合の、総タッチ領域の特定を示す図である。つまり、図3の(a)の例では、ユーザは指示体S(ユーザの指)をタッチパネル2に接触させた後、移動させることなく指示体Sをタッチパネルから離している。抽出領域特定部42は、入力特定部41から指示体Sが接触した座標C1を供給されると、当該座標C1を中心として、一辺の長さがLである正方形の領域であるタッチ領域M1を特定する。ここで、ユーザが指示体をタッチパネルから離すと、タッチ領域M1が総タッチ領域となる。なお、一辺の長さLは適宜設定されればよく、例えば、一辺の長さLは、1.0cm程度であってもよい。これは、成人男性の平均的な人差し指の先端(指先)の大きさであり、ユーザが自身の人差し指を指示体Sとして用いて文字列を選択する場合、指先の大きさと文字の大きさとを同程度にして文字列を選択することを想定したものである。また、入力操作の種類や押圧の強さなどに応じて一辺の長さLを変えてもよい。
First, the extraction
一方、図3の(b)は、ユーザがタッチパネル2に対してドラッグ操作またはフリック操作を行った場合の、総タッチ領域の特定を示す図である。つまり、図3の(b)の例では、ユーザは指示体Sをタッチパネル2に接触させた後、指示体Sを移動させてタッチパネル2から離している。抽出領域特定部42は、入力特定部41から指示体Sが接触したタッチパネル2の位置の各座標、すなわち、図3の(b)の例の場合、座標C1、座標C2、座標C3、および座標C4を供給されると、それぞれの座標を中心として、一辺の長さがLである正方形の領域であるタッチ領域を特定する。すなわち、図3の(b)の例の場合、タッチ領域M1、タッチ領域M2、タッチ領域M3、およびタッチ領域M4を特定する。そして、抽出領域特定部42は、特定した各タッチ領域の頂点座標から、X座標の最小値および最大値、並びに、Y座標の最小値および最大値を特定する。そして、抽出領域特定部42は、特定したX座標の最小値とY座標の最小値からなる座標(xmin,ymin)と、特定したX座標の最大値とY座標の最大値からなる座標(xmax,ymax)とを結ぶ線分が対角線となる矩形領域(総タッチ領域11)を特定する。すなわち、座標(xmin,ymin)および座標(xmax,ymax)は、総タッチ領域11の頂点となる。On the other hand, FIG. 3B is a diagram showing identification of the total touch area when the user performs a drag operation or a flick operation on the
続いて、抽出領域特定部42は文字認識領域12(拡大領域)を特定する。具体的には、図4に示すように、抽出領域特定部42は総タッチ領域11を所定の条件に基づいて拡大し、拡大後の領域を文字認識領域12として特定する。ここで、上記所定の条件の一例について説明する。以下に示す例は文字列画像10に含まれる文字列が横書きである場合の例である。抽出領域特定部42は、総タッチ領域11においてX座標がxminである2つの頂点を結ぶ辺(総タッチ領域11の左辺)からX座標の負方向側に1Lの位置の座標Xminを特定する。また、総タッチ領域11においてX座標がxmaxである2つの頂点を結ぶ辺(総タッチ領域11の右辺)からX座標の正方向側に1Lの位置の座標Xmaxを特定する。さらに、総タッチ領域11においてY座標がyminである2つの頂点を結ぶ辺(総タッチ領域11の上辺)からY座標の負方向側に2Lの位置の座標Yminを特定する。最後に、総タッチ領域11においてY座標がymaxである2つの頂点を結ぶ辺(総タッチ領域11の下辺)からY座標の正方向側に2Lの位置の座標Ymaxを特定する。そして、抽出領域特定部42は、座標(Xmin,Ymin)と座標(Xmax,Ymax)とを結ぶ線分が対角線となる矩形領域である文字認識領域12を特定する。すなわち、座標(Xmin,Ymin)および座標(Xmax,Ymax)は、文字認識領域12の頂点となる。Subsequently, the extraction
上述した所定の条件について換言すれば、抽出領域特定部42は、総タッチ領域11を上下方向に2L分拡げ、左右方向に1L分広げた領域を文字認識領域12として特定する。ここで、文字列画像10が新聞や雑誌などを撮影することによって得られた画像である場合、大きい文字は小さい文字の約2〜3倍であることが多い。つまり、文字列が横書きである場合、小さい文字をユーザが自身の指先の大きさに合わせるために文字列画像10の倍率を変更した後、倍率を変更することなく大きい文字に対して入力操作を行ったとしても、大きい文字全体が文字認識領域に含まれるように上下の幅を設定する必要がある。そのため、上述した例では、総タッチ領域11を上下方向に2L分広げている。また、文字列画像10中の単語を選択したい場合に、当該単語の隣の文字に指示体が接触してしまうことがある。この場合、単語の隣の文字は文字全体が選択されていない可能性があり、総タッチ領域11の左右の幅を広げないと、単語の隣の文字全体が文字認識の対象とならない場合がある。つまり、抽出領域特定部42は、選択された文字を正確に文字認識するために、左右の幅を1L分広げる。なお、所定の条件、すなわち、総タッチ領域11をどのように拡大するかについては、上述した例に限定されない。また、抽出領域特定部42は特定した文字認識領域12の座標情報を文字認識部43に供給する。また、抽出領域特定部42は特定した総タッチ領域11の座標情報を選択文字列特定部44に供給する。
In other words, the extraction
文字認識部43は、文字列を含む画像について文字認識処理を実行するものである。具体的には、文字認識部43は、文字認識領域12の座標情報を供給されると、画像取得部47から供給された文字列画像10における文字認識領域12の領域内の文字列を行単位で抽出する。ここで、文字列の抽出方法としては、既存の光学文字認識の技術が利用できるため、詳細な説明は省略する。文字認識部43は、抽出した行単位の文字列(以降、抽出行と呼称する)と、抽出行全体を含む最小の矩形領域(以降、抽出行領域と呼称する)の座標情報とを選択文字列特定部44に供給する。
The
選択文字列特定部44は、文字認識部43による文字認識によって得られる、文字認識領域12に含まれる文字列に設定された領域と、総タッチ領域11との重なり度合いが所定量を超える文字列を特定するものである。この文字列の特定について、図5を参照して説明する。まず選択文字列特定部44は、文字認識部43から抽出行および抽出行領域の座標情報を供給されると、当該抽出行が縦書きであるか横書きであるかを判定する。なお、図5に示す例は、抽出行が横書きであると判定された場合について説明する。続いて、選択文字列特定部44は、文字認識領域12から抽出した抽出行から、行領域と特定領域との重なり度合いが第1の所定量を超える抽出行、すなわち、該抽出行に含まれる文字列が特定対象となる抽出行である文字列特定行を特定する。具体的には、まず選択文字列特定部44は、抽出行のうち抽出行領域における所定座標(例えば、抽出行領域の左上頂点の座標)のY座標が最も小さい抽出行を判定行として特定する。つまり、選択文字列特定部44は、図5の(a)に示す抽出行のうち、抽出行領域13を有する抽出行(抽出行のうち最も上にある抽出行)を判定行として特定する。そして、選択文字列特定部44は、判定行の抽出行領域の座標情報と抽出領域特定部42から供給された総タッチ領域11の座標情報とを比較して、抽出行領域と総タッチ領域11とが重なっているか否かを判定する。図5の(a)に示すように、抽出行領域13と総タッチ領域11とは重なっていない。この場合、選択文字列特定部44は、抽出行領域13を有する抽出行を文字列特定行と特定しない。
The selected character
続いて、選択文字列特定部44は、所定座標のY座標が次に小さい抽出行である抽出行領域14を有する抽出行を判定行と特定する。そして、選択文字列特定部44は、抽出行領域14と総タッチ領域11とが重なっているか否かを判定する。図5の(a)に示すように、抽出行領域14と総タッチ領域11とは重なっている。この場合、選択文字列特定部44は、総タッチ領域11の上辺または下辺のいずれか一方が抽出行領域14内に含まれるか否かを判定する。換言すれば、選択文字列特定部44は、総タッチ領域11の境界線のうち、文字列の進行方向と平行な2辺のいずれか一方が抽出行領域14と重なっているか否かを判定する。具体的には、選択文字列特定部44は、総タッチ領域11におけるY座標の最小値およびY座標の最大値の値が、抽出行領域におけるY座標の最小値とY座標の最大値とからなるY座標数値範囲内に含まれているか否かを判定する。図5の(a)の場合、総タッチ領域11におけるY座標の最小値が抽出行領域14におけるY座標数値範囲内に含まれる。この場合、選択文字列特定部44は、抽出行領域と総タッチ領域11とが重なっている領域である行重畳領域を特定する。そして、行重畳領域におけるY座標の最大値からY座標の最小値を減算した値(すなわち、行重畳領域の高さの値)が、抽出行領域14におけるY座標の最大値からY座標の最小値を減算した値(すなわち、抽出行領域14の高さの値)に対して所定割合以上の長さ(例えば、半分以上の長さ)であるか否かを判定する。図5の(a)に示すように、行重畳領域の高さの値は抽出行領域14の高さの値の半分以上である。この場合、選択文字列特定部44は、抽出行領域14を有する抽出行を文字列特定行と特定する。なお、抽出行領域15は総タッチ領域11と重なっており、上記Y座標数値範囲内に、総タッチ領域11におけるY座標の最大値が含まれている。しかしながら、行重畳領域の高さの値が抽出行領域の高さの値の半分以上とならないため、選択文字列特定部44は、抽出行領域15を有する抽出行を文字列特定行と特定しない。
Subsequently, the selected character
次に、選択文字列特定部44は文字列特定行を特定すると、当該文字列特定行内に含まれる文字から、文字領域と特定領域との重なり度合いが第2の所定量を超える文字、すなわち、入力操作によって選択された選択文字を特定する。具体的には、まず選択文字列特定部44は、文字列特定行(図5の例の場合、抽出行14)内に含まれる各文字について、文字全体を含む最小の矩形領域(以降、文字領域と呼称する)の座標情報を特定する。
Next, when the selected character
続いて、選択文字列特定部44は、文字列特定行内に含まれる各文字のうち、文字領域における所定座標(例えば、文字領域の左上頂点の座標)のX座標が最も小さい文字を判定文字として特定する。つまり選択文字列特定部44は、図5の(b)に示す文字のうち、文字領域31を有する文字(文字列特定行内において最も左にある文字)を判定文字として特定する。そして選択文字列特定部44は、判定文字の文字領域の座標情報と総タッチ領域11の座標情報とを比較して、文字領域と総タッチ領域11とが重なっているか否かを判定する。図5の(b)に示すように、文字領域31と総タッチ領域11とは重なっている。この場合、選択文字列特定部44は、総タッチ領域11の左辺または右辺のいずれか一方が文字領域内に含まれているか否かを判定する。換言すれば、選択文字列特定部44は、総タッチ領域11の境界線のうち、文字列の進行方向と直角な2辺のいずれか一方が文字領域と重なっているか否かを判定する。具体的には、選択文字列特定部44は、総タッチ領域11におけるX座標の最小値およびX座標の最大値の値が、文字領域におけるX座標の最小値とX座標の最大値とからなるX座標数値範囲内に含まれているか否かを判定する。図5の(b)の場合、総タッチ領域11におけるX座標の最小値が文字領域31におけるX座標数値範囲内に含まれる。この場合、選択文字列特定部44は、文字領域と総タッチ領域11とが重なっている領域である文字重畳領域を特定する。そして、文字重畳領域におけるX座標の最大値からX座標の最小値を減算した値(すなわち、文字重畳領域の幅の値)が、文字領域31におけるX座標の最大値からX座標の最小値を減算した値(すなわち、文字領域31の幅の値)に対して所定割合以上の長さ(例えば、半分以上の長さ)であるか否かを判定する。図5の(b)に示すように、文字重畳領域の幅の値は文字領域31の幅の値の半分以上である。この場合、選択文字列特定部44は文字領域31を有する文字を選択文字と特定し、後述する選択文字格納部51に当該選択文字および当該選択文字の座標情報を格納する。
Subsequently, the selected character
続いて、選択文字列特定部44は、所定座標のX座標が次に小さい文字である文字領域32を有する文字を判定文字と特定する。そして、上述した例と同様の処理を行う。文字領域32を有する文字の場合、文字領域31と総タッチ領域11とが重なっている。そして、総タッチ領域11の左辺または右辺は、いずれも文字領域32内に含まれていない。この場合、選択文字列特定部44は、文字領域32を有する文字を選択文字と特定し、後述する選択文字格納部51に当該選択文字および当該選択文字の座標情報を格納する。また、選択文字列特定部44は、文字領域33を有する文字も同様に選択文字と特定する。続いて、文字領域34を有する文字は、文字領域34と総タッチ領域11とが重なっている。そして、総タッチ領域11におけるX座標の最大値が文字領域34におけるX座標数値範囲内に含まれる。さらに、文字重畳領域の幅の値は文字領域34の幅の値の半分以上である。よって、選択文字列特定部44は、文字領域34を有する文字を選択文字と特定し、後述する選択文字格納部51に当該選択文字および当該選択文字の文字領域の座標情報を格納する。一方、文字領域35を有する文字は、文字領域35と総タッチ領域11とが重なっていない。この場合、選択文字列特定部44は、文字領域35を有する抽出行を文字列特定行と特定しない。
Subsequently, the selected character
最後に、選択文字列特定部44は、すべての文字列特定行において選択文字を特定すると、選択文字格納部51に格納したすべての選択文字および選択文字の座標情報を読み出し、選択文字の文字領域の座標情報に基づいて選択文字を並べ、文字列を特定する。そして、特定した文字列を処理実行部45に供給する。
Finally, when the selected character
処理実行部45は、特定された文字列に基づいて所定の処理を実行するものである。具体的には、処理実行部45は、選択文字列特定部44から文字列を供給されると、後述する通信部6を介して当該文字列に関連する情報を取得する。取得する情報の一例としては、検索エンジンによって当該文字列を検索した検索結果、当該文字列に関連する画像や映像などが挙げられる。そして、処理実行部45は、取得した情報を用いて、取得した情報にアクセスするためのリンクを含むリンク画像を作成する。例えば、当該文字列の検索結果を示す画像、当該文字列に関連する映像のサムネイル画像、当該文字列に関連する画像の縮小画像などをリンク画像として作成する。なお、処理実行部45が取得した情報を用いて作成するのはリンク画像に限定されず、例えばリンクを含む文字列であってもよい。そして、処理実行部45は作成したリンク画像を表示制御部46に供給する。なお、処理実行部45が実行する処理は上述した例に限定されない。つまり、処理実行部45が実行する処理は、供給された文字列に基づいて実行する処理であればよく、例えば、供給された文字列を英訳する処理であってもよい。
The
表示制御部46は、表示部22に表示する画像を決定するものである。具体的には、表示制御部46は、画像取得部47から文字列画像10を供給されると、供給された文字列画像10を表示部22に表示する。また、表示制御部46は処理実行部45からリンク画像を取得すると、当該リンク画像を文字列画像10に重畳させて表示部22に表示する。
The
画像取得部47は、撮影部3を動作させて文字列画像10を取得するものである。具体的には、画像取得部47は、入力特定部41から撮影指示を供給されると、撮影部3に画像を撮影させる。そして、撮影部3が撮影した画像(文字列画像10)を取得し、取得した文字列画像10を文字認識部43および表示制御部46に供給する。なお、本実施形態における画像取得部47は、撮影部3が撮影した画像を取得する構成であるが、この例に限定されない。例えば、画像取得部47は、入力特定部41からの指示を受けて、記憶部5に記憶されている文字列画像10を読み出してもよいし、通信部6を介して文字列画像10を取得してもよい。また、取得する画像は、動画であってもよいし、撮影部3で写真を撮影するために表示部22に表示される、いわゆるスルー画像であってもよい。
The
記憶部5は、スマートフォン1にて使用される各種データを記憶する記憶デバイスである。図1に示すように、記憶部5は選択文字格納部51を含んでいる。選択文字格納部51は、選択文字列特定部44が選択文字と特定した選択文字および選択文字の座標情報を対応付けて一時的に記憶するものである。
The
通信部6は、スマートフォン1と外部機器との間で情報の送受信を行うための通信デバイスである。具体的には、通信部6は、処理実行部45によって制御されて、選択文字列特定部44が特定した文字列に関連する情報を外部から取得する。
The
次に、図6から図8を参照して、入力操作によって選択された文字列を特定するための文字列特定処理の流れについて説明する。なお、図6は、表示部22に文字列画像10が表示された後の処理の流れについて記載している。
Next, with reference to FIG. 6 to FIG. 8, the flow of the character string specifying process for specifying the character string selected by the input operation will be described. FIG. 6 describes the flow of processing after the
まず、入力部21に対して入力された入力操作を、入力特定部41が特定すると(S1でYES)、入力特定部41は特定した入力操作の座標、すなわち、指示体Sが接触したタッチパネル2の位置の各座標を抽出領域特定部42に供給する。続いて、抽出領域特定部42は総タッチ領域11を特定する(S2)。特定の具体例については上述しているため省略する。続いて抽出領域特定部42は文字認識領域12を特定する(S3)。具体的には、抽出領域特定部42は、総タッチ領域11を所定の条件に基づいて拡大し、拡大後の領域を文字認識領域12として特定する。なお、所定の条件の具体例については上述しているため、ここでの説明を省略する。抽出領域特定部42は特定した文字認識領域12の座標情報を文字認識部43に供給する。また、抽出領域特定部42は特定した総タッチ領域11の座標情報を選択文字列特定部44に供給する。続いて、文字認識部43は文字認識領域12の文字認識処理を実行する(S4)。具体的には、文字認識部43は、文字認識領域12の座標情報を供給されると、画像取得部47から供給された文字列画像10における、文字認識領域12の領域内の文字列を行単位で抽出する(抽出行を抽出する)。そして、文字認識部43は、抽出した抽出行と、抽出行全体を含む最小の矩形領域である抽出行領域の座標情報とを選択文字列特定部44に供給する。
First, when the
続いて、選択文字列特定部44は、供給された抽出行が横書きであるか否かを判定する(S5)。なお、縦書きである場合(S5でNO)の処理の流れについては、後述する実施形態2にて説明する。横書きである場合(S5でYES)、選択文字列特定部44は、文字認識領域12中の最も上にある行を判定行として選択する(S11)。続いて、選択文字列特定部44は、判定行領域と総タッチ領域11とが重なっているか否かを判定する(S12)。ここで、判定行領域とは、判定行と特定された抽出行の抽出行領域である。重なっていない場合(S12でNO)、選択文字列特定部44は、現在の判定行が文字認識領域12中の最終行であるか否かを判定する(S16)。具体的には、選択文字列特定部44は、現在の判定行が、抽出行のうち、抽出行領域における所定座標(例えば、抽出行領域の左上頂点の座標)のY座標が最も大きい抽出行であるか否かを判定する。現在の判定行が最終行でない場合(S16でNO)、選択文字列特定部44は、現在の判定行の1つ下の行を判定行とする(S17)。具体的には、選択文字列特定部44は、抽出行領域における所定座標のY座標が、現在の判定行の判定行領域における所定座標のY座標の次に小さい抽出行を、次の判定行とする。そして、選択文字列特定部44は、ステップS12の処理に戻る。なお、現在の判定行が最終行である場合については後述する。
Subsequently, the selected character
これに対して、判定行領域と総タッチ領域11とが重なっている場合(S12でYES)、選択文字列特定部44は、総タッチ領域11の上辺または下辺のいずれか一方のみが判定行領域内にあるか否かを判定する(S13)。判定の具体例については上述しているため省略する。上辺または下辺のいずれか一方のみが判定行領域内にある場合(S13でYES)、選択文字列特定部44は、行重畳領域の高さが判定行領域の高さの半分以上であるか否かを判定する(S14)。判定の具体例については上述しているため省略する。半分以上でない場合(S14でNO)、選択文字列特定部44は、現在の判定行が文字認識領域12中の最終行であるか否かを判定する(S16)。以降の処理については既に説明しているためここでの説明を省略する。
On the other hand, when the determination line area and the
これに対して、行重畳領域の高さが判定行領域の高さの半分以上である場合(S14でYES)、選択文字列特定部44は、判定行を文字列特定行であると特定して、文字判定処理を実行する(S15)。また、総タッチ領域11の上辺または下辺のいずれか一方のみが判定行領域内にない場合(S13でNO)、選択文字列特定部44は、ステップS14の処理を省略して、判定行を文字列特定行であると特定する。そして、文字判定処理を実行する(S15)。
On the other hand, when the height of the line superimposition area is not less than half the height of the determination line area (YES in S14), the selected character
続いて、文字判定処理について説明する。選択文字列特定部44は、文字列特定行内に含まれる各文字について、文字領域の座標情報を特定する。続いて、選択文字列特定部44は、文字列特定行中の最も左にある文字を判定文字として選択する(S21)。続いて、選択文字列特定部44は、判定文字領域と総タッチ領域11とが重なっているか否かを判定する(S22)。ここで、判定文字領域とは、判定文字と特定された文字の文字領域である。重なっていない場合(S22でNO)、選択文字列特定部44は、現在の判定文字が文字列特定行中の最終文字であるか否かを判定する(S26)。具体的には、選択文字列特定部44は、現在の判定文字が、文字列特定行中の文字のうち、文字領域における所定座標(例えば、文字領域の左上頂点の座標)のX座標が最も大きい文字であるか否かを判定する。現在の判定文字が最終文字でない場合(S26でNO)、選択文字列特定部44は、現在の判定文字の1つ右の文字を判定文字とする(S27)。具体的には、選択文字列特定部44は、文字領域における所定座標のX座標が、現在の判定文字の判定文字領域における所定座標のX座標の次に小さい文字を、次の判定文字とする。そして、選択文字列特定部44は、ステップS22の処理に戻る。なお、現在の判定文字が最終文字である場合については後述する。
Next, the character determination process will be described. The selected character
これに対して、判定文字領域と総タッチ領域11とが重なっている場合(S22でYES)、選択文字列特定部44は、総タッチ領域11の左辺または右辺のいずれか一方のみが判定文字領域内にあるか否かを判定する(S23)。判定の具体例については上述しているため省略する。左辺または右辺のいずれか一方のみが判定文字領域内にある場合(S23でYES)、選択文字列特定部44は、文字重畳領域の幅が判定文字領域の幅の半分以上であるか否かを判定する(S24)。判定の具体例については上述しているため省略する。半分以上でない場合(S24でNO)、選択文字列特定部44は、現在の判定文字が文字列特定行中の最終文字であるか否かを判定する(S26)。以降の処理については既に説明しているためここでの説明を省略する。
On the other hand, when the determination character area and the
これに対して、文字重畳領域の幅が判定文字領域の幅の半分以上である場合(S24でYES)、選択文字列特定部44は、判定文字を選択文字であると特定して、当該選択文字を選択文字格納部51に格納する(S25)。また、総タッチ領域11の左辺または右辺のいずれか一方のみが判定文字領域内にない場合(S23でNO)、選択文字列特定部44は、ステップS24の処理を省略して、判定文字を選択文字であると特定する。そして、当該選択文字を選択文字格納部51に格納する(S25)。
On the other hand, when the width of the character superimposed area is half or more than the width of the determination character area (YES in S24), the selected character
続いて、選択文字列特定部44は、現在の判定文字が文字列特定行中の最終文字であるか否かを判定する(S26)。最終文字であると判定した場合(S26でYES)、選択文字列特定部44は、現在の判定行が文字認識領域12中の最終行であるか否かを判定する(S16)。最終行であると判定した場合(S16でYES)、選択文字列特定部44は選択された文字列を特定する(S18)。そして、特定した文字列を処理実行部45に供給する。以上で、文字列特定処理は終了する。
Subsequently, the selected character
〔実施形態2〕
本発明の他の実施形態について、図6、図9、および図10に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。本実施形態では、文字認識部43から供給された抽出行を、選択文字列特定部44が縦書きであると判定した場合の文字列特定処理の流れについて説明する。なお、実施形態1で説明した文字列特定処理の流れと共通する処理については、その詳細な説明を省略する。[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIG. 6, FIG. 9, and FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted. In the present embodiment, the flow of the character string specifying process when the selected character
供給された抽出行が縦書きである場合(S5でNO)、選択文字列特定部44は文字認識領域12中の最も右にある行を判定行として選択する(S31)。具体的には、選択文字列特定部44は抽出行のうち、抽出行領域における所定座標(例えば、抽出行領域の左上頂点の座標)のX座標が最も大きい抽出行を判定行として特定する。続いて、選択文字列特定部44は、判定行領域と総タッチ領域11とが重なっているか否かを判定する(S32)。重なっていない場合(S32でNO)、選択文字列特定部44は、現在の判定行が文字認識領域12中の最終行であるか否かを判定する(S36)。具体的には、選択文字列特定部44は、現在の判定行が、抽出行のうち、抽出行領域における所定座標(例えば、抽出行領域の左上頂点の座標)のX座標が最も小さい抽出行であるか否かを判定する。現在の判定行が最終行でない場合(S36でNO)、選択文字列特定部44は現在の判定行の1つ左の行を判定行とする(S37)。具体的には、選択文字列特定部44は、抽出行領域における所定座標のX座標が、現在の判定行の判定行領域における所定座標のX座標の次に大きい抽出行を、次の判定行とする。そして、選択文字列特定部44はステップS12の処理に戻る。なお、現在の判定行が最終行である場合については後述する。
When the supplied extracted line is vertically written (NO in S5), the selected character
これに対して、判定行領域と総タッチ領域11とが重なっている場合(S32でYES)、選択文字列特定部44は総タッチ領域11の左辺または右辺のいずれか一方のみが判定行領域内にあるか否かを判定する(S33)。具体的には選択文字列特定部44は、総タッチ領域11におけるX座標の最小値およびX座標の最大値の値が、判定行領域におけるX座標の最小値とX座標の最大値とからなるX座標数値範囲内に含まれているか否かを判定する。左辺または右辺のいずれか一方のみが判定行領域内にある場合(S33でYES)、選択文字列特定部44は行重畳領域の幅が判定行領域の幅の半分以上であるか否かを判定する(S34)。具体的には、選択文字列特定部44は、行重畳領域におけるX座標の最大値からX座標の最小値を減算した値(すなわち、行重畳領域の幅の値)が、判定行領域におけるX座標の最大値からX座標の最小値を減算した値(すなわち、判定行領域の幅の値)の半分以上であるか否かを判定する。半分以上でない場合(S34でNO)、選択文字列特定部44は現在の判定行が文字認識領域12中の最終行であるか否かを判定する(S36)。以降の処理については既に説明しているためここでの説明を省略する。なお、半分以上としたのは一例であり、判定の閾値はこの例に限定されない。
On the other hand, when the determination line area and the
これに対して、行重畳領域の幅が判定行領域の幅の半分以上である場合(S34でYES)、選択文字列特定部44は、判定行を文字列特定行であると特定して、文字判定処理を実行する(S15)。また、総タッチ領域11の左辺または右辺のいずれか一方のみが判定行領域内にない場合(S33でNO)、選択文字列特定部44は、ステップS34の処理を省略して、判定行を文字列特定行であると特定する。そして、文字判定処理を実行する(S35)。
On the other hand, when the width of the line overlap area is half or more of the width of the determination line area (YES in S34), the selected character
続いて、文字判定処理について説明する。選択文字列特定部44は、文字列特定行内に含まれる各文字について、文字領域の座標情報を特定する。続いて、選択文字列特定部44は、文字列特定行中の最も上にある文字を判定文字として選択する(S41)。具体的には、選択文字列特定部44は、文字列特定行内に含まれる各文字のうち、文字領域における所定座標(例えば、文字領域の左上頂点の座標)のY座標が最も小さい文字を判定文字として特定する。続いて、選択文字列特定部44は、判定文字領域と総タッチ領域11とが重なっているか否かを判定する(S42)。重なっていない場合(S42でNO)、選択文字列特定部44は、現在の判定文字が文字列特定行中の最終文字であるか否かを判定する(S46)。具体的には、選択文字列特定部44は、現在の判定文字が、文字列特定行中の文字のうち、文字領域における所定座標(例えば、文字領域の左上頂点の座標)のY座標が最も大きい文字であるか否かを判定する。現在の判定文字が最終文字でない場合(S46でNO)、選択文字列特定部44は、現在の判定文字の1つ下の文字を判定文字とする(S47)。具体的には、選択文字列特定部44は、文字領域における所定座標のY座標が、現在の判定文字の判定文字領域における所定座標のY座標の次に小さい文字を、次の判定文字とする。そして、選択文字列特定部44は、ステップS42の処理に戻る。なお、現在の判定文字が最終文字である場合については後述する。
Next, the character determination process will be described. The selected character
これに対して、判定文字領域と総タッチ領域11とが重なっている場合(S42でYES)、選択文字列特定部44は、総タッチ領域11の上辺または下辺のいずれか一方のみが判定文字領域内にあるか否かを判定する(S43)。具体的には、選択文字列特定部44は、総タッチ領域11におけるY座標の最小値およびY座標の最大値の値が、判定文字領域におけるY座標の最小値とY座標の最大値とからなるY座標数値範囲内に含まれているか否かを判定する。上辺または下辺のいずれか一方のみが判定文字領域内にある場合(S43でYES)、選択文字列特定部44は、文字重畳領域の高さが判定文字領域の高さの半分以上であるか否かを判定する(S44)。具体的には、選択文字列特定部44は、文字重畳領域におけるY座標の最大値からY座標の最小値を減算した値(すなわち、文字重畳領域の高さの値)が、判定文字領域におけるY座標の最大値からY座標の最小値を減算した値(すなわち、判定文字領域の高さの値)の半分以上であるか否かを判定する。半分以上でない場合(S44でNO)、選択文字列特定部44は、現在の判定文字が文字列特定行中の最終文字であるか否かを判定する(S46)。以降の処理については既に説明しているためここでの説明を省略する。なお、半分以上としたのは一例であり、判定の閾値はこの例に限定されない。
On the other hand, when the determination character area and the
これに対して、文字重畳領域の幅が判定文字領域の高さの半分以上である場合(S44でYES)、選択文字列特定部44は、判定文字を選択文字であると特定して、当該選択文字を選択文字格納部51に格納する(S45)。また、総タッチ領域11の上辺または下辺のいずれか一方のみが判定文字領域内にない場合(S43でNO)、選択文字列特定部44は、ステップS44の処理を省略して、判定文字を選択文字であると特定する。そして、当該選択文字を選択文字格納部51に格納する(S45)。
On the other hand, when the width of the character superimposed region is half or more of the height of the determination character region (YES in S44), the selected character
続いて、選択文字列特定部44は、現在の判定文字が文字列特定行中の最終文字であるか否かを判定する(S46)。最終文字であると判定した場合(S46でYES)、選択文字列特定部44は、現在の判定行が文字認識領域12中の最終行であるか否かを判定する(S36)。最終行であると判定した場合(S36でYES)、選択文字列特定部44は選択された文字列を特定する(S38)。以上で、文字列特定処理は終了する。
Subsequently, the selected character
〔実施形態3〕
スマートフォン1の制御ブロック(特に入力特定部41、抽出領域特定部42、文字認識部43、選択文字列特定部44、処理実行部45、表示制御部46、および画像取得部47)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、スマートフォン1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。[Embodiment 3]
The control blocks of the smartphone 1 (in particular, the
〔まとめ〕
本発明の態様1に係る文字特定装置(スマートフォン1)は、表示画像に含まれる文字を特定するための文字特定装置であって、上記表示画像に対するユーザ操作によって特定された上記表示画像内の特定領域を拡大した拡大領域に対し、文字認識を実行する文字認識実行部(文字認識部43)と、上記文字認識実行部による文字認識によって得られる上記拡大領域に含まれる文字に設定された領域と、上記特定領域との重なり度合いが所定量を超える文字をユーザに選択された文字として特定する選択文字特定部(選択文字列特定部44)と、を備える。[Summary]
A character specifying device (smart phone 1) according to
上記の構成によれば、画像全体ではなく、特定領域を拡大した拡大領域に対して文字認識を実行する。これにより、画像全体に対し文字認識処理を実行する場合と比較して、文字認識処理に要する時間を短くすることができる。また、拡大領域に対して文字認識を実行するので、少なくともユーザが選択したい文字を完全に含む領域を文字認識処理の対象とすることができる。よって、ユーザが選択したい文字を完全な状態で文字認識することができる。さらに上記の構成によれば、拡大領域に含まれる文字に設定された領域と、特定領域との重なり度合いが所定量を超える文字をユーザに選択された文字として特定する。これにより、選択された文字を精度よく特定することができる。以上より、目的とする文字のみを短時間で精度よく特定することができる。 According to said structure, character recognition is performed with respect to the expansion area which expanded the specific area instead of the whole image. Thereby, compared with the case where character recognition processing is performed with respect to the whole image, the time which character recognition processing requires can be shortened. In addition, since character recognition is performed on the enlarged region, at least a region that completely includes a character that the user wants to select can be a target of character recognition processing. Therefore, the character that the user wants to select can be recognized in a complete state. Furthermore, according to said structure, the character with which the overlap degree of the area | region set to the character contained in an expansion area and a specific area exceeds predetermined amount is pinpointed as a character selected by the user. Thereby, the selected character can be specified with high accuracy. From the above, it is possible to specify only the target character with high accuracy in a short time.
本発明の態様2に係る文字特定装置は、上記態様1において、上記選択文字特定部は、上記文字認識実行部による文字認識によって得られる上記拡大領域に含まれる文字が形成する行ごとに設定される、上記行が存在する領域である行領域と上記特定領域との重なり度合いが第1の所定量を超えたとき、該行領域に含まれる文字を特定対象としてもよい。
In the character specifying device according to
上記の構成によれば、行領域と特定領域との重なり度合いが第1の所定量を超えたとき、該行領域に含まれる文字を特定対象とする。すなわち、拡大領域に含まれる行のうち、文字を特定する処理を行う行を絞ることができる。よって、拡大領域に含まれるすべての行について文字の特定を行わなくてよいため、文字の特定を短時間で行うことができる。 According to the above configuration, when the degree of overlap between the line area and the specific area exceeds the first predetermined amount, the character included in the line area is specified. That is, among the lines included in the enlarged area, it is possible to narrow down the lines for performing the process of specifying characters. Therefore, since it is not necessary to specify characters for all the lines included in the enlarged region, it is possible to specify characters in a short time.
本発明の態様3に係る文字特定装置は、上記態様2において、上記特定領域および上記行領域は矩形であり、上記選択文字特定部は、(1)上記行領域と上記特定領域とが重なっており、かつ、上記特定領域の境界線のうち、上記文字の進行方向と平行な2辺がいずれも上記行領域と重なっている、または、(2)上記行領域と上記特定領域とが重なっており、かつ、上記特定領域の境界線のうち、上記文字の進行方向と平行な2辺がいずれも上記行領域と重なっていない場合、該行領域に含まれる文字を特定対象としてもよい。
The character identification device according to
上記の構成によれば、特定領域の大部分が行領域と重なっているとき、該行領域に含まれる文字を特定対象とする。ここで、特定領域の大部分が重なっている行は、操作によって特定された行である可能性が高い。つまり、操作によって特定された行である可能性が高い行を、特定する文字が含まれる行と決定するので、文字の特定を精度よく行うことができる。 According to the above configuration, when most of the specific area overlaps the line area, the characters included in the line area are specified. Here, there is a high possibility that the line where most of the specific areas overlap is a line specified by the operation. That is, since a line that is likely to be a line specified by an operation is determined as a line that includes the character to be specified, the character can be specified with high accuracy.
本発明の態様4に係る文字特定装置は、上記態様3において、上記選択文字特定部は、上記特定領域の境界線のうち、上記文字の進行方向と平行な2辺のいずれか一方のみが上記行領域と重なっており、かつ、上記行領域と上記特定領域とが重なっている領域である行重畳領域における上記文字の進行方向と直角な辺の長さが、上記行領域における上記文字の進行方向と直角な辺の長さに対して所定割合以上の長さであるとき、該行領域に含まれる文字を特定対象としてもよい。
In the character identification device according to
上記の構成によれば、特定領域の境界線のうち文字の進行方向と平行な2辺のいずれか一方のみが行領域と重なっている場合において、重なり度合いが大きい行を特定する。ここで、重なり度合いが大きい行は操作によって特定された行である可能性が高い。つまり、操作によって特定された行である可能性が高い行に含まれる文字を特定対象とする。よって、文字の特定を精度よく行うことができる。 According to the above configuration, when only one of the two sides parallel to the character advancing direction of the boundary line of the specific area overlaps the line area, a line having a large degree of overlap is specified. Here, there is a high possibility that a line having a high degree of overlap is a line specified by the operation. That is, a character included in a line that is highly likely to be a line specified by an operation is set as a specification target. Therefore, the character can be specified with high accuracy.
本発明の態様5に係る文字特定装置は、上記態様2から4のいずれかにおいて、上記選択文字特定部は、上記特定領域との重なり度合いが上記第1の所定量を超えた行領域に含まれる文字ごとに設定される、上記文字が存在する領域である文字領域と上記特定領域との重なり度合いが第2の所定量を超えたとき、該文字を特定する文字としてもよい。
The character identification device according to
上記の構成によれば、文字と特定領域との重なり度合いが第2の所定量を超えたとき、該文字を特定する文字とする。つまり、選択された文字であるか否かを、一文字ごとに判定して選択された文字を特定する。よって、文字の特定を精度よく行うことができる。 According to the above configuration, when the degree of overlap between the character and the specific area exceeds the second predetermined amount, the character is specified. That is, it is determined for each character whether or not it is a selected character, and the selected character is specified. Therefore, the character can be specified with high accuracy.
本発明の態様6に係る文字特定装置は、上記態様5において、上記文字領域は矩形であり、上記選択文字特定部は、(1)上記文字領域と上記特定領域とが重なっており、かつ、上記特定領域の境界線のうち、上記文字の進行方向と直角な2辺がいずれも上記文字領域と重なっている、または、(2)上記文字領域と上記特定領域とが重なっており、かつ、上記特定領域の境界線のうち、上記文字の進行方向と直角な2辺がいずれも上記文字領域と重なっていない場合、上記文字領域を設定された文字を、特定する文字としてもよい。
In the character specifying device according to
上記の構成によれば、文字領域の大部分が特定領域と重なっているとき、文字領域を設定された文字を、特定する文字とする。ここで、文字領域の大部分が特定領域と重なっている文字は、ユーザが選択しようとした文字である可能性が高い。つまり、ユーザが選択しようとした文字である可能性が高い文字を、特定する文字とするので、文字の特定を精度よく行うことができる。 According to the above configuration, when most of the character area overlaps the specific area, the character set as the character area is set as the character to be specified. Here, there is a high possibility that a character in which most of the character area overlaps the specific area is a character that the user has attempted to select. In other words, since the character that is highly likely to be selected by the user is the character to be specified, the character can be specified with high accuracy.
本発明の態様7に係る文字特定装置は、上記態様6において、上記選択文字特定部は、上記特定領域の境界線のうち、上記文字の進行方向と直角な2辺のいずれか一方のみが上記文字領域と重なっており、かつ、上記文字領域と上記特定領域とが重なっている領域である文字重畳領域における上記文字の進行方向と平行な辺の長さが、上記文字領域における上記文字の進行方向と直角な辺の長さに対して所定割合以上の長さであるとき、上記文字領域を設定された文字を、特定する文字としてもよい。
In the character specifying device according to aspect 7 of the present invention, in the
上記の構成によれば、特定領域の境界線のうち文字の進行方向と直角な2辺のいずれか一方のみが文字領域と重なっている場合において、重なり度合いが大きい文字を特定する。ここで、重なり度合いが大きい文字はユーザが選択しようとした文字である可能性が高い。つまり、ユーザが選択しようとした文字である可能性が高い文字を、特定する文字とするので、文字の特定を精度よく行うことができる。 According to the above configuration, when only one of the two sides perpendicular to the character traveling direction overlaps with the character region among the boundary lines of the specific region, the character having a large degree of overlap is specified. Here, there is a high possibility that a character with a large degree of overlap is a character that the user has attempted to select. In other words, since the character that is highly likely to be selected by the user is the character to be specified, the character can be specified with high accuracy.
本発明の各態様に係る文字特定装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記文字特定装置が備える各部(ソフトウェア要素)として動作させることにより上記文字特定装置をコンピュータにて実現させる文字特定装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The character identification device according to each aspect of the present invention may be realized by a computer. In this case, the character identification device is operated on each computer by operating the computer as each unit (software element) included in the character identification device. The control program for the character identification device realized and the computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.
本発明は、表示画像に含まれる文字を特定するための文字特定装置に利用することができる。特に、スマートフォン、タブレット端末、デジタルカメラなどに好適である。 The present invention can be used for a character specifying device for specifying a character included in a display image. In particular, it is suitable for smartphones, tablet terminals, digital cameras, and the like.
1 スマートフォン(文字特定装置)、43 文字認識部(文字認識実行部)、44 選択文字列特定部(選択文字特定部) 1 smartphone (character identification device), 43 character recognition unit (character recognition execution unit), 44 selected character string identification unit (selected character identification unit)
Claims (8)
上記表示画像に対するユーザ操作によって特定された上記表示画像内の特定領域を拡大した拡大領域に対し、文字認識を実行する文字認識実行部と、
上記文字認識実行部による文字認識によって得られる上記拡大領域に含まれる文字に設定された領域と、上記特定領域との重なり度合いが所定量を超える文字をユーザに選択された文字として特定する選択文字特定部と、を備えることを特徴とする文字特定装置。A character identification device for identifying characters included in a display image,
A character recognition execution unit that performs character recognition on an enlarged area obtained by enlarging a specific area in the display image specified by a user operation on the display image;
A selected character that identifies, as a character selected by the user, a character whose degree of overlap between the area set as the character included in the enlarged area obtained by character recognition by the character recognition execution unit and the specific area exceeds a predetermined amount And a character identification device.
上記選択文字特定部は、
(1)上記行領域と上記特定領域とが重なっており、かつ、上記特定領域の境界線のうち、上記文字の進行方向と平行な2辺がいずれも上記行領域と重なっている、または、
(2)上記行領域と上記特定領域とが重なっており、かつ、上記特定領域の境界線のうち、上記文字の進行方向と平行な2辺がいずれも上記行領域と重なっていない場合、該行領域に含まれる文字を特定対象とすることを特徴とする請求項2に記載の文字特定装置。The specific area and the line area are rectangular,
The selected character identification part
(1) The line region and the specific region overlap, and two of the boundary lines of the specific region that are parallel to the character traveling direction overlap the line region, or
(2) When the line area and the specific area overlap, and two of the boundary lines of the specific area that are parallel to the character traveling direction do not overlap the line area, The character identification device according to claim 2, wherein characters included in the line area are targeted for identification.
上記選択文字特定部は、
(1)上記文字領域と上記特定領域とが重なっており、かつ、上記特定領域の境界線のうち、上記文字の進行方向と直角な2辺がいずれも上記文字領域と重なっている、または、
(2)上記文字領域と上記特定領域とが重なっており、かつ、上記特定領域の境界線のうち、上記文字の進行方向と直角な2辺がいずれも上記文字領域と重なっていない場合、上記文字領域を設定された文字を、特定する文字とすることを特徴とする請求項5に記載の文字特定装置。The character area is rectangular,
The selected character identification part
(1) The character region and the specific region overlap, and two of the boundary lines of the specific region that are perpendicular to the character traveling direction overlap the character region, or
(2) When the character area and the specific area overlap, and two of the boundary lines of the specific area that are perpendicular to the character traveling direction do not overlap the character area, The character identification device according to claim 5, wherein the character set with the character area is a character to be identified.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014088333 | 2014-04-22 | ||
JP2014088333 | 2014-04-22 | ||
PCT/JP2015/060640 WO2015163118A1 (en) | 2014-04-22 | 2015-04-03 | Character specifying device, and control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015163118A1 JPWO2015163118A1 (en) | 2017-04-13 |
JP6170241B2 true JP6170241B2 (en) | 2017-07-26 |
Family
ID=54332286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016514842A Expired - Fee Related JP6170241B2 (en) | 2014-04-22 | 2015-04-03 | Character identification device and control program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6170241B2 (en) |
WO (1) | WO2015163118A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106227398A (en) * | 2016-06-29 | 2016-12-14 | 宇龙计算机通信科技(深圳)有限公司 | A kind of camera image character displaying method and device |
JP6530432B2 (en) * | 2017-02-03 | 2019-06-12 | 株式会社東芝 | Image processing apparatus, image processing method and program |
JP6922365B2 (en) * | 2017-04-12 | 2021-08-18 | 富士フイルムビジネスイノベーション株式会社 | Document processing equipment and programs |
CN111563497B (en) * | 2020-04-30 | 2024-04-16 | 广东小天才科技有限公司 | Frame question method and device based on moving track, electronic equipment and storage medium |
JP7471973B2 (en) | 2020-09-18 | 2024-04-22 | 東芝テック株式会社 | Information processing device and control program thereof |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3460339B2 (en) * | 1994-11-18 | 2003-10-27 | 松下電器産業株式会社 | Object selection device and method |
JP5573457B2 (en) * | 2010-07-23 | 2014-08-20 | ソニー株式会社 | Information processing apparatus, information processing method, and information processing program |
JP5703125B2 (en) * | 2011-05-20 | 2015-04-15 | シャープ株式会社 | Display device and display program |
JP2013171365A (en) * | 2012-02-20 | 2013-09-02 | Mitsubishi Electric Corp | Display device |
JP2014102669A (en) * | 2012-11-20 | 2014-06-05 | Toshiba Corp | Information processor, information processing method and program |
-
2015
- 2015-04-03 JP JP2016514842A patent/JP6170241B2/en not_active Expired - Fee Related
- 2015-04-03 WO PCT/JP2015/060640 patent/WO2015163118A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2015163118A1 (en) | 2015-10-29 |
JPWO2015163118A1 (en) | 2017-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6170241B2 (en) | Character identification device and control program | |
CN110100251B (en) | Apparatus, method, and computer-readable storage medium for processing document | |
US10291843B2 (en) | Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium | |
US9489715B2 (en) | Image display apparatus and image display method | |
US10031667B2 (en) | Terminal device, display control method, and non-transitory computer-readable recording medium | |
KR102450236B1 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
CN106815809B (en) | Picture processing method and device | |
US20160300321A1 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
CN110297545B (en) | Gesture control method, gesture control device and system, and storage medium | |
JP6164361B2 (en) | Terminal device, display control method, and program | |
JP6206580B2 (en) | Terminal device, display control method, and program | |
JP6328409B2 (en) | Translation device | |
US9396405B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6364182B2 (en) | Character string recognition apparatus and character string recognition method | |
US10990802B2 (en) | Imaging apparatus providing out focusing and method for controlling the same | |
WO2015045679A1 (en) | Information device and control program | |
JP6251075B2 (en) | Translation device | |
JP2015032261A (en) | Display device and control method | |
KR20140134844A (en) | Method and device for photographing based on objects | |
WO2015159498A1 (en) | Method and apparatus for displaying additional objects on a graphical user interface based on pinch gesture | |
KR20140112919A (en) | Apparatus and method for processing an image | |
JP2020182161A (en) | Information processing apparatus, information processing method, and program | |
JP2013254438A (en) | Image display device, and image display method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6170241 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |