JP2018124918A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2018124918A
JP2018124918A JP2017018788A JP2017018788A JP2018124918A JP 2018124918 A JP2018124918 A JP 2018124918A JP 2017018788 A JP2017018788 A JP 2017018788A JP 2017018788 A JP2017018788 A JP 2017018788A JP 2018124918 A JP2018124918 A JP 2018124918A
Authority
JP
Japan
Prior art keywords
character string
image
input information
detection range
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017018788A
Other languages
English (en)
Other versions
JP6530432B2 (ja
Inventor
洋次郎 登内
Yojiro Touchi
洋次郎 登内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017018788A priority Critical patent/JP6530432B2/ja
Priority to US15/680,293 priority patent/US10296802B2/en
Priority to EP17187732.7A priority patent/EP3358502A1/en
Publication of JP2018124918A publication Critical patent/JP2018124918A/ja
Application granted granted Critical
Publication of JP6530432B2 publication Critical patent/JP6530432B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1456Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on user interactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/147Determination of region of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • G06V30/1478Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Abstract

【課題】簡易な操作入力に基づいて文字列を高精度に検出する。【解決手段】実施形態の画像処理装置は、受付部と特定部と検出部とを備える。受付部は、画像に対して入力された入力情報を受け付ける。特定部は、入力情報の位置を特定する。検出部は、位置との距離が他の文字列よりも小さい文字列を、画像から検出する。【選択図】図1

Description

本発明の実施形態は画像処理装置、画像処理方法及びプログラムに関する。
看板、標識、及び、レストランのメニュー等に記載された文字列を、スマートフォン及びタブレット等に内蔵されたカメラにより撮影することにより取得された画像から、文字列を検出する技術が従来から知られている。
しかしながら、従来の技術では、簡易な操作入力に基づいて文字列を高精度に検出することが難しかった。例えば、画像から文字列を示す全ての検出領域を検出できたとしても、画像内に複数の文字列がある場合、ユーザが注目する文字列を複数の検出領域の中から正確に指定する操作入力が必要だった。
特開2016−004553号公報 特開2016−045877号公報 米国公開2011/0090253号公報
Tonouchi Y., Suzuki K., Osada K., A Hybrid Approach to Detect Texts in Natural Scenes by Integration of a Connected−Component Method and a Sliding−Window Method,IWRR 2014(Singapore)
本発明が解決しようとする課題は、簡易な操作入力に基づいて文字列を高精度に検出する画像処理装置、画像処理方法及びプログラムを提供することである。
実施形態の画像処理装置は、画像に対して入力された入力情報を受け付ける受付部と、前記入力情報の位置を特定する特定部と、前記位置との距離が他の文字列よりも小さい文字列を、前記画像から検出する検出部と、を備える。
実施形態の画像処理装置の機能構成の例を示す図。 実施形態の入力情報の例を示す図。 実施形態の入力情報の例を示す図。 実施形態の入力情報の例を示す図。 実施形態の検出部により画像から検出される文字列の例を示す図。 実施形態の文字列領域を特定する情報の例を示す図。 実施形態の変形例1の検出範囲の例を示す図。 実施形態の変形例1の検出範囲の例を示す図。 実施形態の変形例3の検出範囲の例を示す図。 実施形態の変形例4の仰角θと文字列との関係について説明するための図。 実施形態の変形例4の検出範囲の例を示す図。 実施形態の変形例4のホモグラフィ変換された検出範囲の例1を示す図。 実施形態の変形例4のホモグラフィ変換された検出範囲の例2を示す図。 実施形態の変形例5の入力情報の例を示す図。 実施形態の画像処理装置のハードウェア構成の例を示す図。
以下に添付図面を参照して、画像処理装置、画像処理方法及びプログラムの実施形態を詳細に説明する。
[機能構成の例]
図1は実施形態の画像処理装置100の機能構成の例を示す図である。実施形態の画像処理装置100は、取得部1、表示部2、入力部3、受付部4、特定部5及び検出部6を備える。画像処理装置100は任意の装置でよい。画像処理装置100は、例えばスマートデバイス、パーソナルコンピュータ及びカメラ等である。
取得部1は画像を取得する。取得部1は、例えばカメラ等の撮像部でもよい。また例えば、取得部1は、他の装置により撮像された画像を受け付けるインターフェース等の受付部でもよい。
表示部2は、取得部1に取得された画像を表示する。表示部2は、例えば液晶ディスプレイである。入力部3は、表示部2に表示された画像に対して入力された入力情報を受け付ける。入力部3は、例えばキーボード及びマウス等である。なお表示部2及び入力部3は、表示機能と入力機能とを備える液晶タッチパネル等でもよい。例えば画像処理装置100がタッチパッド及びタブレットである場合、表示部2及び入力部3は液晶タッチパネルにより実現される。
受付部4は、画像に対して入力された入力情報を入力部3から受け付ける。
特定部5は、ユーザの操作によって入力された入力情報の位置を特定する。特定部5は、例えばマウス操作、及び、液晶タッチパネル等に対するタップ等により、入力情報が時系列で得られる場合、表示画面上の指示位置(x,y)の集合を、入力情報として特定する。
ここで入力情報の例について説明する。
[入力情報の例]
図2Aは実施形態の入力情報201aの例を示す図である。図2Aの例では、入力情報201aは点を示す。図2Aの例の場合、特定部5は、入力情報201aを(x,y)により特定する。
図2Bは実施形態の入力情報201bの例を示す図である。図2Bの例では、入力情報201bは線分を示す。図2Bの例の場合、特定部5は、入力情報201bを点列p(k)=(x,y)(k=1,2,…,K)をつないだ折れ線により特定する。
図2Cは実施形態の入力情報201cの例を示す図である。図2Cの例では、入力情報201cは領域を示す。図2Cの例の場合、特定部5は、入力情報201cを点列p(k)=(x,y)(k=1,2,…,K)をつないだ折れ線で囲まれた領域として特定する。
以下、入力情報201a〜201cを区別しない場合、単に入力情報201という。
図1に戻り、検出部6は、入力情報201の位置との距離が他の文字列よりも小さい文字列を、画像から検出する。
検出部6は、例えば入力情報201の位置との距離が最小の文字列を、画像から検出する。この場合、例えば検出部6は、入力情報201と重なる文字列を、画像から検出する。検出部6は、入力情報201と重なる文字列がない場合でも、入力情報201の位置との距離が最小の文字列を、画像から検出することができる。また例えば、検出部6は、複数の文字列のうち距離が小さい順に所定数の文字列を検出する。
なお検出対象の文字列には、数字及び記号等が含まれていてもよい。
図3は実施形態の検出部6により画像から検出される文字列の例を示す図である。図3の例では、入力情報201bの位置との距離が最小の文字列として、文字列領域204に含まれる文字列が、検出部6により検出される場合を示す。文字列領域205a〜205cに含まれる文字列は、入力情報201bの位置との距離が最小の文字列ではないので、検出部6により検出されない。
なお文字列領域204の検出処理は、例えば特許文献1及び非特許文献1等の方法を適用することができる。
図4は実施形態の文字列領域204を特定する情報の例を示す図である。図4の例では、文字列領域204を、4つの頂点(X,Y)〜(X,Y)により特定する場合を示す。
<距離の算出例>
4つの頂点(X,Y)〜(X,Y)により文字列領域204が特定される場合を例にして、入力情報201b(図3参照)の位置と文字列領域204との距離を算出する方法について説明する。
検出部6は、入力情報201bの重心点の座標を下記式(1)により算出する。
Figure 2018124918
次に、検出部6は、文字列領域204の重心点の座標を下記式(2)により算出する。
Figure 2018124918
次に、検出部6は、入力情報201bの重心点と、文字列領域204の重心点との間のユークリッド距離により、入力情報201bの位置と文字列領域204との距離を算出する。
なお2点(x,y)と(x,y)との間のユークリッド距離は、下記式(3)により算出される。
Figure 2018124918
以上説明したように、実施形態の画像処理装置100では、受付部4が、画像に対して入力された入力情報を受け付ける。特定部5が、入力情報201の位置を特定する。そして検出部6が、入力情報201の位置との距離が他の文字列よりも小さい文字列を、画像から検出する。これにより実施形態の画像処理装置100によれば、より簡易な操作入力に基づいて文字列を高精度に検出することができる。
(実施形態の変形例1)
次に実施形態の変形例1について説明する。実施形態の変形例1の説明では、実施形態と同様の説明については省略し、実施形態と異なる箇所について説明する。実施形態の変形例1の説明では、文字列の検出範囲を限定する場合について説明する。
<検出範囲の例>
図5は実施形態の変形例1の検出範囲の例を示す図である。はじめに、特定部5が、ユーザの操作入力によって入力された入力情報201bを特定する。次に、検出部6が、入力情報201bに外接する四角形領域202を検出する。次に、検出部6が、四角形領域202を、所定の倍率で上下左右に拡大することにより、検出範囲203を設定する。そして検出部6は、入力情報201を含む領域として限定された検出範囲203から、文字列領域204を検出する。
なお検出部6は、検出範囲203に複数の文字列が含まれる場合、入力情報201bの位置との距離が他の文字列よりも小さい文字列を検出する。検出部6は、検出範囲203に複数の文字列が含まれる場合、例えば入力情報201bの位置との距離が最小の文字列を検出する。また例えば、検出部6は、複数の文字列のうち距離が小さい順に所定数の文字列を検出する。
以上、説明したように、実施形態の変形例1の画像処理装置100では、検出部6が、画像内で限定された検出範囲203から文字列を検出する。これにより実施形態の変形例1の画像処理装置100によれば、実施形態の画像処理装置よりも高速に文字列を検出することができる。
(実施形態の変形例2)
次に実施形態の変形例2について説明する。実施形態の変形例2の説明では、実施形態と同様の説明については省略し、実施形態と異なる箇所について説明する。実施形態の変形例2の説明では、入力情報201bの方向、及び、文字列の方向を考慮して、文字列を検出する場合について説明する。
<入力情報の方向の算出方法の例>
特定部5は、入力情報201bの方向を特定する。具体的には、特定部5は、入力情報201bの点列p(k)=(x,y)(k=1,2,…,K)から、下記式(4)により平均ベクトルを算出する。
Figure 2018124918
次に、特定部5は、入力情報201bの点列p(k)=(x,y)(k=1,2,…,K)、及び、平均ベクトルを使用して、下記式(5)により共分散行列を求める。
Figure 2018124918
次に、特定部5は、共分散行列の固有値及び固有ベクトルを算出する。そして、特定部5は、2つの固有値のうち、大きい方の固有値に対応する固有ベクトルの方向により、入力情報201bの方向を特定する。
検出部6は、入力情報201bの位置との距離が閾値(第1閾値)以下であり、かつ、入力情報201bの方向との差が閾値(第2閾値)以下の方向を有する文字列を、画像から検出する。
なお検出部6は、検出対象の文字列が複数ある場合、例えば入力情報201bの位置との距離が他の文字列よりも小さい文字列を検出する。具体的には、検出部6は、検出対象の文字列が複数ある場合、例えば入力情報201bの位置との距離が最小の文字列を検出する。また例えば、検出部6は、複数の文字列のうち距離が小さい順に所定数の文字列を検出する。
また例えば、検出部6は、検出対象の文字列が複数ある場合、入力情報201bの方向と文字列の方向との差が、他の文字列よりも小さい文字列を検出する。具体的には、検出部6は、検出対象の文字列が複数ある場合、例えば入力情報201bの方向との差が最小の方向を有する文字列を検出する。また例えば、検出部6は、複数の文字列のうち入力情報201bの方向との差が小さい順に所定数の文字列を検出する。
以上説明したように、実施形態の変形例2の画像処理装置100では、検出部6が、入力情報201bの位置との距離が閾値以下であり、かつ、入力情報201bの方向との差が閾値以下の方向を有する文字列を、画像から検出する。これにより実施形態の変形例2の画像処理装置100によれば、実施形態の画像処理装置よりも高精度に文字列を検出することができる。
(実施形態の変形例3)
次に実施形態の変形例3について説明する。実施形態の変形例3の説明では、実施形態の変形例2と同様の説明については省略し、実施形態の変形例2と異なる箇所について説明する。実施形態の変形例3の説明では、入力情報201bの方向、及び、文字列の方向を考慮して、検出範囲203を設定する場合について説明する。
検出部6は、入力情報201bの方向と平行な辺を有する検出範囲を設定する。
図6Aは実施形態の変形例1の検出範囲の例を示す図である。一方、図6Bは実施形態の変形例3の検出範囲の例を示す図である。図6Aの検出範囲203aは、入力情報201bの方向と平行な辺を有さない。一方、図6Bの検出範囲203bは、入力情報201bの方向と平行な辺を有する。実施形態の変形例3の検出部6は、図6Bの検出範囲203bを設定する。
具体的には、はじめに、特定部5が、ユーザの操作入力によって入力された入力情報201bを特定する。次に、検出部6が、入力情報201bに外接する四角形領域202を検出する。次に、検出部6が、四角形領域202を、所定の倍率で上下左右に拡大することにより、検出範囲203bを設定する。そして検出部6は、入力情報201bの位置との距離が閾値(第1閾値)以下であり、かつ、入力情報201bの方向との差が閾値(第2閾値)以下の方向を有する文字列を、検出範囲203bから検出する。
以上、説明したように、実施形態の変形例3の画像処理装置100では、検出部6は、入力情報201bの位置との距離が閾値以下であり、かつ、入力情報201bの方向との差が閾値以下の方向を有する文字列を、検出範囲203bから検出する。これにより実施形態の変形例3の画像処理装置100によれば、実施形態の画像処理装置100よりも適切な検出範囲203bを設定することができるので、より高精度に文字列を検出することができる。
(実施形態の変形例4)
次に実施形態の変形例4について説明する。実施形態の変形例4の説明では、実施形態の変形例2と同様の説明については省略し、実施形態の変形例2と異なる箇所について説明する。実施形態の変形例4の説明では、画像が撮像されたときの撮像部(カメラ等)の仰角に基づいて、文字列の検出範囲203を変更する場合について説明する。
図7は実施形態の変形例4の仰角θと文字列との関係について説明するための図である。図8は実施形態の変形例4の検出範囲の例を示す図である。図7の例は、画像処理装置100の取得部1が、カメラ等の撮像部である場合を示す。図7に示すように、撮像部により取得された画像に含まれる文字列の形状は、撮像部の仰角θに応じて変わる。そのため、検出部6は、画像が撮像されたときの撮像部の仰角θに応じて、検出範囲を変更する。
図8を使用して、検出範囲の短軸の向きについて説明する。検出部6は、検出範囲の短軸の向きを、画像が撮像されたときの撮像部の仰角θに応じて切り替える。具体的には、検出部6は、画像が撮像されたときの撮像部の仰角θが閾値(第3閾値)未満の場合、文字列の方向と方向が一致する辺と、文字列の方向と方向が直行する辺と、により形成される検出範囲(第1検出範囲)から、文字列を検出する。図8の例では、第1検出範囲は、長方形の検出範囲203bである。検出範囲203bの短軸の向きは、文字列の方向と直行する。
一方、検出部6は、画像が撮像されたときの撮像部の仰角が閾値(第3閾値)以上の場合、画像の垂直方向又は水平方向に方向が一致する辺と、文字列の方向と方向が一致する辺と、により形成される検出範囲(第2検出範囲)から、文字列を検出する。図8の例では、第2検出範囲は、平行四辺形の検出範囲203cである。検出範囲203cの短軸の向きは、画像の水平方向と直行する。
なお撮像部の仰角の取得方法は任意でよい。撮像部の仰角は、例えば特許文献2に記載の方法により取得できる。
<検出範囲の変換例>
検出部6は、第2検出範囲に含まれる文字列の方向が、水平又は垂直になるように第2検出範囲の画像を変換し、変換された第2検出範囲の画像から文字列を検出する。例えば、検出部6は、検出範囲203cの4頂点(X,Y),(X,Y),(X,Y),(X,Y)を、4頂点(0,0),(W,0),(W,H),(0,H)を有する幅W、高さHの長方形となるように変換する。具体的には、検出部6は、例えばホモグラフィ変換をすることにより、検出範囲203cを変換する。
ホモグラフィ変換で使用される射影行列は、変換前の4頂点{(X,Y),(X,Y),(X,Y),(X,Y)}と、変換後の4頂点{(0,0),(W,0),(W,H),(0,H)}との対応から算出できる。検出部6は、算出された射影行列を使用して、検出範囲203cに含まれる点の座標を変換する。
検出部6は、例えばホモグラフィ変換された検出範囲203cから文字列を検出する。
図9Aは実施形態の変形例4のホモグラフィ変換された検出範囲の例1を示す図である。図9Aは、第2検出範囲(図8の検出範囲203c)がホモグラフィ変換された場合を示す。
なお検出部6は、第1検出範囲(図8の検出範囲203b)に含まれる文字列の方向が、水平又は垂直になるように第1検出範囲の画像を変換し、変換された第1検出範囲の画像から文字列を検出してもよい。
図9Bは実施形態の変形例4のホモグラフィ変換された検出範囲の例2を示す図である。図9Bは、第1検出範囲(図8の検出範囲203b)がホモグラフィ変換された場合を示す。
図8の例では、第2検出範囲(検出範囲203c)がホモグラフィ変換された場合(図9A参照)の方が、第1検出範囲(検出範囲203b)がホモグラフィ変換された場合(図9B参照)よりも、ホモグラフィ変換された検出範囲に含まれる文字列の歪みが小さい。
上述の図8の例では、検出範囲203b及び203cの長軸方向は、入力情報201bの方向211から特定された文字列の方向212である。検出範囲203b及び203cの短軸方向は、撮像部の仰角θに基づいて変更されている。
なお検出部6は、上述の方法と異なる方法で短軸方向を変更してもよい。例えば検出部6は、撮像部の仰角θが水平又は下向きを示す場合、文字列の方向212と垂直な方向を、短軸方向にしてもよい(検出範囲203b)。一方、検出部6は、撮像部の仰角θが上向きを示す場合、画像に歪みが生じている可能性が高いので、画像の垂直方向をそのまま短軸方向にしてもよい(検出範囲203c)。
以上、説明したように、実施形態の変形例4の画像処理装置100では、検出部6が、画像が撮像されたときの撮像部(カメラ等)の仰角θに基づいて、文字列の検出範囲203を変更する。これにより実施形態の変形例4の画像処理装置100によれば、実施形態の画像処理装置100よりも適切な検出範囲203を設定することができるので、より高精度に文字列を検出することができる。なお検出部6が、更に、行方向補正(文字列の方向を水平、垂直に回転すること)、及び、文字の歪み補正を行うことにより、より高精度に文字列を検出することができる。
また、実施形態の変形例4の画像処理装置100では、検出部6が、例えばホモグラフィ変換された検出範囲203cから文字列を検出する。これにより実施形態の変形例4の画像処理装置100によれば、検出対象の文字列の歪みを修正することができるので、より高精度に文字列を検出することができる。
(実施形態の変形例5)
次に実施形態の変形例5について説明する。実施形態の変形例5の説明では、実施形態の変形例1と同様の説明については省略し、実施形態の変形例1と異なる箇所について説明する。実施形態の変形例5の説明では、入力情報201の形状が、入力情報201b(図2B参照)のような線分でない場合について説明する。具体的には、入力情報201の形状が、入力情報201c(図2C参照)である場合を例にして説明する。
図10は実施形態の変形例5の入力情報201cの例を示す図である。はじめに、特定部5が、ユーザの操作入力によって入力された入力情報201cを特定する。次に、検出部6が、入力情報201cに外接する四角形領域202を検出する。以降の処理は、実施形態の変形例1の説明と同じなので省略する。
以上、説明したように、実施形態の変形例5の画像処理装置100によれば、入力情報201の形状が、入力情報201cのような形状であっても、文字列を高精度に検出することができる。
[実施形態及び変形例1乃至5の効果]
以上、説明したように、実施形態及び変形例1乃至5の画像処理装置100では、ユーザは、注目する文字列の位置を簡易な操作入力で指示することができる。例えば液晶タッチパネルを備えるスマートフォン及びタブレット等では、ユーザは、画像が表示された画面上で、文字列が表示された領域付近を、文字列方向に指で沿ってなぞる等の操作入力でよい。上述の実施形態及び変形例1乃至5の画像処理装置100によれば、ユーザの入力操作がなぞり操作のような簡易な操作入力であっても、ユーザにより注目された文字列の位置と行方向とを高精度に特定することができる。
また、実施形態の変形例1、3乃至5のように、検出範囲203を限定することにより、画像中の全文字列を検出する必要がなくなる。すなわち、限定された検出範囲203から、ユーザが注目する文字列を1つだけ検出すればよいので、処理を高速化できる。
また、実施形態の変形例4のように、検出範囲203の変更及び変換をすることにより、撮像対象の文字列と撮像部との相対的な位置関係によって、画像中の文字列が大きく傾いたりゆがみが発生したりする場合でも、文字列を高精度に検出することができる。
最後に、実施形態の画像処理装置100のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図11は実施形態の画像処理装置100のハードウェア構成の例を示す図である。実施形態の画像処理装置100は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305、通信装置306及び撮像装置307を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305、通信装置306及び撮像装置307は、バス310を介して接続されている。
制御装置301は補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。制御装置301は、例えばCPU等の1以上のプロセッサである。上述の受付部4、特定部5及び検出部6は、例えば制御装置301により実現される。主記憶装置302はROM(Read Only Memory)、及び、RAM(Random Access Memory)等のメモリである。補助記憶装置303はメモリカード、及び、HDD(Hard Disk Drive)等である。
表示装置304は情報を表示する。表示装置304は、例えば液晶ディスプレイである。上述の表示部2は、例えば表示装置304により実現される。入力装置305は、情報の入力を受け付ける。入力装置305は、例えばキーボード及びマウス等である。上述の入力部3は、例えば入力装置305により実現される。なお表示装置304及び入力装置305は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置306は他の装置と通信する。撮像装置307は情景画像等の画像を撮像する。上述の取得部1は、例えば通信装置306により実現される。また例えば、上述の取得部1は、撮像装置307により実現される。
実施形態の画像処理装置100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R、及び、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
また実施形態の画像処理装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また実施形態の画像処理装置100が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また実施形態の画像処理装置100で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
実施形態の画像処理装置100で実行されるプログラムは、実施形態の画像処理装置100の機能構成のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置301が補助記憶装置303等の記憶媒体からプログラムを読み出して実行することにより、プログラムにより実現される機能が主記憶装置302にロードされる。すなわちプログラムにより実現される機能は、主記憶装置302上に生成される。
なお実施形態の画像処理装置100の機能の一部を、IC(Integrated Circuit)等のハードウェアにより実現してもよい。ICは、例えば専用の処理を実行するプロセッサである。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2以上を実現してもよい。
また実施形態の画像処理装置100の動作形態は任意でよい。実施形態の画像処理装置100を、例えばネットワーク上のクラウドシステムとして動作させてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 取得部
2 表示部
3 入力部
4 受付部
5 特定部
6 検出部
100 画像処理装置
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
307 撮像装置
310 バス

Claims (9)

  1. 画像に対して入力された入力情報を受け付ける受付部と、
    前記入力情報の位置を特定する特定部と、
    前記位置との距離が他の文字列よりも小さい文字列を、前記画像から検出する検出部と、
    を備える画像処理装置。
  2. 前記検出部は、前記文字列の検出範囲を、前記入力情報を含む領域に限定し、前記位置との距離が他の文字列よりも小さい文字列を、前記検出範囲から検出する、
    請求項1に記載の画像処理装置。
  3. 前記特定部は、前記入力情報から、前記入力情報の方向を特定し、
    前記検出部は、前記位置との距離が第1閾値以下であり、かつ、前記入力情報の方向との差が第2閾値以下の方向を有する文字列を、前記画像から検出する、
    請求項1に記載の画像処理装置。
  4. 前記検出部は、前記入力情報の方向と平行な辺を有する検出範囲を設定し、前記位置との距離が前記第1閾値以下であり、かつ、前記入力情報の方向との差が前記第2閾値以下の方向を有する文字列を、前記検出範囲から検出する、
    請求項3に記載の画像処理装置。
  5. 前記検出部は、前記画像が撮像されたときの撮像部の仰角が第3閾値未満の場合、前記文字列の方向と方向が一致する辺と、前記文字列の方向と方向が直行する辺と、により形成される第1検出範囲から、前記文字列を検出し、前記画像が撮像されたときの撮像部の仰角が第3閾値以上の場合、前記画像の垂直方向又は水平方向に方向が一致する辺と、前記文字列の方向と方向が一致する辺と、により形成される第2検出範囲から、前記文字列を検出する、
    請求項3に記載の画像処理装置。
  6. 前記検出部は、前記第2検出範囲に含まれる文字列の方向が、水平又は垂直になるように前記第2検出範囲の画像を変換し、変換された前記第2検出範囲の画像から前記文字列を検出する、
    請求項5に記載の画像処理装置。
  7. 前記検出部は、前記第1検出範囲に含まれる文字列の方向が、水平又は垂直になるように前記第1検出範囲の画像を変換し、変換された前記第1検出範囲の画像から前記文字列を検出する、
    請求項5に記載の画像処理装置。
  8. 画像に対して入力された入力情報を受け付けるステップと、
    前記入力情報の位置を特定するステップと、
    前記位置との距離が他の文字列よりも小さい文字列を、前記画像から検出するステップと、
    を含む画像処理方法。
  9. コンピュータを、
    画像に対して入力された入力情報を受け付ける受付部と、
    前記入力情報の位置を特定する特定部と、
    前記位置との距離が他の文字列よりも小さい文字列を、前記画像から検出する検出部、
    として機能させるためのプログラム。
JP2017018788A 2017-02-03 2017-02-03 画像処理装置、画像処理方法及びプログラム Active JP6530432B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017018788A JP6530432B2 (ja) 2017-02-03 2017-02-03 画像処理装置、画像処理方法及びプログラム
US15/680,293 US10296802B2 (en) 2017-02-03 2017-08-18 Image processing device, image processing method, and computer program product
EP17187732.7A EP3358502A1 (en) 2017-02-03 2017-08-24 Image processing device, image processing method and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017018788A JP6530432B2 (ja) 2017-02-03 2017-02-03 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018124918A true JP2018124918A (ja) 2018-08-09
JP6530432B2 JP6530432B2 (ja) 2019-06-12

Family

ID=59886994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017018788A Active JP6530432B2 (ja) 2017-02-03 2017-02-03 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10296802B2 (ja)
EP (1) EP3358502A1 (ja)
JP (1) JP6530432B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528852B2 (en) 2017-03-22 2020-01-07 Kabushiki Kaisha Toshiba Information processing apparatus, method and computer program product
US10832100B2 (en) 2017-03-22 2020-11-10 Kabushiki Kaisha Toshiba Target recognition device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018125926A1 (en) * 2016-12-27 2018-07-05 Datalogic Usa, Inc Robust string text detection for industrial optical character recognition
EP3644281A4 (en) * 2017-06-20 2021-04-28 Sony Interactive Entertainment Inc. CALIBRATION DEVICE, CALIBRATION CHART, CHART PATTERN GENERATING DEVICE, AND CALIBRATION PROCEDURE

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119942A (ja) * 2004-10-22 2006-05-11 Hitachi Ltd 文字列領域切り出し装置
WO2015163118A1 (ja) * 2014-04-22 2015-10-29 シャープ株式会社 文字特定装置、および制御プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4613397B2 (ja) * 2000-06-28 2011-01-19 コニカミノルタビジネステクノロジーズ株式会社 画像認識装置、画像認識方法および画像認識プログラムを記録したコンピュータ読取可能な記録媒体
JP3962891B2 (ja) * 2000-08-09 2007-08-22 富士ゼロックス株式会社 文書画像処理装置、文書画像処理方法、及び記憶媒体
US7031553B2 (en) 2000-09-22 2006-04-18 Sri International Method and apparatus for recognizing text in an image sequence of scene imagery
US20110090253A1 (en) 2009-10-19 2011-04-21 Quest Visual, Inc. Augmented reality language translation system and method
JP6352695B2 (ja) 2014-06-19 2018-07-04 株式会社東芝 文字検出装置、方法およびプログラム
JP6208094B2 (ja) 2014-08-26 2017-10-04 株式会社東芝 情報処理装置、情報処理システム、情報処理方法及びそのプログラム
US10049268B2 (en) * 2015-03-06 2018-08-14 Kofax, Inc. Selective, user-mediated content recognition using mobile devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119942A (ja) * 2004-10-22 2006-05-11 Hitachi Ltd 文字列領域切り出し装置
WO2015163118A1 (ja) * 2014-04-22 2015-10-29 シャープ株式会社 文字特定装置、および制御プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528852B2 (en) 2017-03-22 2020-01-07 Kabushiki Kaisha Toshiba Information processing apparatus, method and computer program product
US10832100B2 (en) 2017-03-22 2020-11-10 Kabushiki Kaisha Toshiba Target recognition device

Also Published As

Publication number Publication date
US20180225536A1 (en) 2018-08-09
JP6530432B2 (ja) 2019-06-12
US10296802B2 (en) 2019-05-21
EP3358502A1 (en) 2018-08-08

Similar Documents

Publication Publication Date Title
US10310675B2 (en) User interface apparatus and control method
JP6530432B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2007129709A (ja) イメージングデバイスをキャリブレートするための方法、イメージングデバイスの配列を含むイメージングシステムをキャリブレートするための方法およびイメージングシステム
JP6208094B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びそのプログラム
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
EP3093822B1 (en) Displaying a target object imaged in a moving picture
KR20160027862A (ko) 이미지 데이터를 처리하는 방법과 이를 지원하는 전자 장치
EP2639743A2 (en) Image processing device, image processing program, and image processing method
JP2017084117A (ja) 表示制御方法、表示制御プログラムおよび情報処理装置
JP2016103137A (ja) ユーザインタフェース装置、画像処理装置及び制御用プログラム
JP2014186520A (ja) 画像処理装置、画像処理方法およびプログラム
JP2013037539A (ja) 画像特徴量抽出装置およびそのプログラム
JP6564136B2 (ja) 画像処理装置、画像処理方法、および、プログラム
CN110827301A (zh) 用于处理图像的方法和装置
JP6229554B2 (ja) 検出装置および検出方法
WO2018167971A1 (ja) 画像処理装置、制御方法及び制御プログラム
KR20120086223A (ko) 사용자의 손 동작을 이용하여 제어 기능을 제공하기 위한 프리젠테이션 시스템 및 그 방법
JP2011175347A (ja) 情報処理装置および情報処理方法
US10373324B2 (en) Measurement apparatus that scans original, method of controlling the same, and storage medium
JP2016162234A (ja) 注目領域検出装置、注目領域検出方法及びプログラム
JP5636966B2 (ja) 誤差検出装置及び誤差検出プログラム
US9384415B2 (en) Image processing apparatus and method, and computer program product
JP2019144704A (ja) 読取システム、読取方法、プログラム、及び記憶媒体
JP2014194685A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20150234517A1 (en) Display apparatus and method and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190516

R151 Written notification of patent or utility model registration

Ref document number: 6530432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151