JP2016167128A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2016167128A
JP2016167128A JP2015045899A JP2015045899A JP2016167128A JP 2016167128 A JP2016167128 A JP 2016167128A JP 2015045899 A JP2015045899 A JP 2015045899A JP 2015045899 A JP2015045899 A JP 2015045899A JP 2016167128 A JP2016167128 A JP 2016167128A
Authority
JP
Japan
Prior art keywords
image
character
detected
output
trigger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015045899A
Other languages
English (en)
Other versions
JP6548920B2 (ja
Inventor
鈴木 薫
Kaoru Suzuki
薫 鈴木
洋次郎 登内
Yojiro Touchi
洋次郎 登内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015045899A priority Critical patent/JP6548920B2/ja
Priority to US15/058,542 priority patent/US9819860B2/en
Publication of JP2016167128A publication Critical patent/JP2016167128A/ja
Application granted granted Critical
Publication of JP6548920B2 publication Critical patent/JP6548920B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/158Segmentation of character regions using character size, text spacings or pitch estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Abstract

【課題】 フレーミングを容易に行うことができる情報処理装置、情報処理方法及びプログラムを提供すること。
【解決手段】 実施形態によれば、情報処理装置は、取得される画像の劣化の程度を示す劣化評価値に基づいて、当該画像から文字らしい画像領域を検出できる可能性が高いかどうかを判定する。また、取得される画像から文字らしい画像領域を検出できる可能性が高いと判定される場合には、当該画像領域を検出するための処理を実行させるために第1のトリガを出力し、当該画像領域を検出できる可能性が低いと判定される場合には、当該画像をそのままディスプレイに表示させるためのコマンドを出力する。
【選択図】図1

Description

本発明の実施形態は、情報処理装置、情報処理方法及びプログラムに関する。
近年、看板や標識、紙面などに記載された文字をカメラによって撮像された画像から検出し、当該検出された文字に対して文字認識処理や翻訳処理を行う情報処理装置が普及してきている。この情報処理装置を利用するにあたって、ユーザは、ディスプレイに表示されるプレビュー画面を通して、現在どこを写しているかを把握し、撮像対象の文字に向けて情報処理装置を動かし、撮像対象を撮像範囲に収めるフレーミングという作業を行う必要がある。
このフレーミングという作業は、プレビュー画面をディスプレイに表示させるプレビュー表示処理までにかかる時間が短い程(換言すると、プレビュー表示のリフレッシュレートが高い程)、容易に行うことができるようになるが、現在の所、カメラによって画像が撮像される度に、当該画像から文字を検出する処理や、当該検出された文字に対する文字認識処理や翻訳処理が実行されるので、リフレッシュレートが低くなり、上記したフレーミングが困難になるという不都合がある。
特開2001−307017号公報
本発明の一形態の目的は、フレーミングを容易に行うことができる情報処理装置、情報処理方法及びプログラムを提供することにある。
実施形態によれば、情報処理装置は、画像取得手段と、劣化評価手段と、第1の出力手段と、表示手段とを含む。前記画像取得手段は、複数の文字により構成される文字行が記載される文字面を撮影することで得られる画像を取得する。前記劣化評価手段は、前記取得される画像の劣化の程度を示す劣化評価値に基づいて、当該画像から文字らしい画像領域を検出できる可能性が高いかどうかを判定する。前記第1の出力手段は、前記劣化評価手段による判定の結果、前記取得される画像から文字らしい画像領域を検出できる可能性が高いと判定される場合には、当該画像領域を検出するための処理を実行させるために第1のトリガを出力し、当該画像領域を検出できる可能性が低いと判定される場合には、当該画像をそのままディスプレイに表示させるためのコマンドを出力する。前記表示手段は、前記出力される第1のトリガにしたがって、前記取得される画像から所定数以上の文字らしい画像領域を検出し、当該画像領域に対して加工処理が施された画像を表示させる、又は前記出力されるコマンドにしたがって、前記取得される画像をそのまま表示させる。
第1の実施形態に係る情報処理装置の構成例を示す機能ブロック図。 同実施形態に係る文字候補検出部による文字候補検出処理を説明するための模式図。 同実施形態に係る文字候補検出部による文字候補検出処理の結果として得られる第1の検出結果情報を説明するための模式図。 直線ハフ変換の原理を説明するための模式図。 直線ハフ変換の原理を説明するための別の模式図。 ハフ投票を説明するための模式図。 同実施形態に係る情報処理装置の動作の一例を示すフローチャート。 従来の情報処理方法と同実施形態に係る情報処理方法の違いを説明するための模式図。 フレーミング期間について説明するための模式図。 フレーミングの状態を示唆するための各種アイコンについて説明するための模式図。 劣化評価値を示唆するためのアイコンについて説明するための模式図。 同実施形態に係る情報処理装置のハードウェア構成の一例を示す機能ブロック図。 第2の実施形態に係る情報処理装置の構成例を示す機能ブロック図。 文字候補の分布と密度評価値との関係について説明するための模式図。 同実施形態に係る情報処理装置の動作の一例を示すフローチャート。 従来の情報処理方法と同実施形態に係る情報処理方法の違いを説明するための模式図。 密度評価値を示唆するためのアイコンについて説明するための模式図。 第3の実施形態に係る情報処理装置の動作の一例を示すフローチャート。 従来の情報処理方法と同実施形態に係る情報処理方法の違いを説明するための模式図。
以下、実施の形態について図面を参照して説明する。
<第1の実施形態>
図1は、第1の実施形態における情報処理装置10の構成例を示す機能ブロック図である。情報処理装置10は、図1に示すように、画像取得部101、劣化評価部102、文字検出辞書記憶部103、文字候補検出部104、文字行検出部105、アプリケーション部106及び出力部107などを備えている。なお、本実施形態では、情報処理装置10がタブレット端末である場合を想定して説明する。
画像取得部101は、カメラ機能を用いて撮像された画像を取得する。なお、本実施形態における撮像対象は、看板や標識、紙面などに記載された文字を想定している。
劣化評価部102は、画像取得部101により取得された画像の撮像時の情報処理装置10の姿勢変化量を、情報処理装置10に内蔵された加速度センサや角速度センサなどから取得する。姿勢変化量とは、画像撮像時に、情報処理装置10(換言すると、情報処理装置10に搭載されたカメラなどの撮像手段)がどの程度速く動いていたのかを示す値である。この姿勢変化量と、撮像された画像に生じるぶれの大きさにはほぼ正の相関関係がある。姿勢変化量が大きければ撮像された画像のぶれも大きい可能性が高い。ぶれが大きいと後述する文字候補検出処理で文字候補が検出できない可能性が高くなる。すなわち、姿勢変化量は、後述する文字候補検出処理がどれだけ失敗しそうかを判断するための指標となる値である。加速度センサを使用した場合、重力成分を除去した加速度ベクトルを時間積分して得た速度ベクトルの大きさを姿勢変化量とすることができる。また、画像のぶれにはカメラの併進運動よりも回転運動の方が大きく影響することから、併進運動を無視して、角速度センサによる回転速度の大きさを近似的な姿勢変化量とみなすこともできる。このようなセンサの応答は速く、少ない計算量で姿勢変化量を計算することができる。なお、以下の説明では、ぶれにより撮像された画像がどの程度劣化しているかを表すことから、姿勢変化量を「劣化評価値」とも称する。
劣化評価部102は、取得した劣化評価値と、予め設定された閾値とを比較し、当該劣化評価値が当該閾値以下である場合にだけ、後述する文字候補検出処理を実行させるための第1のトリガを出力する。なお、劣化評価値が予め設定された閾値より大きい場合、劣化評価部102は、出力部107に対して、後述にて説明するプレビュー表示処理を実行させるためのコマンドを出力する。
なお、ここでは、加速度センサなどのセンサ手段によって計測された姿勢変化量を劣化評価値として用いる場合について説明したが、例えば、画像にぶれが生じていると、画像のコントラスト値(なお、当該コントラスト値は、最大輝度値と最小輝度値の差として求めることができる)が小さくなるという特徴を利用して、画像取得部101によって取得された画像のコントラスト値を算出し、所定定数から当該コントラスト値を減算した値を劣化評価値として用いても良い。あるいは、オプティカルフローのように画像中の動きベクトルの大きさを直接計算し、その画像全体における最大値などを劣化評価値として用いても良い。このようにすれば、加速度センサなどを内蔵していない情報処理装置であっても、画像取得部101により取得された画像から直接劣化評価値を算出し、上記の処理を実行することができるようになる。
さらに、ここでは、第1のトリガは、劣化評価値が予め設定された閾値以下である場合に出力されるとしたが、例えば、劣化評価値が閾値以下であったとしても、カメラのフォーカスがあっていなければ、画像はぼけたものになってしまい、後述する文字候補検出処理に対して悪影響を与えてしまう。このため、第1のトリガは、劣化評価値が閾値以下であり、かつカメラのフォーカスがあっている場合にだけ、出力されるとしても良い。
文字検出辞書記憶部103は、文字候補検出部104によって使用される文字検出辞書を記憶する記憶装置である。
文字候補検出部104は、劣化評価部102から出力された第1のトリガの入力を受け付けると、画像取得部101により取得された画像中の文字らしい画像領域を文字候補(すなわち、文字が記載されている考えられる領域)として検出する文字候補検出処理を実行する。
ここで、図2を参照して、文字候補検出部104による文字候補検出処理について詳しく説明する。
文字候補検出部104は、画像取得部101により取得された画像(入力画像)に対して縮小処理を実行し、いわゆる解像度ピラミッド画像を生成し、当該解像度ピラミッド画像上で文字を探索・検出する文字候補検出処理を実行する。具体的には、文字候補検出部104は、図2に示すように、画像取得部101により取得された入力画像201を一定比率r(但し、0<r<1)で順次縮小して、1以上のリサイズ画像202,203を生成する。生成されるリサイズ画像の数、換言すると、上記した縮小処理が実行される回数は、仕様上の検出すべき文字の最小サイズと最大サイズとに依存する。図2に示す検出窓205の大きさは、最も解像度の高い入力画像201上で検出すべき文字の大きさに合わせて決定される。すなわち、この検出窓205の大きさが、仕様上の検出すべき文字の最小サイズとなる。一定比率rを乗じて縮小されるリサイズ画像202,203の上では、同じ大きさの検出窓205が覆う範囲は広くなるので、検出される文字の大きさは、これに応じて大きくなっていく。この文字の大きさが仕様上の検出すべき文字の最大サイズを超えるまで、文字候補検出部104はリサイズ画像を生成する。このようにして、1以上のリサイズ画像を生成すると、文字候補検出部104は、図2に示すように、入力画像201とリサイズ画像202,203とを合わせた解像度ピラミッド画像204を生成する。
文字候補検出部104は、解像度ピラミッド画像204を生成すると、生成された解像度ピラミッド画像204に含まれる各画像201〜203上で所定サイズの検出窓205を走査させつつ、各位置での検出窓205内の画像を切り取って、複数の部分画像を生成する。また、文字候補検出部104は、生成された複数の部分画像と、文字検出辞書記憶部103に記憶された文字検出辞書とに基づいて、文字候補を検出する。具体的には、文字候補検出部104は、上記した各部分画像と、上記した文字検出辞書とを照合して、文字らしさを示すスコアをそれぞれの部分画像について計算し、これら各スコアが所定の閾値を超えているかどうかをそれぞれ判定する。これにより、各部分画像が文字を含む画像であるかどうかを判定(評価)することができる。この判定の結果に応じて、文字候補検出部104は、文字を含む画像であると判定された部分画像には文字であることを示す第1のコードを付与し、文字を含まない画像(換言すると、非文字を含む画像)であると判定された部分画像には非文字であることを示す第2のコードを付与する。これにより、文字候補検出部104は、第1のコードが付与された部分画像が存在する領域(換言すると、第1のコードが付与された部分画像を切り取った検出窓205が位置する領域)を文字が存在する領域として検出することができる。
文字候補検出部104は、上記した文字候補検出処理を実行した結果、第1のコードが付与された部分画像の数が、予め設定された閾値以上である場合に、入力画像201上で文字が存在する領域を示す第1の検出結果情報を文字行検出部105に出力する。第1の検出結果情報とは、例えば図3に示すように、入力画像201上で文字が存在する領域を矩形の枠で示した情報である。なお、第1のコードが付与された部分画像の数が、予め設定された閾値未満である場合、文字候補検出部104は、出力部107に対して、後述にて説明するプレビュー表示処理を実行させるためのコマンドを出力する。
なお、上記検出窓205内の部分画像に対して文字らしさを評価するスコア計算方法としては、部分空間法やサポートベクトルマシンなど、公知のパターン識別方法を利用して実現することができるため、本実施形態ではその詳しい説明は省略する。
再び図1の説明に戻る。文字行検出部105は、文字候補検出部104から出力された第1の検出結果情報の入力を受け付けると、この第1の検出結果情報に基づいて、画像取得部101により取得された画像中に記載された文字行を検出する文字行検出処理を実行する。文字行検出処理は、文字候補の直線的な配置を直線ハフ(Hough)変換を用いて検出する処理である。
以下では、まず、図4を参照して、直線ハフ変換の原理について説明する。
直線ハフ変換の原理を説明するにあたって、まず、ハフ曲線について説明する。図4に示すように、2次元座標上の点p(x,y)を通り得る直線は、例えば図4中の301〜303に例示するように、無数に存在する。しかしながら、原点Oからこれら各直線におろした垂線304のX軸からの傾きをθとし、この垂線304の長さをρと定義すると、1つの直線について、θとρは一意に決まる。これによれば、ある点(x,y)を通り得る無数の直線をそれぞれ一意に決められるθとρの組は、θρ座標系上で(x,y)の値に応じて、固有の軌跡305(ρ=x・cosθ+y・sinθ)を描くことが知られている。この軌跡305を、一般的に、ハフ曲線と称している。
直線ハフ変換とは、(x,y)座標値を通り得る直線を、上記したようにして一意に決められる(θ,ρ)により描かれるハフ曲線に変換することを指す。なお、(x,y)を通り得る直線が左に傾いている場合、上記したθは正の値となり、垂直の場合、上記したθの値は0となり、右に傾いている場合、上記したθは負の値となる。また、上記したθの定義域は、−π<θ≦πを逸脱することはないものとする。
ハフ曲線は、XY座標系上の各点について独立に求めることができるが、例えば図5に示すように、3点p1〜p3を共通に通る直線401は、p1〜p3にそれぞれ対応したハフ曲線402〜404が交差する点405の座標(θ,ρ)で定められる直線として求めることができる。多くの点を通る直線であればあるほど、その直線を表すθとρの位置を、多くのハフ曲線が通過する。すなわち、直線ハフ変換は、点群から直線を検出する用途に向いているといえる。
点群から直線を検出する場合、ハフ投票という工学的な手法が用いられる。この手法は、θとρを座標軸とする2次元のハフ投票空間に各ハフ曲線の通過するθとρの組を投票することで、ハフ投票空間の得票数の大きい位置に多数のハフ曲線の通過するθとρの組、すなわち、多数の点を通る直線の存在を示唆させるようにする手法である。一般的には、まず、θとρについての必要な探索範囲分の大きさを持つ2次元の配列(ハフ投票空間)を用意して、得票数を0で初期化しておく。次いで、点毎のハフ曲線を、上記したハフ変換によって求め、このハフ曲線が通過する配列上の値を1だけ加算する。これを一般的にハフ投票と称している。全ての点について、上記したハフ投票がなされると、得票数0の位置(すなわち、ハフ曲線が1つも通過しなかった位置)には直線が存在せず、得票数1の位置(すなわち、ハフ曲線が1つだけ通過した位置)には1つの点だけを通る直線が、得票数2の位置(すなわち、ハフ曲線が2つ通過した位置)には2つの点を通る直線が、さらに、得票数nの位置(すなわち、ハフ曲線がn個通過した位置)にはn個の点を通る直線がそれぞれ存在することが分かる。つまり、XY座標系上の2点以上を通過する直線は、ハフ投票空間上で得票数2以上の場所として現れる。
ハフ投票空間の分解能を無限大にできれば、上記したように、軌跡の通過する点のみが、そこを通過する軌跡の数だけの得票を得ることになるが、実際のハフ投票空間はθとρについて適当な分解能で量子化されているため、複数の軌跡が交差する位置の周辺にも高い得票分布が生じる。そのため、ハフ投票空間の得票分布から極大値を持つ位置を探すことで、軌跡の交差する位置を求めることになる。
ここで、図6を参照して、上記した直線ハフ変換ならびにハフ投票を用いた文字行検出処理について詳しく説明する。但し、ここでは、入力画像を示す画像平面を、横軸がXであり、縦軸がYである座標平面501とみなした場合を想定する。
文字候補502の画像上の中心座標を(x,y)とした場合、この点を通る直線は無数に存在するが、それらは必ず上記した直線ハフ変換の式ρ=x・cosθ+y・sinθを満たす。上記したように、ρとθは、それぞれ、XY座標系における原点Oから直線におろした垂線の長さ、ならびに、この垂線のX軸からの傾きを示す。つまり、点(x,y)を通る直線の満たす(θ,ρ)の値はθρ座標系ではハフ曲線となる。異なる2点を通る直線は、これら2点のハフ曲線が1点で交わる(θ,ρ)の組で表すことができる。文字行検出部105は、文字候補検出部104によって検出された複数の文字候補の中心点からそれぞれハフ曲線を求めて、それらが多く交差する(θ,ρ)の組を見つけると、多数の文字候補が直線的に並んでいるその直線、すなわち、文字行の存在を検出する。
文字行検出部105は、ハフ曲線が多く交差する(θ,ρ)の組を見つけるために、文字候補の中心座標から計算されるハフ曲線をハフ投票空間に投票する。ハフ投票空間は、図6に示すように、縦軸がρであり、横軸がθであり、さらに、文字候補502のサイズsに応じて、図6中の503〜505のように複数用意される。文字候補502のサイズが小さい場合は、文字候補502はsの小さいハフ投票空間503に投票され、文字候補502のサイズが大きい場合は、文字候補502はsの大きいハフ投票空間に投票される。文字行検出部105は、各ハフ投票空間において、予め設定された閾値以上の得票数をもつ極大位置(θ,ρ)で定義される直線を検出し、この直線に投票した文字候補の集合を文字行として検出する。なお、文字行検出部105は、1つのハフ曲線上に、予め設定された閾値以上の得票数をもつ極大位置(θ,ρ)で定義される直線を複数検出した場合、最も得票数の高い直線に投票した文字候補の集合を文字行として検出する。例えば、予め設定された閾値が2である場合、図6のハフ投票空間503では、得票数3の極大位置506が、他の得票数2の極大位置を抑えて、文字行検出部105により文字行として検出される。また、図6のハフ投票空間505では、得票数2の極大位置507が、文字行検出部105により唯一の文字行として検出される。つまり、入力画像からは極大位置506,507にそれぞれ対応した2本の直線が検出される。直線が検出されると、文字行検出部105は、各直線に投票した文字候補を抽出し、これらが覆う領域として文字行を検出する。
なお、サイズsの隣接した異なるハフ投票空間においてそれぞれ検出された極大位置が所定距離内で近接している場合、文字行検出部105は、同一の文字行を別々に検出したとして、これらの極大位置に投票した文字候補の集合から1つの文字行として検出する。
文字行検出部105は、上記した文字行検出処理の結果、1以上の文字行を検出した場合、当該1以上の文字行が存在する領域を示す第2の検出結果情報をアプリケーション部106に出力する。一方で、文字行検出部105は、上記した文字行検出処理の結果、1つの文字行も検出しなかった場合、出力部107に対して、後述にて説明するプレビュー表示処理を実行させるためのコマンドを出力する。
再び図1の説明に戻る。アプリケーション部106は、文字行検出部105から出力された第2の検出結果情報を用いて、予めインストールされたアプリケーション固有の処理を実行する。例えば、文字認識処理を実行可能なアプリケーション(例、OCR機能を有したアプリケーション等)が予めインストールされている場合、アプリケーション部106は、第2の検出結果情報により示される文字行が存在する領域の画像パターンを抽出し、抽出された文字行の画像パターンに対して文字認識処理を実行して、当該領域内の文字行に対応した文字コード列を取得する。
なお、画像中の文字をOCRなどで認識した場合、アプリケーション部106は、取得した文字コード列に関連する情報を検索することもできる。具体的には、商品名からその値段やスペック等の情報を検索したり、地名や名所の名前などからそこまでの地図情報を得たり、ある言語を他の言語に翻訳したりすることができる。アプリケーション部106によって実行された処理の結果を示す処理結果情報は出力部107に出力される。
出力部107は、アプリケーション部106から出力された処理結果情報を画像取得部101により取得された画像に重畳させた上で、情報処理装置10のディスプレイに表示させるプレビュー表示処理を実行する。また、出力部107は、アプリケーション部106とは異なる各部からプレビュー表示処理を実行させるためのコマンドの入力を受け付けると、当該コマンドにしたがって、少なくとも入力画像をそのままディスプレイに表示させるプレビュー表示処理を実行する。
次に、図7のフローチャートを参照して、以上のように構成された情報処理装置10の動作の一例について説明する。
始めに、画像取得部101は、カメラ機能を用いて撮像された画像を取得する(ステップS1)。続いて、劣化評価部102は、情報処理装置10に内蔵された加速度センサなどから、画像取得部101によって取得された画像を撮像したときの劣化評価値を取得し、当該取得した劣化評価値が予め設定された閾値以下であるかどうかを判定する(ステップS2)。なお、ステップS2における判定処理の結果、劣化評価値が閾値を超えていると判定された場合(ステップS2のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS8の処理に進む。
一方で、ステップS2における判定処理の結果、劣化評価値が閾値以下であると判定された場合(ステップS2のYES)、劣化評価部102は、文字候補検出部104に対して、文字候補検出処理を実行させるための第1のトリガを出力する。文字候補検出部104は、劣化評価部102から出力された第1のトリガの入力を受け付けると、画像取得部101により取得された画像に対して、文字候補検出処理を実行する(ステップS3)。
次に、文字候補検出部104は、ステップS3における文字候補検出処理の結果として、所定数以上の文字候補が検出されたかどうかを判定する(ステップS4)。なお、ステップS4における判定処理の結果、所定数以上の文字候補が検出されていないと判定された場合(ステップS4のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS8の処理に進む。
一方で、ステップS4における判定処理の結果、所定数以上の文字候補が検出されたと判定された場合(ステップS4のYES)、文字行検出部105は、ステップS3における文字候補検出処理の結果として得られた第1の検出結果情報に基づいて、画像取得部101により取得された画像に対する文字行検出処理を実行する(ステップS5)。
続いて、文字行検出部105は、ステップS5における文字行検出処理の結果として、1以上の文字行が検出されたかどうかを判定する(ステップS6)。なお、ステップS6における判定処理の結果、1つの文字行も検出されなかったと判定された場合(ステップS6のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS8の処理に進む。
一方で、ステップS6における判定処理の結果、1以上の文字行が検出されたと判定された場合(ステップS6のYES)、文字行検出部105は、ステップS5における文字行検出処理の結果として得られた第2の検出結果情報をアプリケーション部106に出力する。アプリケーション部106は、文字行検出部105から出力された第2の検出結果情報に基づいて予めインストールされたアプリケーション固有の処理(例えば、文字認識処理や翻訳処理)を実行し、当該処理の結果を示す処理結果情報を出力部107に出力する(ステップS7)。
しかる後、出力部107は、アプリケーション部106から出力された処理結果情報の入力を受け付けると、当該処理結果情報を、画像取得部101により取得された画像に重畳させた上で、ディスプレイに表示させるプレビュー表示処理を実行する。なお、出力部107は、アプリケーション部106とは異なる各部からプレビュー表示処理を実行させるためのコマンドの入力を受け付けた場合、画像取得部101により取得された画像をディスプレイにそのまま表示させ(ステップS8)、ここでの処理を終了させる。
ここで、図8を参照して、従来の情報処理方法と、本実施形態に係る情報処理方法との違いについて説明する。以下では、主に、フレーミング期間とリフレッシュレートについて、両者の違いについて説明する。
フレーミング期間とは、情報処理装置10を撮像対象の文字列に向けて動かし始めてから、ユーザが当該フレーミングの目的である所望の文字認識結果や翻訳結果を例えば表示出力などで得られることになる画像(すなわち、この画像を処理することによって所望の結果が得られるという画像)が取得されるまでの期間を指す。このフレーミング期間は、大別すると、3つの段階に区分することができる。1つ目が、図9(a)に示すように、撮像対象の文字列に向けて情報処理装置10を大きく動かす期間(以下、「動き大期間」と称する)である。この動き大期間では、情報処理装置10を大きく動かすことに起因して、画像にぶれが生じてしまうため、文字候補検出処理が実行されたとしても、図9(a)に示すように、文字候補は検出されない。2つ目が、図9(b)に示すように、撮像対象の文字列を撮像範囲に収めるために、大きく動かしていた情報処理装置10を減速させる期間(以下、「微調整期間」と称する)である。この微調整期間の前半においては、情報処理装置10が減速し始めたばかりということもあって、画像にぶれが生じ、文字候補は検出されたり、検出されなかったりする。一方で、微調整期間の後半においては、情報処理装置10が十分に減速されているため、画像のぶれが少なくなり、図9(b)に示すように、文字候補が検出され始める。3つ目が、図9(c)に示すように、撮像対象の文字列を完全に撮像範囲に収めたとき(以下、「フレーミング完了時」と称する)である。このフレーミング完了時には、理想的にはその数瞬後にユーザは所望の結果を得ることができる。
以上のことを、考慮した上で、図8(a),(b)について説明する。この図では、情報処理方法が理想的に機能した状態を想定し、フレーミング完了時に取得された画像からユーザの所望する結果が無事に得られるものとしている。
図8(a)は、従来の情報処理方法を適用した場合に、所望の結果を得るまでに実行される処理とこの処理に要した時間との関係を示す模式図である。従来の情報処理方法では、画像が取得されるたびに、文字候補検出処理が実行される。しかしながら、上記したように、動き大期間の全域と微調整期間の前半とでは、画像にぶれが生じてしまうため、文字候補検出処理が実行されたとしても、文字候補は検出されない(又は、検出されにくい)ので、取得された画像がそのままプレビュー表示される。したがって、動き大期間の全域と、微調整期間の前半とでは、リフレッシュレート(換言すると、再度同様な処理を実行するまでに要する時間)は、画像を取得する処理と、文字候補検出処理と、プレビュー表示処理とに要する時間の合計となる。一方で、微調整期間の後半では、上記したように、画像にぶれが少なくなるため、文字候補が検出され始める。すなわち、微調整期間の後半では、リフレッシュレートは、画像を取得する処理と、文字候補検出処理と、文字行検出処理と、認識(OCR)・翻訳処理と、プレビュー表示処理とに要する時間の合計となる。このため、所望の結果を得るまでに要する時間は、図8(a)に示すように、時間Tだけかかるものと考えられる。
図8(b)は、上記した第1のトリガを出力する機構だけを設けた場合に、所望の結果を得るまでに実行される処理とこの処理に要した時間との関係を示す模式図である。この場合、少なくとも動き大期間の全域では、画像に大きなぶれが生じている、すなわち、劣化評価値が予め設定された閾値を常に超えてしまうため、文字候補検出処理を実行させるための第1のトリガが出力されない。つまり、動き大期間の全域では、リフレッシュレートは、画像を取得する処理と、プレビュー表示処理とだけに要する時間の合計となる。すなわち、図8(b)に示すように、図8(a)のときに比べて、所望の結果を得るまでに要する時間を大幅に短縮することができる。具体的には、従来の方法では、所望の結果を得るまでに要していた時間Tを、図8(b)に示すように、時間Tに短縮することができる。
次に、図10を参照して、フレーミングの状態を示唆するための各種アイコンについて説明する。図8にて既に説明したように、フレーミング期間が開始されてからフレーミング期間が完了されるまでには、3つの期間が存在する。具体的には、(1)動き大期間と、(2)微調整期間と、(3)フレーミング完了時とが存在する。これら3つの期間の違いを出力部107によるプレビュー表示を通じてユーザに対して示唆することで、ユーザは、フレーミングの状態を正確に把握することができ、ひいては、より的確なフレーミングを実施することができるようになる。
図10(a)は、上記した(1)の期間であることをユーザに対して示唆するアイコンの一例を示す模式図である。現在の期間が、上記した(1)〜(3)の期間のうち、(1)の期間、すなわち、図8における動き大期間に相当する場合、情報処理装置10のディスプレイ上のアイコン表示領域601には、現在の期間が動き大期間であることを示唆するアイコン602が表示される。図10(a)では、動き大期間であることを示唆するアイコンとして、情報処理装置10を使用するユーザの動き、ひいては、情報処理装置10の動きが大きいことを表現した矢印のアイコン602が表示される場合を示したが、動き大期間を示唆するアイコンのデザインはこれに限定されない。例えば、単に、動き大期間という文字列がディスプレイに表示されるとしても良い。但し、動き大期間であることをユーザが容易に把握することができるデザインである方が好ましい。
図10(b)は、上記した(2)の期間であることをユーザに対して示唆するアイコンの一例を示す模式図である。現在の期間が、上記した(1)〜(3)の期間のうち、(2)の期間、すなわち、図8における微調整期間に相当する場合、情報処理装置10のディスプレイ上のアイコン表示領域601には、現在の期間が微調整期間であることを示唆するアイコン603が表示される。図10(b)では、微調整期間であることを示唆するアイコンとして、撮像対象が情報処理装置10の撮像範囲に入りかけていることを表現したアイコン603が表示される場合を示したが、微調整期間を示唆するアイコンのデザインはこれに限定されない。例えば、単に、微調整期間という文字列がディスプレイに表示されるとしても良い。但し、微調整期間であることをユーザが容易に把握することができるデザインである方が好ましい。
図10(c)は、上記した(3)の期間であることをユーザに対して示唆するアイコンの一例を示す模式図である。現在の期間が、上記した(1)〜(3)の期間のうち、(3)の期間、すなわち、図8におけるフレーミング終了時に相当する場合、情報処理装置10のディスプレイ上のアイコン表示領域601には、現在の期間がフレーミング終了時であることを示唆するアイコン604が表示される。図10(c)では、フレーミング終了時であることを示唆するアイコンとして、撮像対象が情報処理装置10の撮像範囲に入り終えた(収まっている)ことを表現したアイコン604が表示される場合を示したが、フレーミング終了時を示唆するアイコンのデザインはこれに限定されない。例えば、単に、フレーミング終了時という文字列がディスプレイに表示されるとしても良い。但し、フレーミング終了時であることをユーザが容易に把握することができるデザインである方が好ましい。
なお、図10では、上記した(1)〜(3)の期間を示唆するアイコンがそれぞれ表示される場合について説明したが、例えば、これら3つの期間にそれぞれ対応した音声を出力部107から出力するとしても良い。
また、上記した(1)〜(3)の期間を示唆するだけでなく、上記した「劣化評価値」を、出力部107によるプレビュー表示に重畳表示されるグラフを用いて、ユーザに対して示唆することもできる。さらに、文字候補検出部104によって検出された文字候補や、文字行検出部105によって検出された文字行の位置を、例えば枠などを用いて、ユーザに対して示唆することもできる。以下では、図11を参照して、劣化評価値を示唆するためのグラフアイコンについて説明する。
図11は、劣化評価値を示唆するためのグラフアイコンの一例を示す模式図である。劣化評価値を示すグラフ(ここでは、棒グラフ)は、情報処理装置10のディスプレイ上のグラフ表示領域701に表示される。図11に示す702が、劣化評価部102によって算出された劣化評価値を示す。また、図11に示す703が、劣化評価部102において、予め設定された閾値を示す。すなわち、図11によれば、劣化評価部102によって算出された劣化評価値が、予め設定された閾値を下回っている(すなわち、第1のトリガが出力されている)ことを、ユーザは視覚的に把握することができる。なお、劣化評価値が予め設定された閾値を下回っている(すなわち、第1のトリガが出力されている)場合、当該閾値を超えているときとは、グラフの色や明るさを変えることにより、ユーザはより容易に第1のトリガが出力されていることを把握することができるようになる。
図11に示したように、劣化評価値をユーザに対して示唆することで、ユーザは、文字行の検出・認識・翻訳の結果が上手く得られないときに、その原因が、動き大期間によるものなのか、撮像対象の文字が遠すぎたり、当該文字の傾きが大きすぎたりして文字候補の検出に失敗していることによるものなのか、といったことをより具体的に推測することができるようになる。
なお、以上では、劣化評価部102は、図7のステップS2の判定処理を文字候補検出以降の処理(図7のステップS3〜S7)が開始されて以降行わないように説明しているが、ユーザが途中でフレーミングをやり直す可能性を考慮して、劣化評価部102は、文字候補検出以降の処理(図7のステップS3〜S7)が開始されていても、バックグラウンドで図7のステップS2の判定処理を継続しており、劣化評価値が閾値を超えたときには、直ちに第1トリガの出力を止め、文字候補検出以降の処理(ステップS3〜S7)を中断させて、取得された画像をそのままプレビュー表示させるために、ステップS8の処理に進むようにすることも可能である。このようにすれば、フレーミングをやり直すために、ユーザが情報処理装置を再度動かし始めたとき、これに追従してプレビュー表示のリフレッシュレートを再び上げることができるようになる。
次に、図12を参照して、情報処理装置10のハードウェア構成例を説明する。
図12は、情報処理装置のハードウェア構成を示す図である。図12の情報処理装置10は、CPU801、RAM802、ROM803、HDD804、LAN805、入力デバイス806、ディスプレイ807、外部インタフェース808、外部ストレージデバイス809、カメラ810及び加速度センサ811を備えている。
CPU801は、情報処理装置10内のコンポーネントを制御するプロセッサである。CPU801は、HDD804からRAM802にロードされる文字行検出プログラムを実行する。CPU801はこの文字行検出プログラムを実行することにより、上記した情報処理を実行するように構成された処理部として機能することができる。なお、CPU801は、外部ストレージデバイス809(例えば、USBデバイス等)からRAM802に文字行検出プログラムをロードし、これを実行することも可能である。外部ストレージデバイス809からは文字行検出プログラムだけでなく、情報処理実行時に使用される画像などをロードすることができる。
入力デバイス806はキーボード、マウス、タッチパネル、他の各種入力デバイスである。ディスプレイ807は、情報処理装置10によって実行される各種処理の結果を表示可能なデバイスである。カメラ810は情報処理の対象となり得る画像を撮影可能なデバイスである。加速度センサ811は劣化評価値を取得可能なデバイスである。
以上説明した第1の実施形態によれば、文字候補を検出できる可能性が高いと判断された場合にだけ、文字候補検出処理を実行させるための第1のトリガを出力する劣化評価部102を備えているので、図8にて説明したように、リフレッシュレートを高く保つことができ、ひいては、フレーミングに要する時間を短縮することができる。つまり、ユーザはフレーミングを容易に行うことができるようになる。
<第2の実施形態>
次に、図13を参照して、第2の実施形態について説明する。本実施形態では、上記した第1の実施形態とは異なり、情報処理装置10が、図13に示す密度評価部108をさらに備えている場合について説明する。なお以下では、上記した第1の実施形態と同様な機能・構成についての説明は省略し、主に、上記した第1の実施形態とは異なる機能・構成についてだけ説明する。
密度評価部108は、文字候補検出部104と文字行検出部105との間に介在するようにして設けられる機能部であり、文字候補検出部104から出力された第1の検出結果情報の入力を受け付けると、後述にて説明する密度評価処理を実行する。
一般的に、文字は一方向(例えば、横方向又は縦方向など)に並ぶようにして密集して記載される。このため、文字候補検出部104により、文字候補が画像中にまばらに検出されている場合、当該画像から文字行(文字列)を検出できる可能性は低くなる。逆に、文字候補検出部104により、文字候補が画像中に密集して検出されている場合、当該画像から文字行(文字列)を検出できる可能性は高くなる。
密度評価部108は、上記した特徴を利用して、密度評価処理を実行する。具体的には、密度評価部108は、文字候補検出部104によって検出された所定数以上の文字候補により占められる面積(画素数)の合計値を、画像全体の面積(画素数)で除算することにより得られる単位面積あたりの文字候補面積(以下、密度評価値と称する)を算出し、当該算出した密度評価値に基づいて、文字行を検出できる可能性が高いか、或いは低いかを判断する密度評価処理を実行する。文字行を検出できる可能性が高いと判断した場合、密度評価部108は、文字行検出部105に対して、文字行検出処理を実行させるための第2のトリガを出力する。一方で、文字行を検出できる可能性が低いと判断した場合、密度評価部108は、出力部107に対して、プレビュー表示処理を実行させるためのコマンドを出力する。
ここで、図14を参照して、文字候補検出部104により検出された文字候補の分布と、密度評価部108により算出される密度評価値との関係について、より詳しく説明する。但し、ここでは、文字候補検出部104が、実際の文字の位置と検出窓の位置とが多少ずれていたとしても、当該検出窓を文字候補として(すなわち、当該検出窓が位置する領域を文字が存在すると考えられる領域として)検出しているものとする。つまり、文字候補検出部104は、文字が密集して記載されている部分では、1つの文字に対する複数の検出窓をそれぞれ文字候補として検出しているものとする。
図14の901は、文字のない画像から文字候補が誤って検出された場合を例示している。これによれば、文字候補の分布は離散的であることが分かる。図14の905は、図14の901に対応した図であり、これによれば、画像全体の面積が検出窓904の40倍であるので、密度評価値は、上記した算出方法により、0.05(=2/40)と求めることができる。
図14の902は、文字間隔が広い、換言すると、文字が疎な文字行「ABCDEF」が記載された画像から複数の文字候補が検出された場合を例示している。これによれば、文字行「ABCDEF」の周辺には、複数の文字候補(ここでは、8個の文字候補)がやや密集して検出されていることが分かる。図14の906は、図14の902に対応した図であり、これによれば、密度評価値は、0.2(=8/40)と求めることができる。
図14の903は、文字間隔が狭い、換言すると、文字が密な文字行「ABCDEFG」が記載された画像から複数の文字候補が検出された場合を例示している。これによれば、文字行「ABCDEFG」の周辺には、複数の文字候補(ここでは、16個の文字候補)が密集して検出されていることが分かる。図14の907は、図14の903に対応した図であり、これによれば、密度評価値は、0.4(=16/40)と求めることができる。
このように、文字候補の分布と密度評価値との関係としては、文字候補の分布が離散的であるほど、密度評価値は小さくなり、文字候補が密集している分布であるほど、密度評価値は大きくなる関係にあることが分かる。すなわち、文字候補の分布が離散的であるほど、密度評価部108は、出力部107に対して、プレビュー表示処理を実行させるためのコマンドを出力する可能性が高くなり、文字候補が密集しているほど、密度評価部108は、文字行検出部105に対して、文字行検出処理を実行させるための第2のトリガを出力する可能性が高くなる。
なお、文字候補の面積の総和は、実際に文字候補が覆っている面積に対して、文字候補が重なり合っている面積の分だけ大きくなる。すなわち、文字が密集して記載されるほど、1つの文字に対して複数の検出窓がそれぞれ文字候補として検出されるので、文字候補の面積の総和は大きくなる傾向にある。
また、上記した密度評価値の代わりに、例えば、画像の小領域毎の文字候補の密度の画像全体における最大値を、密度評価値として利用することもできる。この場合、小領域毎に、文字候補の密度を算出し、その最大値を求めることで、画像内で局所的に文字候補が密集している状況を数値化することができる。
さらに、目標とする文字の大きさが狭い範囲に限られ、解像度ピラミッド画像204の画像数を少なく抑えることができるときは、検出窓の大きさの違いを無視できるとして、所定値(例えば、平均的な検出窓面積を画像面積で割った値)に対する文字候補数の比を求めることで、文字候補の密度に近似させることもできる。
次に、図15のフローチャートを参照して、第2の実施形態に係る情報処理装置10の動作の一例について説明する。
始めに、画像取得部101は、カメラ機能を用いて撮像された画像を取得する(ステップS11)。続いて、劣化評価部102は、情報処理装置10に内蔵された加速度センサなどから、画像取得部101によって取得された画像を撮像したときの劣化評価値を取得し、当該取得した劣化評価値が予め設定された閾値以下であるかどうかを判定する(ステップS12)。なお、ステップS12における判定処理の結果、劣化評価値が閾値を超えていると判定された場合(ステップS12のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS19の処理に進む。
一方で、ステップS12における判定処理の結果、劣化評価値が閾値以下であると判定された場合(ステップS12のYES)、劣化評価部102は、文字候補検出部104に対して、文字候補検出処理を実行させるための第1のトリガを出力する。文字候補検出部104は、劣化評価部102から出力された第1のトリガの入力を受け付けると、画像取得部101により取得された画像に対して、文字候補検出処理を実行する(ステップS13)。
次に、文字候補検出部104は、ステップS13における文字候補検出処理の結果として、所定数以上の文字候補が検出されたかどうかを判定する(ステップS14)。なお、ステップS14における判定処理の結果、所定数以上の文字候補が検出されていないと判定された場合(ステップS14のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS19の処理に進む。
一方で、ステップS14における判定処理の結果、所定数以上の文字候補が検出されたと判定された場合(ステップS14のYES)、密度評価部108は、ステップS13における文字候補検出処理の結果として得られた第1の検出結果情報に基づいて密度評価値を算出し、当該算出した密度評価値が予め設定された閾値以上であるかどうかを判定する(ステップS15)。なお、ステップS15における判定処理の結果、密度評価値が閾値より小さいと判定された場合(ステップS15のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS19の処理に進む。
一方で、ステップS15における判定処理の結果、密度評価値が閾値以上であると判定された場合(ステップS15のYES)、密度評価部108は、文字行検出部105に対して、文字行検出処理を実行させるための第2のトリガを出力する。文字行検出部105は、密度評価部108から出力された第2のトリガの入力を受け付けると、画像取得部101により取得された画像に対する文字行検出処理を実行する(ステップS16)。
続いて、文字行検出部105は、ステップS16における文字行検出処理の結果として、1以上の文字行が検出されたかどうかを判定する(ステップS17)。なお、ステップS17における判定処理の結果、1つの文字行も検出されなかったと判定された場合(ステップS17のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS19の処理に進む。
一方で、ステップS17における判定処理の結果、1以上の文字行が検出されたと判定された場合(ステップS17のYES)、文字行検出部105は、ステップS16における文字行検出処理の結果として得られた第2の検出結果情報をアプリケーション部106に出力する。アプリケーション部106は、文字行検出部105から出力された第2の検出結果情報に基づいて予めインストールされたアプリケーション固有の処理(例えば、文字認識処理や翻訳処理)を実行し、当該処理の結果を示す処理結果情報を出力部107に出力する(ステップS18)。
しかる後、出力部107は、アプリケーション部106から出力された処理結果情報の入力を受け付けると、当該処理結果情報を、画像取得部101により取得された画像に重畳させた上で、ディスプレイに表示させるプレビュー表示処理を実行する。なお、出力部107は、アプリケーション部106とは異なる各部からプレビュー表示処理を実行させるためのコマンドの入力を受け付けた場合、少なくとも、画像取得部101により取得された画像をディスプレイにそのまま表示させ(ステップS19)、ここでの処理を終了させる。
ここで、図16を参照して、従来の情報処理方法と、第1の実施形態に係る情報処理方法と、本実施形態に係る情報処理方法との違いについて説明する。以下では、主に、フレーミング期間とリフレッシュレートの違いについて説明する。
図16(a),(b)については、既に説明した図8(a),(b)とそれぞれ同様であるため、ここではその詳しい説明は省略する。
図16(c)は、上記した第1のトリガを出力する機構と、上記した第2のトリガを出力する機構とを設けた場合に、所望の結果を得るまでに実行される処理とこの処理に要した時間との関係を示す模式図である。この場合、少なくとも動き大期間の全域では、図16(b)に示した場合と同様に、文字候補検出処理を実行させるための第1のトリガが出力されないので、動き大期間の全域におけるリフレッシュレートを従来の方法に比べて高くすることができる。さらに、図16(a),(b)では、少なくとも微調整期間の後半では、文字候補検出処理により離散的に配置された文字候補が検出されたとしても、文字行検出処理が実行されるので、リフレッシュレートが低くなってしまっていたが、第2のトリガを出力する機構が設けられることによって、文字候補検出処理により離散的に配置された文字候補が検出されたとしても、第2のトリガが出力されない、つまり、文字行検出処理が実行されないため、図16(a),(b)に示した場合に比べて、この分だけリフレッシュレートを高くすることができる。このため、所望の結果を得るまでに要していた時間を、図16(c)に示すように、時間Tまで短縮することができる。
次に、図17を参照して、密度評価値を示唆するためのグラフアイコンについて説明する。
図17は、密度評価値を示唆するためのグラフアイコンの一例を示す模式図である。密度評価値を示すグラフ(ここでは、棒グラフ)は、出力部107によって、情報処理装置10のディスプレイ上のグラフ表示領域1001に表示される。なお、ここでは、既に説明した図11に示したグラフ表示領域701と、図17に示すグラフ表示領域1001とが、別の位置に設けられている場合を想定する。これにより、ユーザは、劣化評価値と密度評価値の両方を視覚的に把握することができるようになる。図17に示す1002が、密度評価部108によって算出された密度評価値を示す。また、図17に示す1003が、密度評価部108において、予め設定された閾値を示す。すなわち、図17によれば、密度評価部108によって算出された密度評価値が、予め設定された閾値を上回っている(すなわち、第2のトリガが出力されている)ことを、ユーザは視覚的に把握することができる。なお、密度評価値が予め設定された閾値を上回っている(すなわち、第2のトリガが出力されている)場合、当該閾値を下回っているときとは、グラフの色や明るさを変えることにより、ユーザはより容易に第2のトリガが出力されていることを把握することができる。
図17に示したように、劣化評価値に加えて、密度評価値をユーザに対して示唆することで、ユーザは、文字行の検出・認識・翻訳の結果が上手く得られないときに、その原因が、動き大期間によるものなのか、撮像対象の文字が遠すぎたり、当該文字の傾きが大きすぎたりして文字候補の検出に失敗していることによるものなのか、検出された文字候補の密度の不足によるものなのか、検出された文字候補の密度が十分であっても文字行が検出できないことによるものなのかといったことをより具体的に推測することができるようになる。
以上説明した第2の実施形態によれば、文字行を検出できる可能性が高いと判断された場合にだけ、文字行検出処理を実行させるための第2のトリガを出力する密度評価部108をさらに備えているので、図16にて説明したように、上記した第1の実施形態より、リフレッシュレートを高く保つことができ、ひいては、フレーミングに要する時間をさらに短縮することができる。
<第3の実施形態>
次に、図18のフローチャートを参照して、第3の実施形態について説明する。本実施形態では、上記した第1及び第2の実施形態とは異なり、文字候補検出部104が、第1のトリガの入力を受けた直後に文字候補検出処理を実行するのではなく、第1のトリガの入力を受け付けてから一定期間経過(例えば、0.5秒程度)しても、劣化評価部102から出力される第1のトリガの入力を変わらず受け付けていたときに、文字候補検出処理を実行する場合について説明する。
なお、第1のトリガの入力を一定期間受け続けた場合に文字候補検出処理が実行されるとすることで(換言すると、遅延フレームを導入した上で文字候補検出処理が実行されるとすることで)、劣化評価部102から第1のトリガが出力されてすぐに、当該第1のトリガの入力を覆す行動(例えば、情報処理装置10を大きく動かすなど)が行われたとしても、無駄な文字候補検出処理を実行せずにすむという利点がある。
以下、図18のフローチャートを参照して、第3の実施形態に係る情報処理装置10の動作の一例について説明する。
始めに、画像取得部101は、カメラ機能を用いて撮像された画像を取得する(ステップS21)。続いて、劣化評価部102は、情報処理装置10に内蔵された加速度センサから、画像取得部101によって取得された画像を撮像したときの劣化評価値を取得し、当該取得した劣化評価値が予め設定された閾値以下であるかどうかを判定する(ステップS22)。なお、ステップS22における判定処理の結果、劣化評価値が閾値を超えていると判定された場合(ステップS22のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS30の処理に進む。
一方で、ステップS22における判定処理の結果、劣化評価値が閾値以下であると判定された場合(ステップS22のYES)、劣化評価部102は、文字候補検出部104に対して、文字候補検出処理を実行させるための第1のトリガを出力する。文字候補検出部104は、劣化評価部102から出力された第1のトリガの入力を受け付けると、当該第1のトリガの入力を一定期間受け続けているかどうかを判定する(ステップS23)。なお、ステップS23における判定処理の結果、第1のトリガの入力を一定期間受け続けていないと判定された場合(ステップS23のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS30の処理に進む。
一方で、ステップS23における判定処理の結果、劣化評価部102から出力された第1のトリガの入力を一定期間受け続けていると判定された場合(ステップS23のYES)、文字候補検出部104は、画像取得部101により取得された画像に対して、文字候補検出処理を実行する(ステップS24)。
次に、文字候補検出部104は、ステップS24における文字候補検出処理の結果として、所定数以上の文字候補が検出されたかどうかを判定する(ステップS25)。なお、ステップS25における判定処理の結果、所定数以上の文字候補が検出されていないと判定された場合(ステップS25のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS30の処理に進む。
一方で、ステップS25における判定処理の結果、所定数以上の文字候補が検出されたと判定された場合(ステップS25のYES)、密度評価部108は、ステップS24における文字候補検出処理の結果として得られた第1の検出結果情報に基づいて密度評価値を算出し、当該算出した密度評価値が予め設定された閾値以上であるかどうかを判定する(ステップS26)。なお、ステップS26における判定処理の結果、密度評価値が閾値より小さいと判定された場合(ステップS26のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS30の処理に進む。
一方で、ステップS26における判定処理の結果、密度評価値が閾値以上であると判定された場合(ステップS26のYES)、密度評価部108は、文字行検出部105に対して、文字行検出処理を実行させるための第2のトリガを出力する。文字行検出部105は、密度評価部108から出力された第2のトリガの入力を受け付けると、画像取得部101により取得された画像に対する文字行検出処理を実行する(ステップS27)。
続いて、文字行検出部105は、ステップS27における文字行検出処理の結果として、1以上の文字行が検出されたかどうかを判定する(ステップS28)。なお、ステップS28における判定処理の結果、1つの文字行も検出されなかったと判定された場合(ステップS28のNO)、取得された画像をそのままプレビュー表示させるために、後述するステップS30の処理に進む。
一方で、ステップS28における判定処理の結果、1以上の文字行が検出されたと判定された場合(ステップS28のYES)、文字行検出部105は、ステップS27における文字行検出処理の結果として得られた第2の検出結果情報をアプリケーション部106に出力する。アプリケーション部106は、文字行検出部105から出力された第2の検出結果情報に基づいて予めインストールされたアプリケーション固有の処理(例えば、文字認識処理や翻訳処理)を実行し、当該処理の結果を示す処理結果情報を出力部107に出力する(ステップS29)。
しかる後、出力部107は、アプリケーション部106から出力された処理結果情報の入力を受け付けると、当該処理結果情報を、画像取得部101により取得された画像に重畳させた上で、ディスプレイに表示させるプレビュー表示処理を実行する。なお、出力部107は、アプリケーション部106とは異なる各部からプレビュー表示処理を実行させるためのコマンドの入力を受け付けた場合、少なくとも、画像取得部101により取得された画像をディスプレイにそのまま表示させ(ステップS30)、ここでの処理を終了させる。
ここで、図19を参照して、従来の情報処理方法と、第1の実施形態に係る情報処理方法と、第2の実施形態に係る情報処理方法と、本実施形態に係る情報処理方法との違いについて説明する。以下では、主に、フレーミング期間とリフレッシュレートの違いについて説明する。
図19(a)〜(c)については、既に説明した図16(a)〜(b)とそれぞれ同様であるため、ここではその詳しい説明は省略する。
図19(d)は、上記した第1のトリガを出力する機構と、上記した第2のトリガを出力する機構と、上記した遅延フレームとを設けた場合に、所望の結果を得るまでに実行される処理とこの処理に要した時間との関係を示す模式図である。この場合、動き大期間の全域と微調整期間の後半とでは、図19(c)に示した場合と同様に、リフレッシュレートを高く保つことができる。さらに、図19(b),(c)では、少なくとも微調整期間の前半では、第1のトリガの出力に直ちに応じて、文字候補検出処理が実行されていたため、第1のトリガの出力を覆すような行動が取られた場合に対応することができていなかったが、遅延フレームが導入されることによって、第1のトリガの出力を覆すような行動が取られた場合には文字候補検出処理が実行されないため、図19(b),(c)に示した場合に比べて、この分だけリフレッシュレートを高く保つことができる。このため、所望の結果を得るまでに要していた時間を、図19(d)に示すように、時間Tまで短縮することができる。
以上説明した第3の実施形態によれば、文字候補検出部104に第1のトリガの入力を覆す行動にも対応可能な遅延フレームが導入されているので、図19にて説明したように、上記した第1及び第2の実施形態より、リフレッシュレートを高く保つことができ、ひいては、フレーミングに要する時間をさらに短縮することができる。
10…情報処理装置、101…画像取得部、102…劣化評価部、103…文字検出辞書記憶部、104…文字候補検出部、105…文字行検出部、106…アプリケーション部、107…出力部、108…密度評価部。

Claims (15)

  1. 複数の文字により構成される文字行が記載される文字面を撮影することで得られる画像を取得する画像取得手段と、
    前記取得される画像の劣化の程度を示す劣化評価値に基づいて、当該画像から文字らしい画像領域を検出できる可能性が高いかどうかを判定する劣化評価手段と、
    前記劣化評価手段による判定の結果、前記取得される画像から文字らしい画像領域を検出できる可能性が高いと判定される場合には、当該画像領域を検出するための処理を実行させるために第1のトリガを出力し、当該画像領域を検出できる可能性が低いと判定される場合には、当該画像をそのままディスプレイに表示させるためのコマンドを出力する第1の出力手段と、
    前記出力される第1のトリガにしたがって、前記取得される画像から所定数以上の文字らしい画像領域を検出し、当該画像領域に対して加工処理が施された画像を表示させる、又は前記出力されるコマンドにしたがって、前記取得される画像をそのまま表示させる表示手段と
    を具備することを特徴とする情報処理装置。
  2. 前記検出される所定数以上の画像領域が、前記取得される画像の総面積のうちのどの程度を占めているかを示す密度評価値に基づいて、当該画像から文字行を検出できる可能性が高いかどうかを判定する密度評価手段と、
    前記密度評価手段による判定の結果、前記取得される画像から文字行を検出できる可能性が高いと判定される場合には、当該文字行を検出するための処理を実行させるために第2のトリガを出力し、当該画像から文字行を検出できる可能性が低いと判定される場合には、前記コマンドを出力する第2の出力手段と
    をさらに具備し、
    前記表示手段は、
    前記出力される第2のトリガにしたがって、前記検出される所定数以上の画像領域から前記文字行を検出し、当該文字行に対して加工処理が施された画像を表示させることを特徴とする請求項1に記載の情報処理装置。
  3. 前記劣化評価手段は、
    前記取得される画像を撮像したときの姿勢変化量を計測し、当該計測された姿勢変化量を前記劣化評価値として用いて、当該劣化評価値が予め設定された閾値以下であるかどうかを判定し、
    前記第1の出力手段は、
    前記劣化評価手段による判定の結果、前記劣化評価値が前記閾値以下であると判定された場合に前記第1のトリガを出力することを特徴とする請求項1に記載の情報処理装置。
  4. 前記第1の出力手段は、
    前記劣化評価手段による判定の結果、前記劣化評価値が前記閾値以下であると判定され、かつ前記取得される画像を撮像する撮像部のフォーカスが合った場合に前記第1のトリガを出力することを特徴とする請求項3に記載の情報処理装置。
  5. 前記表示手段は、
    前記出力される第1のトリガの入力を一定期間続けて受けた場合に、前記取得される画像から文字らしい画像領域を検出することを特徴とする請求項1に記載の情報処理装置。
  6. 複数の文字により構成される文字行が記載される文字面を撮影することで得られる画像を取得することと、
    前記取得される画像の劣化の程度を示す劣化評価値に基づいて、当該画像から文字らしい画像領域を検出できる可能性が高いかどうかを判定することと、
    前記取得される画像から文字らしい画像領域を検出できる可能性が高いと判定される場合には、当該画像領域を検出するための処理を実行させるために第1のトリガを出力し、当該画像領域を検出できる可能性が低いと判定される場合には、当該画像をそのままディスプレイに表示させるためのコマンドを出力することと、
    前記出力される第1のトリガにしたがって、前記取得される画像から所定数以上の文字らしい画像領域を検出し、当該画像領域に対して加工処理が施された画像を表示させること、又は前記出力されるコマンドにしたがって、前記取得される画像をそのまま表示させることと
    を具備することを特徴とする情報処理方法。
  7. 前記検出される所定数以上の画像領域が、前記取得される画像の総面積のうちのどの程度を占めているかを示す密度評価値に基づいて、当該画像から文字行を検出できる可能性が高いかどうかを判定することと、
    前記取得される画像から文字行を検出できる可能性が高いと判定される場合には、当該文字行を検出するための処理を実行させるために第2のトリガを出力し、当該画像から文字行を検出できる可能性が低いと判定される場合には、前記コマンドを出力することと
    をさらに具備し、
    前記画像を表示させることは、
    前記出力される第2のトリガにしたがって、前記検出される所定数以上の画像領域から前記文字行を検出し、当該文字行に対して加工処理が施された画像を表示させることを特徴とする請求項6に記載の情報処理方法。
  8. 前記画像領域を検出できる可能性が高いかどうかを判定することは、
    前記取得される画像を撮像したときの姿勢変化量を計測し、当該計測された姿勢変化量を前記劣化評価値として用いて、当該劣化評価値が予め設定された閾値以下であるかどうかを判定し、
    前記第1のトリガを出力することは、
    前記劣化評価値が前記閾値以下であると判定された場合に前記第1のトリガを出力することを特徴とする請求項6に記載の情報処理方法。
  9. 前記第1のトリガを出力することは、
    前記劣化評価値が前記閾値以下であると判定され、かつ前記取得される画像を撮像する撮像部のフォーカスが合った場合に前記第1のトリガを出力することを特徴とする請求項8に記載の情報処理方法。
  10. 前記画像を表示させることは、
    前記出力される第1のトリガの入力を一定期間続けて受けた場合に、前記取得される画像から文字らしい画像領域を検出することを特徴とする請求項6に記載の情報処理方法。
  11. コンピュータにより実行されるプログラムであって、前記プログラムは前記コンピュータを、
    複数の文字により構成される文字行が記載される文字面を撮影することで得られる画像を取得する画像取得手段と、
    前記取得される画像の劣化の程度を示す劣化評価値に基づいて、当該画像から文字らしい画像領域を検出できる可能性が高いかどうかを判定する劣化評価手段と、
    前記劣化評価手段による判定の結果、前記取得される画像から文字らしい画像領域を検出できる可能性が高いと判定される場合には、当該画像領域を検出するための処理を実行させるために第1のトリガを出力し、当該画像領域を検出できる可能性が低いと判定される場合には、当該画像をそのままディスプレイに表示させるためのコマンドを出力する第1の出力手段と、
    前記出力される第1のトリガにしたがって、前記取得される画像から所定数以上の文字らしい画像領域を検出し、当該画像領域に対して加工処理が施された画像を表示させる、又は前記出力されるコマンドにしたがって、前記取得される画像をそのまま表示させる表示手段として動作させるためのプログラム。
  12. 前記コンピュータを、
    前記検出される所定数以上の画像領域が、前記取得される画像の総面積のうちのどの程度を占めているかを示す密度評価値に基づいて、当該画像から文字行を検出できる可能性が高いかどうかを判定する密度評価手段と、
    前記密度評価手段による判定の結果、前記取得される画像から文字行を検出できる可能性が高いと判定される場合には、当該文字行を検出するための処理を実行させるために第2のトリガを出力し、当該画像から文字行を検出できる可能性が低いと判定される場合には、前記コマンドを出力する第2の出力手段としてさらに動作させ、
    前記表示手段は、
    前記出力される第2のトリガにしたがって、前記検出される所定数以上の画像領域から前記文字行を検出し、当該文字行に対して加工処理が施された画像を表示させることを特徴とする請求項11に記載のプログラム。
  13. 前記劣化評価手段は、
    前記取得される画像を撮像したときの姿勢変化量を計測し、当該計測された姿勢変化量を前記劣化評価値として用いて、当該劣化評価値が予め設定された閾値以下であるかどうかを判定し、
    前記第1の出力手段は、
    前記劣化評価手段による判定の結果、前記劣化評価値が前記閾値以下であると判定された場合に前記第1のトリガを出力することを特徴とする請求項11に記載のプログラム。
  14. 前記第1の出力手段は、
    前記劣化評価手段による判定の結果、前記劣化評価値が前記閾値以下であると判定され、かつ前記取得される画像を撮像する撮像部のフォーカスが合った場合に前記第1のトリガを出力することを特徴とする請求項13に記載のプログラム。
  15. 前記表示手段は、
    前記出力される第1のトリガの入力を一定期間続けて受けた場合に、前記取得される画像から文字らしい画像領域を検出することを特徴とする請求項11に記載のプログラム。
JP2015045899A 2015-03-09 2015-03-09 情報処理装置、情報処理方法及びプログラム Active JP6548920B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015045899A JP6548920B2 (ja) 2015-03-09 2015-03-09 情報処理装置、情報処理方法及びプログラム
US15/058,542 US9819860B2 (en) 2015-03-09 2016-03-02 Data processor, data processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015045899A JP6548920B2 (ja) 2015-03-09 2015-03-09 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016167128A true JP2016167128A (ja) 2016-09-15
JP6548920B2 JP6548920B2 (ja) 2019-07-24

Family

ID=56888345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015045899A Active JP6548920B2 (ja) 2015-03-09 2015-03-09 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US9819860B2 (ja)
JP (1) JP6548920B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9819860B2 (en) 2015-03-09 2017-11-14 Kabushiki Kaisha Toshiba Data processor, data processing method and storage medium
US10121086B2 (en) 2015-07-14 2018-11-06 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method
JP2019061481A (ja) * 2017-09-26 2019-04-18 カシオ計算機株式会社 撮像装置、印刷システム、画像処理方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6971894B2 (ja) * 2018-03-09 2021-11-24 株式会社東芝 画像処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217997A (ja) * 2009-03-13 2010-09-30 Omron Corp 文字認識装置、文字認識プログラム、および文字認識方法
JP2013008389A (ja) * 2012-09-12 2013-01-10 Omron Corp 携帯端末装置用のプログラムおよび携帯端末装置

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2789873B2 (ja) 1991-08-23 1998-08-27 日本電気株式会社 光学文字読取装置
JPH0644405A (ja) 1991-09-20 1994-02-18 Fujitsu Ltd Ocr読み取り位置補正制御装置
JP3576570B2 (ja) 1991-11-19 2004-10-13 ゼロックス コーポレイション 比較方法
CA2077970C (en) 1991-11-19 1999-02-23 Daniel P. Huttenlocher Optical word recognition by examination of word shape
JP3031579B2 (ja) 1991-12-05 2000-04-10 株式会社日立製作所 帳票の文字認識領域指定方法
JP2998383B2 (ja) 1992-01-14 2000-01-11 松下電器産業株式会社 駐車検出装置
JPH05258118A (ja) 1992-03-10 1993-10-08 Sharp Corp 名刺読取装置
JPH05258119A (ja) 1992-03-13 1993-10-08 Sharp Corp 名刺読取装置
US6330358B1 (en) 1993-01-14 2001-12-11 Atr Auditory And Visual Perception Research Laboratories Apparatus for character segmentation and apparatus for character recognition using the same
JPH06245032A (ja) 1993-02-15 1994-09-02 Fujitsu Ltd 光学認識装置
JPH07152857A (ja) 1993-08-27 1995-06-16 Matsushita Electric Ind Co Ltd 運転免許証認識装置
JPH0785215A (ja) 1993-09-14 1995-03-31 Nippon Digital Kenkyusho:Kk 文字認識装置
JPH0793476A (ja) 1993-09-22 1995-04-07 Toshiba Corp 文字列検出装置
JP3443141B2 (ja) 1993-10-05 2003-09-02 株式会社リコー 画像傾き検出方法及び表処理方法
US5410611A (en) 1993-12-17 1995-04-25 Xerox Corporation Method for identifying word bounding boxes in text
JPH07182459A (ja) 1993-12-22 1995-07-21 Matsushita Electric Ind Co Ltd 表構造抽出装置
JP3400151B2 (ja) 1994-12-08 2003-04-28 株式会社東芝 文字列領域抽出装置および方法
JPH08190610A (ja) 1995-01-12 1996-07-23 Oki Electric Ind Co Ltd 光学式文字読取装置
JPH08194776A (ja) 1995-01-17 1996-07-30 Nippon Telegr & Teleph Corp <Ntt> 帳票処理方法及び装置
JPH08315067A (ja) 1995-05-12 1996-11-29 Fujitsu Ltd 文字読取装置
US6188790B1 (en) 1996-02-29 2001-02-13 Tottori Sanyo Electric Ltd. Method and apparatus for pre-recognition character processing
JP3677666B2 (ja) 1996-07-08 2005-08-03 九州電力株式会社 光学的文字認識装置
JPH11203404A (ja) 1998-01-20 1999-07-30 Nippon Telegr & Teleph Corp <Ntt> 景観画像中文字読み取り方法およびその装置およびその方法を記録した記録媒体
JP3574562B2 (ja) 1998-03-19 2004-10-06 日本電信電話株式会社 画像内の一連パターンの認識および変形検出方法及びそのプログラムを記録した記録媒体
JP2000030052A (ja) 1998-07-13 2000-01-28 Oki Electric Ind Co Ltd 画像処理装置
JP2000181988A (ja) 1998-12-16 2000-06-30 Hitachi Ltd 光学文字読取装置
JP2001307017A (ja) 2000-04-20 2001-11-02 Fujitsu Ltd 文字プレート認識装置
JP2001331803A (ja) 2000-05-19 2001-11-30 Akira Kurematsu 画像中の文字領域抽出方法
US7031553B2 (en) 2000-09-22 2006-04-18 Sri International Method and apparatus for recognizing text in an image sequence of scene imagery
JP2002117373A (ja) 2000-10-11 2002-04-19 Ntt Advanced Technology Corp アドレス自動入力装置及びその方法、並びに通信端末装置
JP3554703B2 (ja) 2000-10-12 2004-08-18 リバーベル株式会社 情報端末装置
JP4145014B2 (ja) 2001-01-11 2008-09-03 株式会社リコー 画像処理装置
JP4164568B2 (ja) 2001-10-01 2008-10-15 独立行政法人産業技術総合研究所 文字情報入力装置および文字情報入力方法並びに記録媒体
US6922487B2 (en) 2001-11-02 2005-07-26 Xerox Corporation Method and apparatus for capturing text images
JP4383790B2 (ja) 2003-08-06 2009-12-16 日立オムロンターミナルソリューションズ株式会社 携帯情報端末
JP3891981B2 (ja) 2003-11-20 2007-03-14 リバーベル株式会社 情報端末装置
JP2006172083A (ja) 2004-12-15 2006-06-29 Canon Inc 文書登録システム
JP4958497B2 (ja) 2006-08-07 2012-06-20 キヤノン株式会社 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
JP4774390B2 (ja) 2006-09-13 2011-09-14 株式会社キーエンス 文字切り出し装置、方法およびプログラム
JP2008123245A (ja) 2006-11-13 2008-05-29 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
JP2008234160A (ja) 2007-03-19 2008-10-02 Meiyu Techno Co Ltd 検針メータ読取装置、ハンディーターミナル、および検針システム
JP2008287517A (ja) 2007-05-17 2008-11-27 National Institute Of Information & Communication Technology 強調表示装置及びプログラム
JP2009230411A (ja) 2008-03-21 2009-10-08 Fujitsu Ltd 文字入力システム
JP2009301206A (ja) 2008-06-11 2009-12-24 Fuji Xerox Co Ltd 情報表示装置及びプログラム
KR20100064533A (ko) * 2008-12-05 2010-06-15 삼성전자주식회사 카메라를 이용한 문자 크기 자동 조절 장치 및 방법
JP5229050B2 (ja) 2009-03-30 2013-07-03 富士通株式会社 画像からの文書領域抽出装置、方法、及びプログラム
JP5877335B2 (ja) 2011-04-12 2016-03-08 パナソニックIpマネジメント株式会社 帳票
JP5992206B2 (ja) 2012-05-28 2016-09-14 株式会社東芝 パターン認識用辞書の学習装置、パターン認識装置、コーディング装置、区分装置、および、パターン認識用辞書の学習方法
JP6208094B2 (ja) 2014-08-26 2017-10-04 株式会社東芝 情報処理装置、情報処理システム、情報処理方法及びそのプログラム
JP6325401B2 (ja) 2014-09-17 2018-05-16 株式会社東芝 情報処理装置、画像変更方法及びプログラム
JP6548920B2 (ja) 2015-03-09 2019-07-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217997A (ja) * 2009-03-13 2010-09-30 Omron Corp 文字認識装置、文字認識プログラム、および文字認識方法
JP2013008389A (ja) * 2012-09-12 2013-01-10 Omron Corp 携帯端末装置用のプログラムおよび携帯端末装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9819860B2 (en) 2015-03-09 2017-11-14 Kabushiki Kaisha Toshiba Data processor, data processing method and storage medium
US10121086B2 (en) 2015-07-14 2018-11-06 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method
JP2019061481A (ja) * 2017-09-26 2019-04-18 カシオ計算機株式会社 撮像装置、印刷システム、画像処理方法及びプログラム

Also Published As

Publication number Publication date
US9819860B2 (en) 2017-11-14
US20160269625A1 (en) 2016-09-15
JP6548920B2 (ja) 2019-07-24

Similar Documents

Publication Publication Date Title
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP5538160B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP6208094B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びそのプログラム
US10440296B2 (en) Method for processing an asynchronous signal
US20070018966A1 (en) Predicted object location
JP6688277B2 (ja) プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
JP5743859B2 (ja) 画像処理装置、方法、及び画像表示装置
JP2008084287A (ja) 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム
US10121086B2 (en) Information processing apparatus and information processing method
JP6548920B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP2309454B1 (en) Apparatus and method for detecting motion
US20150269425A1 (en) Dynamic hand gesture recognition with selective enabling based on detected hand velocity
WO2019069369A1 (ja) 姿勢認識システム、画像補正プログラムおよび画像補正方法
JP2007025902A (ja) 画像処理装置、画像処理方法
CN103336579A (zh) 穿戴式设备的输入方法和穿戴式设备
JP2010039617A (ja) 対象物追跡装置及びプログラム
JP2010231350A (ja) 人物識別装置、そのプログラム、及び、その方法
JP6229554B2 (ja) 検出装置および検出方法
JP2012243285A (ja) 特徴点位置決定装置、特徴点位置決定方法及びプログラム
US10521653B2 (en) Image processing device, image processing method, and storage medium
JP2008217330A (ja) 速度推定方法および速度推定プログラム
JP6030457B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP6116916B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US10769803B2 (en) Sight vector detecting method and device
JP2011198006A (ja) オブジェクト検出装置、オブジェクト検出方法、およびオブジェクト検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190626

R151 Written notification of patent or utility model registration

Ref document number: 6548920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151