JP7118729B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7118729B2
JP7118729B2 JP2018092340A JP2018092340A JP7118729B2 JP 7118729 B2 JP7118729 B2 JP 7118729B2 JP 2018092340 A JP2018092340 A JP 2018092340A JP 2018092340 A JP2018092340 A JP 2018092340A JP 7118729 B2 JP7118729 B2 JP 7118729B2
Authority
JP
Japan
Prior art keywords
image
transformation
information
feature point
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018092340A
Other languages
English (en)
Other versions
JP2019197489A (ja
Inventor
満夫 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018092340A priority Critical patent/JP7118729B2/ja
Priority to US16/398,702 priority patent/US10872263B2/en
Publication of JP2019197489A publication Critical patent/JP2019197489A/ja
Application granted granted Critical
Publication of JP7118729B2 publication Critical patent/JP7118729B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Description

本発明は、複数フレームの画像に対してトラッキング処理を行う情報処理装置に関する。
近年、モバイル端末に搭載されているカメラを用いて紙文書を撮影することで簡単に紙文書の画像データを取得することができるようになった。また、カメラで取り込んだ紙文書の画像に対して文字認識処理(OCR処理)する技術が提案されている。
上記のようにしてOCR処理を行う場合、例えば帳票のように、情報が記された領域(データ入力領域)の位置座標が既知である文書であれば、OCR処理の対象領域(以下、OCR処理対象領域と呼ぶ)を特定できる。しかし、被写体がA4やA3のように比較的大きなサイズの文書では、被写体全体を撮影した画像を用いてOCR処理しようとすると、文字認識精度が悪化する。それは、対象物とカメラとの距離が離れることで撮影画像の解像度が低下することに加え、撮影画像の細部にピントのボケが発生しやすくなるからである。したがって、比較的大きなサイズの文書に対してOCR処理する場合には、文書内のOCR対象領域を特定し、該領域にカメラを接近させて局所的に拡大撮影を行う必要がある。
そこで、文書全体を撮影して得られた画像からOCR処理対象領域を特定し、該対象領域を赤枠などで強調表示して、該対象領域を拡大撮影するようにユーザに促す方法が考えられる。そのようなガイド表示では、拡大撮影をするためにユーザがカメラをOCR処理対象領域に徐々に近づける動作を行っている間も継続されることが望ましい。しかし、撮影画像の特徴点と文書の全体画像の特徴点とを比較して現在の撮影範囲を特定する処理は負荷が高い。そのため、そのような処理を拡大撮影中(動画撮影中)に全てのフレームに対して行うことは非効率である。そこで、最初のフレームと文書の全体画像との間で特徴点比較処理を行って撮影範囲を特定し、その後は、フレーム間で特徴点の移動量を追跡する特徴点追跡処理を実行して、撮影範囲およびOCR処理対象領域をトラッキングする方法が考えられる。特許文献1には、電子書類の表示領域及び場所をインビジブルジャンクション特徴量を使用して特定した後ビデオフレーム間で特徴点を追跡し、ビデオフレーム間でのカメラの平面的な動き(投影変換)を推定する方法が開示されている。
特開2009-020890号公報
しかし、特許文献1に記載された方法では、フレーム間の特徴点追跡処理における誤差が徐々に累積していき、OCR処理対象領域のトラッキング誤差(位置ズレ)が大きくなる可能性がある。したがって、本来必要な情報がOCR処理対象領域からはみ出てしまい、それらの情報を取得できなくなる可能性がある。したがって、上記のようなガイド表示を行う際には、OCR処理対象領域を精度よくトラッキングする必要がある
そこで、本発明は、複数フレームの画像に対するトラッキング処理の精度を向上させることができる情報処理装置を提案することを目的とする。
本発明による情報処理装置は、被写体を動画撮影して得られる画像をフレーム単位で入力する入力手段と、被写体の全体を予め撮影して得られる全体画像から抽出される特徴点と、被写体を撮影して得られる第1の画像から抽出される特徴点とを比較する特徴点比較を実行して、前記全体画像における座標系と前記第1の画像における座標系との間の座標変換に用いる第1の変換情報を導出する第1の導出手段と、前記第1の画像に続いて順次入力される複数の画像に対して、前記第1の画像から抽出される特徴点の位置を追跡する特徴点追跡を実行して、前記第1の画像の座標系と、前記複数の画像のうちの第2の画像の座標系との間の座標変換に用いる第2の変換情報を導出する第2の導出手段と、前記第1の変換情報と前記第2の変換情報とを合成して、前記全体画像における座標系と第2の画像における座標系との間の座標変換に用いる第3の変換情報を導出する第3の導出手段と、を備え、前記第1の導出手段は、前記第1の変換情報を導出してから、前記入力手段に所定数のフレームの画像が入力された場合に、前記全体画像から抽出される特徴点と前記入力手段に入力された新たなフレームの画像の特徴点とを比較する特徴点比較を実行して、新たな前記第1の変換情報の導出を開始することを特徴とする。
本発明によれば、複数フレームの画像に対するトラッキング処理の精度を向上させることができる。
第1実施形態にかかる情報処理装置の外観の一例を示す図である。 モバイル端末のハードウェア構成の一例を示す図である。 モバイル端末のソフトウェア構成の一例を示す図である。 モバイルアプリのUI画面の一例を示す図である。 被写体の全体画像と撮影画像の一例を示す図である。 第1実施形態における領域情報テーブルを説明するための図である。 トラッキング処理を説明するための図である。 トラッキング処理を説明するための図である。 トラッキング処理の一例を示すフローチャートである。 変換行列生成/更新処理の一例を示すフローチャートである。
[実施形態1]
図1は、第1実施形態にかかる情報処理装置の外観の一例を示す図である。なお、本実施形態では、情報処理装置として、カメラ機能付きのモバイル端末(携帯端末)を例にする。図1には、モバイル端末100の前面部(左図)及び背面部(中央図)と、被写体103(右図)とが示されている。図1に示すように、モバイル端末100の前面部には、タッチパネル101が設けられている。タッチパネル101は、画像(動画)等の情報を表示する表示部としての機能と、ユーザのタッチ操作に応じて指示を入力する入力部としての機能とを有する。モバイル端末100の背面部には、紙文書等の被写体103を撮影して撮影画像を取り込むカメラ102が設けられている。モバイル端末100のユーザが、後述するモバイルアプリケーション(以下、モバイルアプリと呼ぶ)を起動させ、カメラ102を使用して被写体103を撮影することによって、処理を開始することができる。図1に示す被写体103は、A4サイズの注文書(紙文書)である。なお、被写体103は、紙文書だけに限らず、様々なサイズの名刺、写真、カードなどであってもよい。モバイルアプリは、カメラ102によって取り込まれた被写体103の画像(本実施形態では動画)を、タッチパネル101に出力(表示)する。
図2は、モバイル端末100のハードウェア構成の一例を示す図である。モバイル端末100は、CPU201、RAM202、ROM203、I/O(Input/Output)インタフェース、NIC(Network Interface Card)205、カメラユニット206、及び加速度センサ207を有する。これらのユニットは、バス208を介して互いにデータの送受信を行うことが可能である。CPU201は、各種のプログラムを実行し、様々な機能を実現する。RAM202は、各種の情報を記憶する。また、RAM202は、CPU201の一時的な作業記憶領域としても利用される。ROM203は、各種のプログラム等を記憶する記憶媒体である。ROM203は例えば、フラッシュメモリやSSD(Solid State Disk)やHDD(Hard Disk Drive)である。CPU201は、ROM203に記憶されているプログラムをRAM202にロードしてプログラムを実行する。これにより、CPU201は、図3に示されるようなモバイルアプリの各処理部として機能し、後述する図9及び図10に示す処理を実行する。なお、モバイルアプリの各処理部の機能及び図9及び図10に示す処理の全部又は一部を、専用のハードウェアで実現してもよい。I/Oインタフェース204は、タッチパネル101とデータを送受信する。NIC205は、モバイル端末100をネットワーク(不図示)に接続するためのユニットである。カメラユニット206は、カメラ102と接続される。カメラユニット206は、カメラ102を制御して、被写体103の画像をモバイル端末100に取り込む。このとき、カメラ102が動画撮影をしている場合には、フレーム単位の画像がモバイル端末100に取り込まれる。加速度センサ207は、モバイル端末100の加速度(速度の変化率)を計測するためのセンサである。
図3は、モバイル端末100のソフトウェア構成の一例を示す図である。図3に示されるモバイルアプリにおける各モジュール(機能処理部とも呼ぶ)を実現するプログラムは、上述したように、ROM203等に記憶されている。モバイル端末100のOS(Operating System)(不図示)は、データ管理部301を有する。データ管理部301は、画像やアプリケーションデータを管理する。OSは、データ管理部301を利用するための制御API(Application Programming Interface)を提供している。モバイルアプリは、その制御APIを利用して、データ管理部301が管理する画像やアプリケーションデータの取得や保存を行う。
モバイルアプリ302は、モバイル端末100のOSのインストール機能を利用してインストールされたアプリケーションである。モバイルアプリ302は、例えば、各OSのアプリストア等からダウンロードすることができる。モバイルアプリ302は、カメラユニット206を介して取り込んだ被写体103の画像(動画)に対する各種のデータ処理を行う。モバイルアプリ302は、メイン制御部303、情報表示部304、操作情報取得部305、撮影画像取得部306、記憶部307、及びデータベース(DB)部308を有する。また、モバイルアプリ302は、特徴点抽出部309、特徴点比較処理部310、特徴点追跡処理部311、座標変換処理部312、トラッキング処理部313、及び領域変化量算出部314を有する。
メイン制御部303は、モバイルアプリ302の他のモジュール304~314を制御する。情報表示部304は、メイン制御部303からの指示に従い、モバイルアプリ302のユーザインタフェース(UI)画面をタッチパネル101に表示する。図4は、モバイルアプリ302のUI画面の一例を示す図である。図4に示すUI画面(以下、モバイル端末画面と呼ぶ)400には、カメラ102及びカメラユニット206により取り込まれた画像(動画)が表示される。また、モバイル端末画面400には、画像等に対するユーザ操作(タッチ操作など)を受け付ける。なお、図4にはタッチパネル101の全面にモバイル端末画面400を表示する例が示されている。しかし、モバイル端末画面400の形態(タッチパネル101上における位置、大きさ、範囲、配置や、表示内容など)は、図に示す形態に限定されるものではなく、後述する各処理を実現することができる適宜の構成を採用することができる。
操作情報取得部305は、モバイル端末画面400を介して受け付けたユーザ操作の内容を示す情報(以下、操作情報と呼ぶ)を取得し、該操作情報をメイン制御部303に通知する。例えば、モバイル端末画面400をユーザが手で触れると、操作情報取得部305は、ユーザが触れた画面上の位置を感知し、感知した位置を示す情報を操作情報に含ませてメイン制御部303に送信する。
撮影画像取得部306は、カメラ102及びカメラユニット206により取り込まれた撮影画像を取得し、記憶部307に送信する。記憶部307は、撮影画像取得部306により取得された撮影画像を記憶する。また、記憶部307は、メイン制御部303の指示により、当該記憶している撮影画像の削除を行うこともできる。
DB部308は、データベース機能を有し、後述する全体画像500や、全体画像500中においてOCR処理を適用すべき領域(OCR処理対象領域)の位置などを示す情報(後述する、OCR処理対象領域情報テーブル)を管理する。以下、OCR処理対象領域を、文字認識処理対象領域と表現する場合がある。DB部308により管理されるデータは、メイン制御部303がモバイルアプリ302を起動する際に記憶部307に送信され、必要に応じてメイン制御部303の指示により読み出される。
特徴点抽出部309は、カメラ102及びカメラユニット206により取り込まれた撮影画像などに対して、特徴点抽出処理を実行する。より具体的には、特徴点抽出部309は、それらの画像に対して、画像上の輝度の変化が大きい箇所(エッジ)などを、特徴的なピクセル点(特徴点)として求め、さらにその特徴点の特徴を表すデータ(特徴量)を導出する。特徴点とその特徴量を求める手法としては、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded-Up Robust Features)などがある。なお、特徴点とその特徴量を求める手法は、上記の手法に限るものではないが、画像の回転や拡大縮小、画像の移動といった変化に頑強で、後述する特徴点比較処理において、マッチングする特徴点が一意に定まるような手法が好ましい。
特徴点比較処理部310は、特徴点抽出部309により異なる2つの画像それぞれから抽出された特徴点とその特徴量を比較する特徴点比較処理を行う。特徴点比較処理では、各画像から抽出された特徴点とその特徴量が比較され、画像間で一致(マッチング)する特徴点の組み合わせが求められる。このとき、RANSAC(Random sample consensus)のような、外れ値を排除して法則性を推定する手法を用いることで、ノイズとなる特徴点の組み合わせを排除し、より精度の高いマッチングを行うことが可能となる。ただし、精度の高いマッチング手法を用いた特徴点比較処理は、一般的に処理速度が遅い。本実施形態では、予め用意した既知のフォーマットの文書(帳票等)の全体画像と、カメラ102及びカメラユニット206により取り込まれた撮影画像との間で特徴点比較処理を行う。以下、特徴点比較処理を、単に特徴点比較と表現する場合がある。
特徴点追跡処理部311は、動画撮影により取り込まれた第1のフレームの撮影画像(原画像)から特徴点抽出部309により特徴点を抽出し、比較対象の第2のフレームの撮影画像上で該特徴点の移動位置を推定する特徴点追跡処理を行う。特徴点追跡処理では、原画像上の各特徴点が、比較対象の画像においてどの方向にどれだけ移動したかを表す移動ベクトルが推定される。このような処理により、原画像上の特徴点が比較対象の画像上のどの位置に移動したかを推定することができる。特徴点追跡処理部311による特徴点追跡処理は、特徴点比較処理部310による特徴点比較処理よりも処理速度が速い。以下、特徴点追跡処理を、単に特徴点追跡と表現する場合がある。
座標変換処理部312は、2つの画像の間で、ホモグラフィ変換(homography transform、平面射影変換)を行うためのホモグラフィ変換行列(以下、単に変換行列と呼ぶ)を導出することで、点のマッピングを行う。2つの画像とは、たとえば、全体画像と撮影画像、または、第1フレームの撮影画像と第2フレームの撮影画像である。ホモグラフィ変換は、ある平面座標系上の点を、異なる平面座標系上に変形して移し替えることができる。ホモグラフィ変換に似た手法として、画像の回転、平行移動、及び拡大縮小を行うことが可能なアフィン変換があるが、ホモグラフィ変換は、それらに加えて、座標位置に応じて拡大縮小の比率を変える台形状の変換が可能である。ホモグラフィ変換は、変換元の画像上の座標点(x1,y1)、変換後の画像上の座標点(x2,y2)、変換行列H、及び定数sを用いて、以下のような数式で表せられる。なお、変換行列の数式は、下記の数式に限られず、2つの画像の座標系を変換するための変換式であれば、行列式での表現に限るものではなく、その他の表現で表すようにしても構わない。このような変換式(変換行列)は、2つの画像の座標系を変換する際の変換情報として一般に使用される。
Figure 0007118729000001
2つの画像に同じオブジェクトから抽出される特徴点が存在している場合、特徴点比較処理部310または特徴点追跡処理部311のマッチング処理によって求められた画像間の対応点座標をもとに、変換行列Hのパラメータを導出する。これにより、2つの画像間の変換行列を用いて、第1の画像中の座標を第2の画像中にマッピングすることや、変換行列の逆行列を求めて、その逆のマッピングを行うことが可能となる。しかし、2つの画像間に同じオブジェクトがほとんど存在しなかった場合(画像間の差異が大きかった場合)、マッチングに成功する特徴点の数が少なくなり、変換行列Hの導出に失敗してしまう可能性がある。したがって、特徴点追跡処理において移動ベクトルを正確に算出するためには、2つの画像(第1のフレームの撮影画像と第2のフレームの撮影画像)間において、オブジェクトの移動量が一定値より小さい(画像間の差分が小さい)必要がある。
トラッキング処理部313は、後述するトラッキング処理により、カメラ102及びカメラユニット206により取り込まれた最新の撮影画像が全体画像500のどの部分(領域)を撮影しているかをトラッキングする。そして、トラッキング処理部313は、トラッキング結果と、後述するOCR処理対象領域情報テーブルに格納されているOCR処理対象領域の情報とに基づいて、撮影画像上にOCR処理対象領域をマッピングして描画し、モバイル端末画面400に表示する。そのため、最新の撮影画像を取得してから、モバイル端末画面400上にOCR処理対象領域がマッピングされた画像を表示するまでに、座標変換処理部312による、全体画像500と最新の撮影画像間の変換行列を求める処理を待つ必要がある。座標変換処理部312による変換行列の導出には、2つの画像間の特徴点のマッチング処理が必要となる。そして、マッチング処理には特徴点比較処理部310と特徴点追跡処理部311による2通りの導出方法がある。上述したように特徴点比較処理部310による特徴点比較処理には時間がかかるため、特徴点比較処理が完了するまで表示を行わないでいると、撮影レートの低下を招いてしまう。また、特徴点追跡処理部311による特徴点追跡処理は高速ではあるが、各撮影フレーム間で求めた変換行列を順次掛け合わせていくことでトラッキングを行うので、各フレーム間で求めた変換行列の誤差が蓄積していく。したがって、特徴点追跡処理部311による特徴点追跡処理だけを行っていると、次第にトラッキング結果にズレが生じてしまう。そのため、後述するように、本実施形態におけるトラッキング処理では、特徴点追跡処理を行いながら定期的に特徴点比較処理を行ってズレを補正しながら、トラッキングを行うようにする。そのように特徴点比較処理と特徴点追跡処理とを組み合わせることで、トラッキングのズレを最小限にしつつ、モバイル端末画面400への描画における撮影レートの低下を防ぐことが可能となる。
領域変化量算出部314は、トラッキング処理部313によるトラッキング結果に基づき、連続する撮影画像をそれぞれ全体画像の平面座標系上にマッピングして得られる各領域間の距離と面積の差異を導出する差異導出処理を実行する。ここでは、各領域間の距離は、領域の中心点(該領域は四角形なので4点の中心)の直線距離とする。
次に、全体画像及び撮影画像について図5を用いて説明する。全体画像500は、予め用意された文書画像の一例である。全体画像500は、被写体103の全体像に関する画像データで、予めDB部308に保存されているものとするが、これに限るものではない。例えば、被写体103の全体を最初に撮影して取得した画像データに基づき、被写体103以外の領域を削除する紙面検出処理を行う。あるいは、歪み部分を補正する歪み補正処理などの整形加工を行うことにより全体画像500を取得するフローを、モバイルアプリ302に追加しても良い。また、全体画像500は、帳票等の表枠や固定の文字列部分のみを含む既知のフォーマットの文書画像(OCR処理対象領域に文字列が記載される前の画像)であってもよい。撮影画像501~504は、被写体103の一部(あるいは全体)をカメラ102で動画撮影して得られた、複数フレームの画像の一部である。全体画像500上の領域505~508は、撮影画像501~504に対応する撮影領域を示している。図5には、カメラ102の移動に応じて、撮影領域が領域505から領域508へと移動する様子が示されている。
次に、DB部308に格納されているOCR処理対象領域情報テーブル(以下、単に領域情報テーブルと呼ぶ)について説明する。図6は、第1実施形態における領域情報テーブルを説明するための図である。図6(a)には、領域情報テーブルのデータ構造の一例が示されている。図6(b)には、OCR処理対象領域がマッピングされた撮影画像の一例が示されている。領域情報テーブル601は、id、key、point、width、及びheightの5つのカラムを含む。idカラムは、領域情報テーブルにレコードが追加される度に1ずつ増加する値、すなわちテーブル(Table)の主キー(Primary key)を格納する。keyカラムは、OCR処理対象領域に含まれるデータがどのような情報であるかを示す。pointカラムは、OCR処理対象領域の左上端の、全体画像500の座標系における座標を格納する。widthカラムは、OCR処理対象領域の幅(図5における左右方向の長さ)をピクセル単位で示した情報を格納する。heightカラムは、OCR処理対象領域の高さ(図5における上下方向の長さ)をピクセル単位で示した情報を格納する。また、図6(b)に示す全体画像500上に図示された破線の枠608~613はそれぞれ、領域情報テーブル601のレコード602~607に対応する領域を示している。つまり、枠608~613のそれぞれはOCR処理対象領域を示している。図6(b)に示すように、OCR処理対象領域を示す情報(ここでは破線の枠)をマッピングすることで、OCR処理対象領域をガイド表示することができる。
次に、トラッキング処理部313によるトラッキング処理について、図7及び図8を用いて説明する。なお、以下では、2つの画像間の座標変換に用いる変換情報を変換行列として説明するが、前述した座標変換処理部312で用いられる変換情報と同様に、行列式の表現に限るものではなく、その他の変換式や変換情報であっても構わない。図7に示す画像700~706(以下、撮影画像A~G)は、被写体103にカメラ102を近づけて動画撮影して得られた連続するフレームの撮影画像である。なお、図7及び図8において、時間経過方向は右方向である。
変換行列710(以下、変換行列O→A)は、予め用意された全体画像500(撮影画像Oと記す)と撮影画像Aとを入力画像として、特徴点比較処理部310で特徴点比較処理を実行して得られた結果を用いて、座標変換処理部312により求められる。特徴点比較処理部310の処理には時間がかかるため、変換行列O→Aが導出されるまでに、動画の撮影画像B~Dが取得される。
変換行列720(以下、変換行列A→B)は、撮影画像Aと撮影画像Bとを入力画像として、特徴点追跡処理部311で特徴点を追跡する特徴点追跡処理を実行した結果を用いて、座標変換処理部312により求められる。同様に、変換行列721~725はそれぞれ、連続する2つの撮影画像を入力画像として、特徴点追跡処理部311で特徴点を追跡する特徴点追跡処理を実行した結果を用いて、座標変換処理部312により求められる。
変換行列730(以下、変換行列A→C)は、変換行列A→Bと変換行列721(以下、変換行列B→C)とを合成する(掛け合わせる)ことにより求められ、撮影画像Aと撮影画像Cとの間の座標変換を可能にする変換行列である。
変換行列731(以下、変換行列A→D)は、変換行列A→Cに、変換行列C→Dを掛け合わせることにより求められ、撮影画像Aと撮影画像Dとの間の座標変換を可能にする変換行列である。同様に、変換行列732(以下、変換行列A→E)は、変換行列A→Dに、変換行列723(以下、変換行列D→E)を掛け合わせることにより求められ、撮影画像Aと撮影画像Eとの間の座標変換を可能にする変換行列である。
撮影画像Eが取得された時点で、座標変換処理部312による変換行列O→Aの導出が終わっている場合には、その時点で、全体画像Oと撮影画像Eとの間の座標変換を可能にする変換行列O→Eの生成が行われる。変換行列O→Eは、変換行列O→Aと変換行列A→Eとを掛け合わせることで求めることができる。トラッキング処理部313は、変換行列O→Eと、領域情報テーブル601に保存されているOCR処理対象領域情報とに基づいて、撮影画像E上に各OCR処理対象領域をマッピングして描画し、モバイル端末画面400に表示する。
さらにその後、変換行列O→Eに、変換行列724(以下、変換行列E→F)を掛け合わせることにより、全体画像Oと撮影画像Fとの間の座標変換を可能にする変換行列741(以下、変換行列O→F)を求めることができる。同様に、変換行列O→Fに、変換行列725(以下、変換行列F→G)を掛け合わせることにより、全体画像Oと撮影画像撮影画像Gとの間の座標変換を可能にする変換行列742(以下、変換行列O→G)を求めることができる。
以降、同様の処理を繰り返すことによって、全体画像Oと最新の撮影画像との間の変換行列が求められ、各OCR処理対象領域がマッピングされて描画された最新の撮影画像が、モバイル端末画面400に表示される。
このように、本実施形態では、全体画像と撮影画像との特徴量比較処理を行っている間、該撮影画像(特徴点比較画像)と最新の撮影画像との間で特徴量追跡処理を繰り返すことでトラッキングする。このようなトラッキング処理により、全体画像Oと特徴点比較画像Aとの特徴量比較処理を行っている間に、特徴点比較画像Aと最新の撮影画像(図7に示す例では撮影画像E)との間の変換行列A→Eを求めておくことができる。それにより、全体画像Oと特徴点比較画像Aとの特徴量比較処理が終了した時点で、該特徴量比較処理により求められた変換行列O→Aと、変換行列A→Eとを掛け合わせることで、全体画像Oと最新の撮影画像Eとの間の変換行列O→Eを求めることができる。しかし、全体画像と最新の撮影画像との間の変換行列の精度は、特徴点追跡処理部311による特徴点追跡処理の推定誤差の影響などにより100%ではない。そのため、変換行列を掛け合わせる回数が多くなるにしたがって誤差が蓄積する。そこで、本実施形態では後述するように、定期的に、全体画像との特徴量比較処理から始まるトラッキング処理を行って、誤差の蓄積をリセットする。
撮影画像Aが、撮影開始時点から数えて一番初めに取得された撮影画像であった場合、変換行列O→Aが生成されるまでの間、撮影画像B~Dをそのままモバイル端末画面400に表示する。その理由は、全体画像Oと最新の撮影画像との間の変換行列を求めることができず、OCR処理対象領域の位置を求めることができないためである。
一方、撮影画像Aが取得される以前に、同様のトラッキング処理によって、全体画像Oと最新の撮影画像との間の変換行列が求められていた場合には、変換行列O→Aが求められるまでの間は、以前求めた変換行列を使用するようにする。それによって、各OCR処理対象領域がマッピングされて描画された最新の撮影画像を、モバイル端末画面400に表示することが可能となる。そして、変換行列O→E求められた時点で、以前求めた変換行列を変換行列O→Eに置き換えることによって、変換行列の誤差の蓄積をリセットすることができる。ただし、変換行列O→Eを求めるまでに掛け合わされた変換行列の分だけ誤差が蓄積するため、誤差が完全にリセットされるわけではない。
図7に示す例において、撮影画像Aと撮影画像Eと間でカメラの移動が少なく、画像間の差異が小さければ、特徴点追跡処理を実行して変換行列を求めることによって、誤差を完全にリセットすることができる。図8は、図7に示す例に対して、撮影画像Aと最新の撮影画像の間の差異が小さかった場合のトラッキング処理を説明するための図である。図8には、図7に示す例と同様に、被写体103にカメラ102を近づけて動画撮影して得られた連続するフレームの撮影画像701,801~806が示されている。なお、撮影画像801~806(以下、撮影画像B´~G´)は、図7に示す撮影画像B~Gと異なる画像であり、撮影画像Aとの差異が小さい画像であるとする。
図7に示す例と同様に、撮影画像E´が取得された時点で、座標変換処理部312による変換行列O→Aの導出が終わっている場合には、その時点で、変換行列810(以下、変換行列A→E´)の生成が行われる。変換行列A→E´は、撮影画像Aと撮影画像E´とを入力画像として、特徴点追跡処理部311で特徴点追跡処理を実行した結果を用いて、座標変換処理部312により求められる。変換行列O→Aと変換行列A→E´とを掛け合わせることにより、全体画像Oと撮影画像E´との間の変換行列820(以下、変換行列O→E´)が求められる。トラッキング処理部313は、変換行列O→E´と、領域情報テーブル601に保存されているOCR処理対象領域情報とに基づいて、撮影画像E´上に各OCR処理対象領域をマッピングして描画し、モバイル端末画面400に表示する。同様に、変換行列811,812(以下、変換行列E´→F´,F´→G´)はそれぞれ、連続する2つの撮影画像を入力画像として、特徴点追跡処理部311で特徴点追跡処理を実行した結果を用いて、座標変換処理部312により求められる。変換行列O→E´に、変換行列E´→F´を掛け合わせることにより、全体画像Oと撮影画像F´との間の変換行列821(以下、変換行列O→F´)を求めることができる。同様に、変換行列O→F´に、変換行列F´→G´を掛け合わせることにより、全体画像Oと撮影画像G´との間の変換行列822(以下、変換行列O→G´)を求めることができる。
以降、同様の処理を繰り返すことによって、全体画像Oと最新の撮影画像との間の変換行列が求められ、各OCR処理対象領域がマッピングされて描画された最新の撮影画像が、モバイル端末画面400に表示される。
<トラッキング処理のフロー>
次に、モバイル端末100のCPU201がモバイルアプリ302を実行することにより実現される、トラッキング処理について図9を用いて説明する。例えば、ユーザがモバイル端末100を操作してモバイルアプリ302を起動し、さらに被写体103に対してカメラ102を接近させて撮影を開始すると、図9に示すフローが開始される。
ステップS901(以下、単にS901と記す。他のステップについても同様である)で、メイン制御部303は、DB部308に保存されている全体画像500を記憶部307に送信して使用できるようにする。S902で、メイン制御部303は、DB部308に保存されている領域情報テーブル601を記憶部307に送信して使用できるようにする。S903で、メイン制御部303は、撮影画像取得部306から、動画の最新フレームの画像を、撮影画像として1枚(1フレーム分)取得するよう命令する。
S904で、メイン制御部303は、特徴点比較処理を開始するタイミングであるかどうかの判断を行う。本実施形態では、メイン制御部303は、全体画像と最新の撮影画像との間のトラッキング経路が確立されたタイミングを、特徴点比較処理を開始するタイミングであると判断する。例えば、S903の処理で入力された画像が最初のフレームの画像(撮影画像A)である場合に、全体画像と最新の撮影画像との間のトラッキング経路が確立されたと判断される。なお、トラッキング経路が確立されたのち、数フレーム撮影されてから特徴点比較処理が開始されるようにしてもよい。また本実施形態では、特徴点比較処理が定期的に開始されるように、S904の判定が行われるようにする。すなわち、メイン制御部303は、定期的(例えば、所定数のフレーム毎や、所定の期間毎)に、特徴点比較処理を開始するタイミングであると判断する。
特徴点比較処理を開始するタイミングでない場合は(S904のNo)、処理はS906に進み、開始するタイミングである場合は(S904のYes)、処理はS905に進む。S905で、メイン制御部303は、特徴点比較処理部310に対し、特徴点比較処理を開始するよう指示する。
S906で、メイン制御部303は、特徴点追跡処理部311に対し、入力された最新の撮影画像とその直前に入力された撮影画像との間で特徴点追跡処理を行うように指示する。更に、メイン制御部303は、座標変換処理部312に対し、その特徴点追跡処理の結果に基づいて変換行列を生成するように命令する。このとき、座標変換処理部312は、前述したように、比較対象となった最新の撮影画像とその直前の撮影画像との間で特徴点比較処理部310により対応付けられた複数の特徴点の座標に基づいて、変換行列を生成する。このとき生成される変換行列は、図7の変換行列A→B,B→C,C→D,D→E,E→F,F→Gや、図8の変換行列E´→F´,F´→G´である。
S907で、メイン制御部303は、後述する変換行列の生成/更新処理を実行し、変換行列の生成及び更新を行う。S908で、メイン制御部303は、S907で生成した変換行列と、記憶部307に記憶された領域情報テーブル601とを用いて、OCR処理対象領域を撮影画像上にマッピングする。そして、メイン制御部303は、OCR処理対象領域をマッピングした撮影画像を表示するための情報を、情報表示部304を介してモバイル端末画面400に出力する。このようにして、メイン制御部303は、OCR処理対象領域を、モバイル端末画面400にガイド表示する。なお、撮影画像入力後に、S907で変換行列が生成されなかった場合は、OCR処理対象領域がマッピングされていない撮影画像がそのままモバイル端末画面400に表示される。S909で、メイン制御部303は、撮影画像取得部306による撮影画像の入力が終了したかどうかの判断を行う。撮影画像の入力が続いている場合は(S909のNo)、処理はS903に戻る。それにより、順次入力される撮影画像に対してS903~S908の処理が繰り返し実行される。一方、撮影画像の入力が終了していた場合(S909のYes)は、処理は終了する。
<変換行列の作成/更新処理(S907)の詳細フロー>
次に、図9に示すS907の処理(変換行列の作成/更新処理)の詳細について、図10を用いて説明する。
S1001で、メイン制御部303は、特徴点比較処理部310による特徴点比較処理が開始されているどうかを判断する。特徴点比較処理が開始されていなければ(S1001のNo)、処理はS1004に進み、開始されていれば(S1001のYes)、処理はS1002に進む。S1002で、メイン制御部303は、特徴点比較に使用した撮影画像(特徴点比較画像)と直前に入力された撮影画像との間の変換行列(図7に示す変換行列A→B,A→C,A→D,A→E)があるかどうかを判断する。以下、この行列を、特徴点比較開始時からの変換行列と呼ぶ。特徴点比較開始時からの変換行列がある場合は(S1002のYes)、処理はS1004に進み、該変換行列がない場合は(S1002のNo)、処理はS1003に進む。
S1003で、メイン制御部303は、座標変換処理部312に対し、特徴点比較画像と最新の撮影画像との間の変換行列の生成を指示する。すると、座標変換処理部312は、特徴点比較画像と直前に入力された撮影画像との間の変換行列(図7の変換行列A→B,A→C,A→D)に、S906で生成された変換行列(図7の変換行列B→C,C→D,D→E)を掛け合わせる。それによって、特徴点比較開始時からの変換行列(図7の変換行列A→C,A→D,A→E)が生成される。S1004で、メイン制御部303は、特徴点比較処理部310による特徴点比較処理が完了したかどうかを判定する。特徴点比較処理が完了している場合は(S1004のYes)、処理はS1005に進む。一方、特徴点比較処理が完了していない場合は(S1004のNo)、処理はS1008に進む。
S1005で、メイン制御部303は、特徴点比較画像と最新の撮影画像とをそれぞれ全体画像の平面座標系上にマッピングした領域間での距離及び面積の差異を求めるように、領域変化量算出部314に指示する。そして、メイン制御部303は、求めた差異が一定以上であるかを判定する。求めた差異が一定以上であった場合は(S1005のYes)、処理はS1007に進み、一定以上でない場合は(S1005のNo)、処理はS1006に進む。
S1006で、メイン制御部303は、座標変換処理部312に対し、特徴点比較開始時からの変換行列の置き換えを指示する。すると、座標変換処理部312は、特徴点比較画像と最新の撮影画像とを入力画像として、特徴点追跡処理部311で特徴点追跡処理を実行した結果を用いて、変換行列(図8の変換行列A→E´)を求める。そして、座標変換処理部312は、求めた変換行列で、S1003で生成した特徴点比較開始時からの変換行列(図7の変換行列A→E)を置き換える。
S1007で、メイン制御部303は、座標変換処理部312に対し、全体画像と最新の撮影画像との間の変換行列(以下、「全体画像からの変換行列」と表現する)の生成を指示する。すると、座標変換処理部312は、S1003またはS1006で生成された変換行列(図7の変換行列A→Eまたは図8の変換行列A→E´)に、特徴点比較処理で生成された変換行列(図7及び図8の変換行列O→A)を掛け合わせる。それによって、全体画像からの変換行列(図7の変換行列O→E、図8の変換行列O→E´)が生成される。そして、処理は終了する。
S1008で、メイン制御部303は、全体画像と直前に入力された撮影画像との間の変換行列(図7の変換行列O→E,O→F,O→G)が既に生成されているかどうかを判断する。生成されている場合は(S1008のYes)、処理はS1009に進み、生成されていない場合は(S1008のNo)、処理は終了する。
S1009で、メイン制御部303は、座標変換処理部312に対して、全体画像と最新の撮影画像との間の変換行列の更新を指示する。すると、座標変換処理部312は、全体画像と直前に入力された撮影画像との間の変換行列(図7の変換行列O→E,O→F)に、S906で生成された変換行列(図7の変換行列E→F,F→G)を掛け合わせる。それによって、全体画像からの変換行列(図7の変換行列O→F,O→G)が新たに生成される。そして、処理は終了する。
以上説明したように、本実施形態では、全体画像との特徴量比較処理を行っている間に、特徴点比較画像と最新の撮影画像との間のトラッキング処理を、特徴量追跡を繰り返すことによって行っている。そして、全体画像との特徴量比較が終了した時点で、全体画像との特徴量比較によって求められた変換行列と、特徴点比較画像と最新の撮影画像との間のトラッキング処理で求めた変換行列とを合成して、全体画像と最新の撮影画像との間の変換行列を求めている。これにより、カメラを移動している最中であっても、変換行列の精度の誤差をリセットすることができ、トラッキング処理の精度を向上させることができる。したがって、OCR処理対象領域を拡大撮影する際の操作性を向上させることができる。
また、本実施形態では、全体画像との特徴量比較処理を定期的に行うようにしているので、カメラを移動している時間が長くなったとしても、変換行列の誤差が蓄積されることを抑制することができる。つまり、拡大撮影の撮影時間の長さによらずに、トラッキング誤差(位置ズレ)を抑制することができる。
また、本実施形態では、全体画像との特徴量比較が終了した時点で、特徴点比較画像と最新の撮影画像との画像差異が小さい場合に、特徴点比較画像と最新の撮影画像とを入力として特徴量追跡を行う。それによって、変換行列の精度の誤差を完全にリセットすることができる。したがって、OCR処理対象領域を拡大撮影する際の操作性をさらに向上させることができる。
以上、本発明の実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (9)

  1. 被写体を動画撮影して得られる画像をフレーム単位で入力する入力手段と、
    被写体の全体を予め撮影して得られる全体画像から抽出される特徴点と、被写体を撮影して得られる第1の画像から抽出される特徴点とを比較する特徴点比較を実行して、前記全体画像における座標系と前記第1の画像における座標系との間の座標変換に用いる第1の変換情報を導出する第1の導出手段と、
    前記第1の画像に続いて順次入力される複数の画像に対して、前記第1の画像から抽出される特徴点の位置を追跡する特徴点追跡を実行して、前記第1の画像の座標系と、前記複数の画像のうちの第2の画像の座標系との間の座標変換に用いる第2の変換情報を導出する第2の導出手段と、
    前記第1の変換情報と前記第2の変換情報とを合成して、前記全体画像における座標系と第2の画像における座標系との間の座標変換に用いる第3の変換情報を導出する第3の導出手段と、
    を備え
    前記第1の導出手段は、前記第1の変換情報を導出してから、前記入力手段に所定数のフレームの画像が入力された場合に、前記全体画像から抽出される特徴点と前記入力手段に入力された新たなフレームの画像の特徴点とを比較する特徴点比較を実行して、新たな前記第1の変換情報の導出を開始する
    ことを特徴とする情報処理装置。
  2. 記第2の導出手段は、
    前記入力手段に前記第1の画像が入力されてから前記第1の導出手段によって前記第1の変換情報が導出されるまでの間、前記入力手段に新たなフレームの画像が入力される毎に、該画像を前記第2の画像として前記第2の変換情報を導出する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第3の導出手段は、
    前記第3の変換情報を導出した後に、前記入力手段に新たなフレームの画像が入力された場合には、前記新たなフレームの画像の座標系と、前記新たなフレームの直前のフレームの画像の座標系との間の座標変換に用いる変換情報を導出し、該変換情報と前記第3の変換情報とを用いて、新たな前記第3の変換情報を導出する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記第1の画像と前記第2の画像との差異を導出する差異導出手段をさらに備え、
    前記第2の導出手段は、
    前記差異導出手段が導出した差異が一定以上でない場合には、前記第1の画像と前記第2の画像とに対して前記特徴点追跡を実行して、前記第2の変換情報を導出する
    ことを特徴とする請求項2または請求項3に記載の情報処理装置。
  5. 前記第1の画像と前記第2の画像との差異を導出する差異導出手段をさらに備え、
    前記第2の導出手段は、
    前記差異導出手段が導出した差異が一定以上である場合には、前記第1の画像から前記第2の画像までの各フレームの画像に対して前記特徴点追跡を実行して、前記第2の変換情報を導出する
    ことを特徴とする請求項2または請求項3に記載の情報処理装置。
  6. 被写体上の文字認識処理が適用される対象領域を前記全体画像における座標系で表した領域情報と、前記第3の変換情報とに基づいて、前記第2の画像上に前記対象領域をマッピングする描画手段と、
    前記対象領域がマッピングされた前記第2の画像を表示するための情報を表示手段に出力する出力手段と、をさらに備える
    ことを特徴とする請求項1から請求項のうちのいずれか1項に記載の情報処理装置。
  7. 前記被写体が所定のフォーマットの紙文書である
    ことを特徴とする請求項1から請求項のうちのいずれか1項に記載の情報処理装置。
  8. 被写体を動画撮影して得られる画像をフレーム単位で入力する入力ステップと、
    被写体の全体を予め撮影して得られる全体画像から抽出される特徴点と、被写体を撮影して得られる第1の画像から抽出される特徴点とを比較する特徴点比較を実行して、前記全体画像における座標系と前記第1の画像における座標系との間の座標変換に用いる第1の変換情報を導出する第1の導出ステップと、
    前記第1の画像に続いて順次入力される複数の画像 に対して、前記第1の画像から抽出される特徴点の位置を追跡する特徴点追跡を実行して、前記第1の画像の座標系と、前記複数の画像のうちの第2の画像 の座標系との間の座標変換に用いる第2の変換情報 を導出する第2の導出ステップと、
    前記第1の変換情報 と前記第2の変換情報 とを合成して、前記全体画像における座標系と第2の画像における座標系との間の座標変換に用いる第3の変換情報を導出する第3の導出ステップと、
    を含み
    前記第1の導出ステップでは、前記第1の変換情報を導出してから、前記入力ステップで所定数のフレームの画像が入力された場合に、前記全体画像から抽出される特徴点と前記入力ステップで入力された新たなフレームの画像の特徴点とを比較する特徴点比較を実行して、新たな前記第1の変換情報の導出を開始する
    ことを特徴とする情報処理方法。
  9. コンピュータを、請求項1から請求項のうちのいずれか1項に記載の情報処理装置と
    して機能させるためのプログラム。
JP2018092340A 2018-05-11 2018-05-11 情報処理装置、情報処理方法及びプログラム Active JP7118729B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018092340A JP7118729B2 (ja) 2018-05-11 2018-05-11 情報処理装置、情報処理方法及びプログラム
US16/398,702 US10872263B2 (en) 2018-05-11 2019-04-30 Information processing apparatus, information processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018092340A JP7118729B2 (ja) 2018-05-11 2018-05-11 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019197489A JP2019197489A (ja) 2019-11-14
JP7118729B2 true JP7118729B2 (ja) 2022-08-16

Family

ID=68463733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018092340A Active JP7118729B2 (ja) 2018-05-11 2018-05-11 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10872263B2 (ja)
JP (1) JP7118729B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021152836A (ja) * 2020-03-25 2021-09-30 日本電気株式会社 画像処理装置、画像処理方法、プログラム
US11763073B2 (en) * 2021-08-20 2023-09-19 Sap Se Multi-dimensional table reproduction from image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020890A (ja) 2007-07-11 2009-01-29 Ricoh Co Ltd 電子書類を認識及び追跡する方法及びシステム
JP2017072560A (ja) 2015-10-09 2017-04-13 ソニー株式会社 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3747737B2 (ja) * 2000-05-10 2006-02-22 日本電気株式会社 広域精細画像生成方法及びシステム並びにコンピュータ可読記録媒体
US20070031063A1 (en) * 2005-08-05 2007-02-08 Hui Zhou Method and apparatus for generating a composite image from a set of images
US7978932B2 (en) * 2007-08-02 2011-07-12 Mauna Kea Technologies Robust mosaicing method, notably with correction of motion distortions and tissue deformations for in vivo fibered microscopy
CN107256532B (zh) * 2012-10-24 2020-09-18 株式会社摩如富 图像处理装置、图像处理方法以及记录介质
EP2979225B1 (en) * 2013-03-28 2018-08-29 Intuit Inc. Method and system for creating optimized images for data identification and extraction
JP6450589B2 (ja) * 2014-12-26 2019-01-09 株式会社モルフォ 画像生成装置、電子機器、画像生成方法及びプログラム
US10091391B2 (en) * 2015-11-10 2018-10-02 Bidirectional Display, Inc. System and method for constructing document image from snapshots taken by image sensor panel
US10924620B2 (en) * 2017-05-26 2021-02-16 Fuji Xerox Co., Ltd. Document reading guidance for operator using feature amount acquired from image of partial area of document
JP2019012361A (ja) * 2017-06-29 2019-01-24 キヤノン株式会社 情報処理装置、プログラム及び情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020890A (ja) 2007-07-11 2009-01-29 Ricoh Co Ltd 電子書類を認識及び追跡する方法及びシステム
JP2017072560A (ja) 2015-10-09 2017-04-13 ソニー株式会社 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム

Also Published As

Publication number Publication date
US10872263B2 (en) 2020-12-22
US20190347503A1 (en) 2019-11-14
JP2019197489A (ja) 2019-11-14

Similar Documents

Publication Publication Date Title
JP5906493B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
JP6147273B2 (ja) ノイズに対して堅牢な画像レジストレーション方法およびシステム
JP6976733B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4781233B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP2019012361A (ja) 情報処理装置、プログラム及び情報処理方法
US10586099B2 (en) Information processing apparatus for tracking processing
US10643095B2 (en) Information processing apparatus, program, and information processing method
KR20150126768A (ko) 이미지 합성 방법 및 그 전자 장치
JP2013005258A (ja) ブレ補正装置、ブレ補正方法及び帳票
JP2016212784A (ja) 画像処理装置、画像処理方法
JP7118729B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018046337A (ja) 情報処理装置、プログラム及び制御方法
CN115334233B (zh) 滑动变焦效果的产生方法和系统
US10999513B2 (en) Information processing apparatus having camera function, display control method thereof, and storage medium
JP6669390B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019106008A (ja) 推定装置、推定方法、及び推定プログラム
JP4017578B2 (ja) 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体
JP4145014B2 (ja) 画像処理装置
JP2021077283A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019220073A (ja) 物体追跡装置、物体追跡システム、および物体追跡方法
JP5563390B2 (ja) 画像処理装置およびその制御方法、及びプログラム
JP2005182098A (ja) 合成画像を生成・表示する装置及び方法
JP6150419B2 (ja) カメラおよびプログラム
CN116758205B (zh) 数据处理方法、装置、设备及介质
JP2012014268A (ja) 情報処理装置およびその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220803

R151 Written notification of patent or utility model registration

Ref document number: 7118729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151