JP4750425B2 - カメラ−ペン先のマッピングおよび較正 - Google Patents

カメラ−ペン先のマッピングおよび較正 Download PDF

Info

Publication number
JP4750425B2
JP4750425B2 JP2005001435A JP2005001435A JP4750425B2 JP 4750425 B2 JP4750425 B2 JP 4750425B2 JP 2005001435 A JP2005001435 A JP 2005001435A JP 2005001435 A JP2005001435 A JP 2005001435A JP 4750425 B2 JP4750425 B2 JP 4750425B2
Authority
JP
Japan
Prior art keywords
pen
image
pentip
camera
nib
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005001435A
Other languages
English (en)
Other versions
JP2005202953A (ja
JP2005202953A5 (ja
Inventor
ワン ジャン
チェン リヨン
マ シャオシュ
ダン インノン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2005202953A publication Critical patent/JP2005202953A/ja
Publication of JP2005202953A5 publication Critical patent/JP2005202953A5/ja
Application granted granted Critical
Publication of JP4750425B2 publication Critical patent/JP4750425B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V14/00Controlling the distribution of the light emitted by adjustment of elements
    • F21V14/08Controlling the distribution of the light emitted by adjustment of elements by movement of the screens or filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Color Image Communication Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、位置的にエンコードされた(positionally encoded)媒体とデジタルペンとの間の対話に関する。より詳細には、本発明の実施形態は、デジタルペンを較正し、カメラで捕捉された画像からデコードされた位置をペン先の対応する位置にマッピングすることに関する。
コンピュータユーザは、パーソナルコンピュータとの対話の一手段としていつもマウスおよびキーボードを使用している。パーソナルコンピュータは、手書きの文書よりいくつかの利点を提供するが、ほとんどのユーザは、印刷物を使用して引き続きいくつかの機能を実行する。こうした機能の一部は、書類を読み、それに注釈を付すことを含む。注釈を付す場合、ユーザによって注釈が付されるため、印刷文書はより大きい意味を帯びる。しかし、注釈付きの印刷文書を持つことに関する問題の1つは、注釈を後で電子形式の文書に入れ直す必要があることである。これは、元のユーザまたは別のユーザが注釈を苦労して読み取り、それらをパーソナルコンピュータに入力することを必要とする。場合によっては、ユーザは、注釈および元のテキストをスキャナで取り込み、それによって新しい文書を作成する。こうした複数のステップは、印刷文書と電子版の文書との間の相互作用を繰り返して扱うのを難しくする。さらに、スキャナで取り込まれた画像は変更できないことが多い。元のテキストから注釈を分離する方法はない。このことは注釈の使用を難しくする。したがって、注釈を処理する改良された方法が必要である。
手書きの情報を捕捉する1つの技術は、筆記中にその位置を判定できるペンを使用することによるものである。この機能を備える1つのペンは、Anoto Inc.によるAnotoペンである。このペンは、カメラを使用して定義済みパターンでエンコードされた用紙の画像を捕捉することによって機能する。画像パターンの一例を図15に示す。このパターンを(Anoto Inc.による)Anotoペンが使用して用紙上のペンの位置を判定する。しかし、Anotoペンが使用しているシステムによる位置の判定がどの程度効率的かは不明瞭である。
Douglas W. Clark and Lih-Jyh Weng, "Maximal and Near-Maximal Shift Register Sequences: Efficient Event Counters and Easy Discrete Logarithms," IEEE Transactions on Computers 43.5 (May 1994, pp 560-568)
捕捉画像の位置の効率的な判定を提供するために、捕捉画像の効率的なデコーディングを提供するシステムが必要である。
書類に注釈を付すとき、ユ−ザは、文書に対してペン先を移動させることによって文書にマークを付けることができる。ペン先のパスは複数のストロークを含み、各ストロークは一連の捕捉画像に対応する。したがって、文書上の注釈を処理するためにペンの軌道(path)を効率的に識別することが望ましい。
さらに、捕捉画像の中心から算出されたx−y座標は、ペン先の実際の位置を表さない可能性がある。捕捉画像の中心をペン先にマッピングするために、ペン先と、カメラによって捕捉された画像の中心との間の関係を較正する技術が望ましい。しかし、従来の較正技術は一般に、複雑な機器、および/またはややこしい較正手順が必要である。
ユーザによるペンのインクカートリッジの交換は比較的頻繁に行われ得るが、交換のたびに較正が行われる可能性がある。したがって較正を行う技術は、簡単で、比較的迅速で、正確なものであるべきである。また、こうした技術は、一般に従来の較正技術とともに使用されるタイプの複雑な機器を必要としないものにすべきである。
較正パラメータを使用して、ペンのカメラによって捕捉された画像のそれぞれの中心のx−y座標をペン先のx−y位置にマッピングすることによって、ペン先のx−y位置を判定することができる。較正パラメータは、較正の推定値を繰り返し算出することによって生成することができる。
較正モジュールは較正入力データを受信し、較正入力データは、ユーザが、用紙など位置的にエンコードされた媒体である面の固定位置にペン先を置き、次いで様々な方向にペンを回転させ、かつ/またはペンの反対端を移動させて、較正パラメータの生成に使用する複数の画像を捕捉することによって生成することができる。ユーザは、こうした較正手順を、一般に従来の較正技術とともに使用される複雑な較正機器の必要無く行うことができる。
マッピングモジュールは、較正パラメータ、および復元されたカメラ捕捉位置情報を使用して、復元されたペン先位置情報を生成することができる。
仮想ペン先は、復元された画像中心位置を復元されたペン先位置にマッピングするために使用される。仮想ペン先の位置は、ペンの構成に基づく実際のペン先とカメラとの間のあらかじめ定義されている関係によって決まる。仮想ペン先は、デジタルペンのカメラの画像センサー平面上に投影されたペン先の点である。
本発明の追加の機能および利点は、以下の詳細な説明を精査することによって明らかになる。
本発明の上記の概要、および下記の好ましい実施形態の詳細な説明は、添付の図面と併せ読めばよりよく理解できる。添付の図面は、一例として含まれており、主張した本発明に関する限定のためのものではない。
本発明の態様は、より大きい画像に対して捕捉画像の位置を判定することに関する。本明細書に記載した位置判定方法およびシステムを、多機能ペンとともに使用することができる。
下記は、読者のために副題によって区切られている。副題は、用語、汎用コンピュータ、画像捕捉ペン、配列のエンコーディング、デコーディング、エラー訂正、および位置判定を含む。
(I.用語)
ペン−何らかの筆記用具。インクを蓄える機能を含んでいても、含んでいなくてもよい。一部の例では、本発明の実施形態によるペンとしてインク機能のないスタイラスを使用することができる。
カメラ−用紙または他の任意の媒体から画像を捕捉し得る画像捕捉システム。
(II.汎用コンピュータ)
図1は、本発明の様々な態様の実施に使用できる従来の汎用デジタルコンピューティング環境の例の機能ブロック図である。図1では、コンピュータ100は、処理ユニット110、システムメモリ120、およびシステムメモリを含む様々なシステム構成要素を処理ユニット110に結合するシステムバス130を含む。システムバス130は、様々なバスアーキテクチャのうちの任意のものを使用するメモリバスまたはメモリコントローラ、周辺バス、およびローカルバスを含むいくつかの種類のバス構造のうちどんなものでもよい。システムメモリ120は、読み取り専用メモリ(ROM)140およびランダムアクセスメモリ(RAM)150を含む。
基本入出力システム160(BIOS)は、例えば起動中など、コンピュータ100内の要素間での情報の転送を助ける基本ルーチンを含み、ROM140に格納されている。コンピュータ100は、ハードディスク(図示せず)から読み取り、そこに書き込むハードディスクドライブ170、着脱式磁気ディスク190から読み取り、あるいはそこに書き込む磁気ディスクドライブ180、およびCD−ROMや他の光媒体など、着脱式光ディスク192から読み取り、あるいはそこに書き込む光ディスクドライブ191も含む。ハードディスクドライブ170、磁気ディスクドライブ180、および光ディスクドライブ191は、それぞれハードディスクドライブインタフェース192、磁気ディスクドライブインタフェース193、および光ディスクドライブインタフェース194によってシステムバス130に接続される。ドライブおよびその関連のコンピュータ可読媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、およびパーソナルコンピュータ100の他のデータの不揮発性記憶域を提供する。磁気カセット、フラッシュメモリカード、デジタルビデオディスク、ベルヌーイカートリッジ、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)など、コンピュータによってアクセス可能なデータを格納できる他の種類のコンピュータ可読媒体を動作環境の例で使用することもできることを当業者であれば理解されよう。
オペレーティングシステム195、1つまたは複数のアプリケーションプログラム196、他のプログラムモジュール197、およびプログラムデータ198を含めて、いくつかのプログラムモジュールをハードディスク170、磁気ディスク190、光ディスク192、ROM140またはRAM150に格納することができる。ユーザは、コマンドおよび情報をキーボード101およびポインティング装置102などの入力装置を介してコンピュータ100に入力することができる。他の入力装置(図示せず)には、マイクロフォン、ジョイスティック、ゲームパッド、衛星パラボラアンテナ、スキャナなどがある。これらおよび他の入力装置は、しばしばシステムバスに結合されているシリアルポートインタフェース106を介して処理ユニット110に接続されるが、パラレルポート、ゲームポート、ユニバーサルシリアルバス(USB)など他のインタフェースで接続してもよい。さらにこれらの装置は、適切なインタフェース(図示せず)を介してシステムバス130に直接結合することができる。モニタ107または他の種類の表示装置もまた、ビデオアダプタ108などのインタフェースを介してシステムバス130に接続される。パーソナルコンピュータは一般に、モニタに加えて、スピーカやプリンタなどの他の周辺出力装置(図示せず)を含んでいる。好ましい実施形態では、手書きの入力をデジタル捕捉するためにペンデジタイザ165および付属のペンまたはスタイラス166が設けられている。ペンデジタイザ165とシリアルポートとの間の直接接続が示されているが、実際には、ペンデジタイザ165は、当分野で知られているように、パラレルポート、または他のインタフェースおよびシステムバス130を介して処理ユニット110に直接結合することができる。さらに、デジタイザ165は、モニタ107から切り離して示しているが、デジタイザ165の使用可能な入力エリアは、モニタ107の表示エリアと同一の広がり(co−extensive)を持つことが好ましい。さらにデジタイザ165は、モニタ107に一体化することができ、またはモニタ107に重なる、そうでない場合はモニタ107に取り付けられた個別の装置として存在してもよい。
コンピュータ100は、リモートコンピュータ109など1つまたは複数のリモートコンピュータへの論理接続を使用してネットワーク化された環境で動作することができる。リモートコンピュータ109は、サーバ、ルータ、ネットワークPC、ピア装置、または他の一般のネットワークノードでよく、一般にコンピュータ100に関連して上述した多くまたはすべての要素を含むが、図1にはメモリ記憶装置111のみを示している。図1に示した論理接続は、ローカルエリアネットワーク(LAN)112および広域ネットワーク(WAN)113を含む。こうしたネットワーキング環境は、オフィス、全社規模のコンピュータネットワーク、イントラネット、およびインターネットではごく一般的である。
LANネットワーキング環境で使用する場合、コンピュータ100は、ネットワークインタフェースまたはアダプタ114を介してローカルネットワーク112に接続される。WANネットワーキング環境で使用する場合、パーソナルコンピュータ100は一般に、モデム115、またはインターネットなど広域ネットワーク113を介して通信を確立する他の手段を含む。モデム115は、内蔵のものでも外付けのものでもよく、シリアルポートインタフェース106を介してシステムバス130に接続される。ネットワーク化された環境では、パーソナルコンピュータ100に関連して示したプログラムモジュール、またはその一部をリモートメモリ記憶装置に格納することができる。
図示したネットワーク接続は例であり、コンピュータ間の通信リンクを確立する他の技術を使用できることは理解されよう。TCP/IP、Ethernet(登録商標)、FTP、HTTP、Bluetooth、IEEE802.11xなど様々なよく知られている任意のプロトコルの存在が想定され、システムは、ユーザがWebベースのサーバからWebページを取り出すことができるようにクライアント−サーバ構成で動作することができる。様々な従来のWebブラウザの任意のものを使用してWebページ上にデータを表示し、それを操作することができる。
(III.画像捕捉ペン)
本発明の態様は、エンコードされたデータストリームを、エンコードされたデータストリームを表す表示形式にすることを含む(例えば図4Bで説明するように、エンコードされたデータストリームを使用してグラフィカルパターンを作成する)。表示形式は、印刷物(または他の物理的な媒体)、または別の画像または画像の組とともにエンコードされたデータストリームを投影する表示とすることができる。例えば、エンコードされたデータストリームは、用紙上の物理的なグラフィカル画像、(例えばドキュメントのテキストを表す)表示された画像上に重なるグラフィカル画像として表され得る、または表示画面上の物理的な(変更できない)グラフィカル画像とすることができる(そのため、ペンによって捕捉された任意の画像部分は、表示画面上で位置を突き止めることができる)。
捕捉画像のこの位置の判定を使用して、用紙、媒体、または表示画面とのユーザの対話の位置を判定することができる。本発明の一部の態様では、ペンは、用紙上に筆記するインクペンとすることができる。別の態様では、ペンは、ユーザがコンピュータディスプレイの表面上に書くスタイラスとすることができる。文書上のエンコードされた画像の知識を有する、またはコンピュータ画面上に表示された文書をサポートするシステムに、任意の対話を戻すことができる。ペンまたはスタイラスが文書を横切るときにペンまたはスタイラスのカメラで画像を繰り返し捕捉することによって、システムは、ユーザによって制御されているスタイラスの動きを追跡することができる。表示された、または印刷された画像は、空白の、または内容が豊富な用紙に関連付けられているウォーターマーク、または表示された画像に関連付けられているウォーターマーク、または画面上に重なる、または画面に組み込まれている固定コーディングに関連付けられているウォーターマークとすることができる。
図2Aおよび図2Bは、カメラ203を備えるペン201の例を示している。ペン201は、インク筒を含む、または含まない先端202を含む。カメラ203は、面207から画像204を捕捉する。ペン201は、破線で示したボックス206で表すように追加のセンサーおよび/またはプロセッサをさらに含んでいてもよい。また、これらのセンサーおよび/またはプロセッサ206は、(例えばBluetoothまたは他の無線プロトコルを介して)情報を別のペン201および/またはパーソナルコンピュータに送信する機能を含んでいてもよい。
図2Bは、カメラ203から見た画像を表す。一例では、カメラ203の視野(すなわちカメラの画像センサーの解像度)は、(N=32の場合)32×32ピクセルである。この実施形態では、捕捉画像(32ピクセル×32ピクセル)は、カメラ203によって捕捉された平面の約5mm×5mmのエリアに相当する。したがって図2Bは、長さ32ピクセル×幅32ピクセルの視野を示す。Nのサイズは調整可能であり、したがってNが大きくなると、画像の解像度はより高くなる。また、カメラ203の視野は、ここでは例示の目的で正方形として示しているが、当分野で知られているように、他の形状を含むことができる。
カメラ203によって捕捉された画像を一連の画像フレーム{I}として定義することができる。ここではIは、サンプリング時tにペン201によって捕捉される。サンプリングレートは、システム構成およびパフォーマンス要件に応じて高い場合も低い場合もある。捕捉画像フレームのサイズは、システム構成およびパフォーマンス要件に応じて大きい場合も小さい場合もある。
カメラ203によって捕捉された画像は、処理システムによって直接使用することもプレフィルタリングにかけることもできる。このプレフィルタリングは、ペン201で行うこともペン201の外部(パーソナルコンピュータなど)で行うこともできる。
図2Bの画像サイズは32×32ピクセルである。各エンコーディング単位サイズが3×3ピクセルである場合、捕捉されたエンコード済み単位の数は約100単位となる。エンコーディング単位サイズが5×5ピクセルである場合、捕捉されたエンコード済み単位の数は約36となる。
図2Aは、位置204からのパターンの画像210が形成される画像平面209も示している。対象平面207上のパターンから受信された光は、レンズ208によって集束される。レンズ208は、単レンズでもマルチパートレンズシステム(multi−part lens system)でもよいが、ここでは簡潔にするために単レンズとして表す。画像捕捉センサー211は、画像210を捕捉する。
画像センサー211は、画像210を捕捉できるほど大きいものとすることができる。あるいは画像センサー211は、位置212でペン先202の画像を捕捉できるほど大きいものとすることができる。参照のために、位置212の画像を仮想ペン先と呼ぶ。ペン先、レンズ208、および画像センサー211の間の関係が一定であるため、画像センサー211に対する仮想ペン先の位置は固定されることに留意されたい。
次の変換Fs→pは、カメラによって捕捉された画像における位置座標を用紙上の実画像における位置座標に変換する。
paper=Fs→p(Lsensor
筆記中、ペン先および用紙は同じ平面上にある。したがって、仮想ペン先から実ペン先への変換もFs→pであり、
pentip=Fs→p(Lvirtual−pentip
となる。
変換Fs→pは、アフィン変換として推定することができる。これは、
Figure 0004750425
としてFs→pの推定として単純化される。式中、θ、θ、s、およびsは、位置204で捕捉されたパターンの2つの向きの回転およびスケールである。さらに、捕捉画像を用紙上の対応する実画像と照合することによってF’s→pを精密化することができる。「精密化」とは、再帰的方法と呼ばれる一種の最適化アルゴリズムによって変換Fs→pのより正確な推定を得ることを意味する。再帰的方法は、行列F’s→pを初期値として扱う。精密化された推定は、SとPとの間の変換をより正確に表す。
次に、較正によって仮想ペン先の位置を判定することができる。
ペン先202は、用紙上の固定位置Lpetip上に置かれる。次にペンが傾けられ、それによってカメラ203は、様々なペンの姿勢の一連の画像を捕捉することができる。捕捉された画像ごとに変換Fs→pを取得することができる。この変換から、仮想ペン先の位置Lvirtual−pentipを取得することができる。
virtual−pentip=Fp→s(Lpentip
式中、Lpentipは(0,0)として初期設定され、
p→s=(Fs→p−1
である。
各画像から取得されたLvirtual−pentipを平均することによって、仮想ペン先の位置Lvirtual−pentipを判定することができる。Lvirtual−pentipによって、Lpentipのより正確な推定を得ることができる。何度かの反復の後、仮想ペン先の正確な位置Lvirtual−pentipを判定することができる。
ここで仮想ペン先の位置Lvirtual−pentipはわかった。捕捉された画像から変換Fs→pを取得することもできる。最後に、この情報を使用して、実ペン先の位置Lpentipを判定することができる。
pentip=Fs→p(Lvirtual−pentip
カメラで捕捉された画像の中心を用紙の座標において対応するペン先位置にマッピングすること、および本発明の様々な実施形態に従ってこのタイプのマッピングに使用できる較正パラメータについて、セクションVIIIおよびIXで後述する。
IV.配列のエンコーディング
2次元の配列は、1次元シーケンスを折りたたむことによって構築することができる。十分多くのビット数を含む2次元配列の任意の部分を使用して、完全な2次元配列におけるその位置を判定することはできる。しかし、捕捉された1つまたはわずかの画像から位置を判定することが必要な場合がある。捕捉画像の一部分が2次元配列における2つ以上の位置に関連付けられる可能性を最低限に抑えるように、非反復シーケンスを使用して配列を作成することができる。作成されたシーケンスの1つの特性は、シーケンスが長さ(またはウィンドウ)n上で反復しないことである。下記は、1次元シーケンスの作成、次いでシーケンスの配列への折りたたみ(folding)を説明する。
(IV.A.シーケンスの構築)
数列をエンコーディングシステムの開始点として使用することができる。例えば、シーケンス(mシーケンスとも呼ぶ)を、フィールド(field)F内のq要素の組として表すことができる。ここではq=pであり、式中n≧1、pは素数である。シーケンスまたはmシーケンスは、それだけには限定されないが、多項式除算など、様々な異なる技術によって生成することができる。多項式除算を使用して、シーケンスを次のように定義することができる。
Figure 0004750425
式中P(x)は、(q個の要素を有する)フィールドF[x]における次数nの原始多項式である。R(x)は、フィールドF[x]における次数l(l<n)の非ゼロの多項式である。シーケンスは、次の2つのステップで反復手順を使用して作成することができる。第1に2つの多項式を割り(その結果フィールドFの要素が得られる)、第2に剰余にxを掛ける。この演算は、出力が反復を開始すると停止する。このプロセスは、非特許文献1による記事に記載されているように線形帰還シフトレジスタを使用して実施することができる。この環境では、シーケンスの周期的なシフトと多項式R(x)との間の関係が確立される。つまり、R(x)の変更によってシーケンスの周期的シフトのみが行われ、すべての周期的シフトは多項式R(x)に対応する。結果として得られたシーケンスの特性の1つは、シーケンスはq−1の周期を有し、ある周期内に、ある幅(または長さ)nにわたって、どの部分も一度だけシーケンスに存在するということである。これを「ウィンドウ特性(window property)」と呼ぶ。周期q−1はシーケンスの長さ、nはシーケンスの次数とも呼ばれる。
しかし、上記のプロセスは、ウィンドウ特性を有するシーケンスの作成に使用できる様々なプロセスのうちの1つである。
(IV.B.配列の構築)
(一部をカメラによって捕捉できる)画像の作成に使用できる配列(またはm配列)は、1次元シーケンスまたはmシーケンスの拡張である。Aを周期(m,m)の配列、すなわちA(k+m,l)=A(k,l+m)=A(k,l)と仮定する。n×nウィンドウがAの周期をシフトするとき、Fにわたる非ゼロのn×nのすべての行列がたった一度だけ現れる。この特性も各ウィンドウが一意であるという点で「ウィンドウ特性」と呼ばれる。次いでウィンドウは、周期(m,m)(mおよびmは配列に存在する水平および垂直のビット数)および次数(n,n)の配列として表すことができる。
バイナリ配列(またはm配列)は、シーケンスを折りたたむことによって構築することができる。1つの手法は、シーケンスを取得し、次いでそれをm×mのサイズに折りたたむことである。この場合、配列の長さはL=m×m=2−1である。あるいは、(例えば1枚の用紙、30枚の用紙、またはコンピュータモニタのサイズなど)カバーしたいあらかじめ定義されているサイズのスペースで開始し、エリア(m×m)を判定し、次いでそのサイズを使用してL≧m×mと仮定することができる。この場合L=2−1である。
異なる様々な折りたたみ技術を使用することができる。例えば、図3Aから図3Cは、異なる3つのシーケンスを示している。これらのそれぞれを図3Dに示すような配列に折りたたむことができる。異なる3つの折りたたみ方法は、図3Dのオーバーレイ、および図3Eおよび3Fのラスタパスとして示されている。図3Dに示す折りたたみ方法を採用する。
図3Dに示すような折りたたみ方法を作成するために、長さLおよび次数nのシーケンス{a}を作成する。次に、配列の各ビットを式1によって示すように算出すると仮定することによって、シーケンス{a}からサイズm×mの配列{bkl}が作成される。この場合、gcd(m,m)=1およびL=m×mである。
kl=a (1)
式中、k=imod(m),l=imod(m),i=0,…,L−1である。
この折りたたみ手法は、代わりに、配列の対角線上にシーケンスを配置し、次いで縁に到達すると反対の縁から続くものとして表すことができる。
図4Aは、図3Dの配列のエンコードに使用できるエンコーディング技術のサンプルを示している。他のエンコーディング技術を使用できることを理解されたい。例えば、代替のコーディング技術を図11に示している。
図4Aを参照すると、第1のビット401(例えば「1」)は、黒インクの列によって表されている。第2のビット402(例えば「0」)は、黒インクの行によって表されている。任意のカラーインクを使用して様々なビットを表すことができることを理解されたい。選択されたインクの色についての唯一の必要条件は、有意のコントラストが提供され、媒体の背景が画像捕捉システムによって区別可能であることである。図4Aのビットは、セルの3×3行列によって表される。行列のサイズは、画像捕捉システムのサイズおよび解像度に基づく任意のサイズに変更することができる。ビット0および1の代替の表現を図4C〜4Eに示している。図4A〜4Eのエンコーディングのサンプルでの1またはゼロの表現は、影響無く切り替えることができることを理解されたい。図4Cは、交互の配列において2つの行または列を占めるビット表現を示している。図4Dは、破線形の行および列のピクセルの代替配列を示している。最後に図4Eは、(黒い点2つの後に黒い点1つなど)不規則な間隔の形式での列および行のピクセル表現を示している。
図4Aに戻って、ビットが3×3行列によって表され、イメージングシステムが3×3領域において暗い行を1つ、および白い行を2つ検出すると、ゼロ(または1)が検出される。暗い列が1つ、白い列が2つの画像が検出されると、1(または0)が検出される。
ここでは、1より大きいピクセルまたはドットを使用して1ビットを表す。単一のピクセル(またはビット)を使用して1ビットを表すのは脆弱である。ほこり、用紙の折り目、平らではない面などは、データ単位の単一のビット表現の読み取りの問題を作り出す。しかし、異なる手法を使用してある面における配列を図示できることを理解されたい。いくつかの手法を図4Cから図4Eに示している。他の手法を使用することもできることを理解されたい。スペースシフトされたドットのみを使用する1つの手法を図11に示している。
ビットストリームを使用して、図4Bのグラフィカルパターン403を作成する。グラフィカルパターン403は、12個の行および18個の列を含む。行および列は、ビット表現401および402を使用してグラフィカル表現に変換されるビットストリームによって形成される。図4Bは、次のビット表現を有するものとみなすことができる。
Figure 0004750425
(V.デコーディング)
図2Aのペンで筆記する、またはエンコードされたパターンの近くにペンを移動させるとき、カメラが画像を捕捉する。例えばペン201は、用紙に押し付けられ、用紙上の文書を横切るときに圧力センサーを使用し得る。次いで画像は、エンコードされた画像の完全な表現に対して捕捉画像の向きを判定し、捕捉画像を構成するビットを抽出するように処理される。
エンコードされた全エリアに対する捕捉画像の向きの判定では、図5A〜5Dに示す考えられる4つのすべてのコーナーがグラフィッカルパターン403内に存在し得るとは限らないことに気づくかもしれない。実際、適切な向きでは、図5Aに示すコーナーのタイプは、グラフィカルパターン403に存在しない。したがって、図5Aに示したコーナーのタイプが欠如している向きが正しい向きである。
続いて図6を参照すると、カメラによって捕捉された画像601が分析され、画像601によって実際に表される位置に関して解釈可能なようにその向きが判定される。まず、画像601を調べて、ピクセルが水平方向および垂直方向に並ぶように画像の回転に必要な角度θが判定される。基礎を成すグリッドの非水平、非垂直方向の配列(例えば45度)への回転を含めて、代替のグリッド配列が考えられることに留意されたい。ユーザは、他のものより前に水平方向および垂直方向のパターンに注目する傾向があるため、非水平、非垂直方向の配列の使用は、視覚的な混乱のもと(visual distractions)をユーザから取り除くことのメリットの可能性を提供し得る。簡潔にするために、グリッドの向き(基礎を成すグリッドの水平方向および垂直方向、および他の任意の回転)をまとめて、定義済みグリッド向きと呼ぶ。
次に、画像601が分析されて、どのコーナーが欠如しているかを判定する。画像601のデコーディングの用意ができている画像603への回転に必要な回転量οは、ο=(θ+回転量{どのコーナーが欠如しているかによって定義})と示される。回転量は、図7の式によって示される。図6に戻って、まず、ピクセルの水平方向および垂直方向(または他の定義済みグリッド向き)の配列に達するように、ピクセルのレイアウトによって角度θが判定され、画像が602に示すように回転される。次いで欠如しているコーナーを判定するために分析が行われ、画像602が画像603に回転されて、画像をデコーディングのために設定する。ここでは、画像603が正しい向きを有し、デコーディングに使用できるように、画像は反時計回りに90度回転される。
回転角度θを画像601の回転の前または後に適用して欠如しているコーナーを考慮に入れることができることを理解されたい。また、捕捉画像におけるノイズを考慮に入れることによって、4つすべてのタイプのコーナーが存在し得ることも理解されたい。各タイプのコーナー数を数え、最も少ない数のタイプを欠如しているコーナータイプとして選択することができる。
最後に、画像603におけるコードが読み出され、画像403の作成に使用された元のビットストリームと相関させる。相関は、いくつかの方法で実行することができる。例えば、復元されたビットストリームが元のビットストリーム内の他のすべてのビットストリームの断片と比較される再帰的手法によって実行することができる。第2に、例えば、復元されたビットストリームと元のビットストリームとの間のハミング距離を使用することによって2つのビットストリーム間での統計的分析を行うことができる。様々な手法を使用して、元のビットストリーム内の復元されたビットストリームの位置を判定することができることを理解されたい。
復元されたビットを得ると、(例えば図4Bに示すものなど)元の配列内の捕捉画像の位置を突き止める必要がある。配列全体内のビットのセグメントの位置を判定するプロセスは、いくつかの項目により複雑になる。まず、捕捉すべき実際のビットが不明瞭である可能性がある(例えばカメラは手書きによる画像を捕捉する可能性があり、これは元のコードを不明瞭にする)。第2に、ほこり、折り目、反射などもまた、捕捉画像のエラーを作り出す可能性がある。これらのエラーは、位置を突き止めるプロセスをより難しくする。この点で、画像捕捉システムは、画像から抽出された非連続ビットに対して機能する必要がある場合がある。次は、画像からの非連続ビットに対して動作する方法を表す。
nがmシーケンスの次数である場合、シーケンス(またはmシーケンス)Iがべき級数I(x)=1/P(x)に対応し、K≧nであり、上付き文字tが行列またはベクトルの転置を表す場合、捕捉画像はIのK個のビットb=(b・・・bk−1を含むと仮定する。Kビットの位置sは、単にbがシーケンスの先頭にシフトされるようにするためのIの周期シフト数である。次いでこのシフトされたシーケンスRは、べき級数x/P(x)、すなわちR=T(I)に対応する。式中、Tは周期シフト演算子である。このsを間接的に見つける。多項式のモジュロP(x)はフィールドを形成する。x≡r+rx+・・・rn−1n−1mod(P(x))であることが保証される。したがって、(r,r,+・・・,rn−1)であることがわかり、次いでsについて解くことができる。
この関係x≡r+rx+・・・rn−1n−1mod(P(x))は、R=r+rT(I)+・・・rn−1n−1(I)であることを含意している。二元一次方程式で書くと、次のようになる。
R=rA (2)
式中、r=(r・・・rn−1、およびA=(I T(I)・・・Tn−1(I))であり、これは0シフトから(n−1)シフトまでのIの周期シフトから成る。ここで、rを解くのに、Rにおいて疎のKビットのみが使用可能である。Rにおけるbとbとの間の指数の差がk、i=1,2,・・・,k−1であると仮定すると、i=1,2,・・・,k−1の場合のRの1番目の要素および(k+1)番目の要素は、ちょうどb,b,・・・,bk−1となる。i=1,2,・・・,k−1の場合にAの1番目の要素および(k+1)番目の要素を選択することによって、次の二元一次方程式が形成される。
=rM (3)
式中、MはAのn×K部分行列である。
bがエラー無しの場合、rの解は次の式で表すことができる。
Figure 0004750425
式中、
Figure 0004750425
は、Mの任意の非退化のn×n部分行列であり、
Figure 0004750425
はbの対応する副ベクトルである。
既知のrを使用して、非特許文献1に示されているようなPohlig−Hellman−Silverアルゴリズムを使用して、x≡r+rx+・・・rn−1n−1mod(P(x))になるようなsを見つけることができる。
(L=2−1の場合、n×Lのサイズの)行列Aは非常に大きい可能性があるため、行列A全体を格納することは避けるべきである。実際に、上記のプロセスでわかったように、指数差kの抽出ビットが与えられた場合、Aの1番目の列および(k+1)番目の列のみが計算に関連する。捕捉画像のサイズが与えられている場合、kのこうした選択はかなり限られている。したがって、計算に関与し得るこうした列のみを保存すればよい。こうした列の合計数は、Lよりかなり小さい(ここではL=2−1はmシーケンスの長さである)。
(VI.エラー訂正)
bにエラーが存在する場合、rの解はより複雑になる。エラー訂正を用いたデコーディングの従来の方法は、容易には適用できない。というのは、捕捉画像に関連付けられている行列Mは、捕捉されたある画像から別の画像に変わり得るからである。
確率的手法を採用する。bでのエラービット数nがKに比べて相対的に小さいと仮定すると、bのKビットから正しいnビットを選択し、対応するMの部分行列
Figure 0004750425
が非退化である確率は高い。
選択されたnビットがすべて正しい場合、bとrMとの間のハミング距離、またはrに関連付けられているエラービット数は最小となるはずである。この場合、rは式(4)によって算出される。プロセスを数回繰り返すことによって、最小のエラービットをもたらす正しいrを識別することができそうである。
最小のエラービット数に関連付けられているrがたった1つである場合、それが正しい解とみなされる。そうではなく、最小のエラービット数に関連付けられているrが複数ある場合、nがMによって生成されたコードのエラー訂正機能を超える確率が高く、デコーディングプロセスは失敗する。次いでシステムは、次の捕捉画像の処理に進むことができる。別の実装形態では、ペンの前の位置に関する情報を考慮に入れることができる。つまり、捕捉画像ごとに、ペンが次に予想され得る宛先エリアを識別することができる。例えば、ユーザがカメラによる2つの画像の捕捉の間でペンを持ち上げていない場合、第2の画像の捕捉によって判定されるペンの位置は、第1の位置からそれほど離れていないはずである。次いで最小のエラービット数に関連付けられている各rをチェックして、rから算出された位置sが位置の制約を満たしているかどうか、すなわち位置が指定された宛先エリア内にあるかどうかを調べることができる。
位置sが位置の制約を満たしている場合、配列内の抽出ビットのX、Yの位置が戻される。位置の制約を満たしていない場合、デコーディングプロセスは失敗する。
図8は、捕捉画像のシーケンス(またはmシーケンス)での位置を判定するために使用できるプロセスを示している。まずステップ801で、捕捉画像に関連するデータストリームが受信される。ステップ802で、対応する列がAから抽出され、行列Mが構築される。
ステップ803で、n個の独立した列ベクトルが行列Mからランダムに選択され、式(4)を解くことによってベクトルrが判定される。このプロセスは、ステップ804でQ回(例えば100回)行われる。ループ回数の判定については、ループ回数の算出のセクションで説明する。
ステップ805で、rは、その関連のエラービット数に従ってソートされる。ソートは、当分野で知られている様々なソートアルゴリズムを使用して行うことができる。例えば、選択ソートアルゴリズムを使用することができる。選択ソートアルゴリズムは、回数Qが大きくない場合には有用である。しかし、Qが大きくなると、大きい項目数をより効率的に扱う他のソートアルゴリズム(マージソートなど)を使用することができる。
次いでシステムは、ステップ806で、複数のrが最小のエラービット数に関連付けられているかどうかをチェックすることによってエラー訂正がうまく行われたかどうかを判定する。複数のrが最小のエラービット数に関連付けられている場合、ステップ809でエラーが戻され、デコーディングプロセスが失敗したことを知らせる。そうでない場合、ステップ807で、例えばPohig−Hellman−Silverアルゴリズムを使用することによってシーケンス(mシーケンス)内の抽出ビットの位置sが算出される。
次に、ステップ808で、配列内の(X,Y)位置がx=s mod mおよびy=s mod mとして算出され、結果が戻される。
(VII.位置判定)
図9は、ペン先の位置を判定するプロセスを示している。入力は、カメラによって捕捉された画像であり、出力は、ペン先の位置座標とすることができる。また、出力は、捕捉画像の回転角度など、他の情報を含んでいても(または含んでいなくても)よい。
ステップ901で、画像がカメラから受信される。次に、明るいピクセルと暗いピクセルとの間のコントラストを調整するなど、ステップ902(ステップ902の破線の外枠によって示すように)で、受信された画像を任意選択で前処理にかけることができる。
次にステップ903で、画像が分析されて、その中のビットストリームが判定される。
次にステップ904で、n個のビットがビットストリームから複数回ランダムに選択され、元のシーケンス(またはmシーケンス)内の受信されたビットストリームの位置が判定される。
最後に、ステップ904で捕捉画像の位置が判定されると、ステップ905でペン先の位置を判定することができる。
図10は、903および904についてより詳しく説明し、捕捉画像内のビットストリームを抽出する手法を示している。まずステップ1001で、画像がカメラから受信される。次いで(ステップ1002の破線の外枠によって示すように)ステップ1002で、任意選択で画像を画像の前処理にかけることができる。ステップ1003でパターンが抽出される。ここでは、様々な線上のピクセルを抽出して、パターンの向きおよび角度θを見つけることができる。
次に、受信された画像は、ステップ1004で分析されて、基礎を成すグリッド線が判定される。ステップ1005でグリッド線が見つかると、ステップ1006でパターンからコードが抽出される。次いでステップ1007でコードがデコードされ、ステップ1008でペン先の位置が判定される。ステップ1005でグリッド線が見つからなかった場合、ステップ1009でエラーが戻される。
(VIII.カメラで捕捉された画像ストロークの対応するペン先ストロークへのマッピング)
本発明の様々な実施形態によれば、較正パラメータを使用して、ペンのカメラ210によって捕捉された画像のそれぞれの中心のx−y位置をペン先のx−y位置にマッピングすることによって、ペン先202のx−y位置を判定することができる。
図11は、本発明の様々な実施形態による較正モジュール1102およびマッピングモジュール1106を示している。較正モジュール1102は較正入力データ1100を受信し、較正入力データは、ユーザが、用紙など位置的にエンコードされた媒体である面207の固定位置にペン先202を置き、次いで様々な方向にペンを回転させ、かつ/またはペンの反対端を移動させて、較正パラメータ1104の生成に使用する複数の画像を捕捉することによって生成することができる。
マッピングモジュール1106は、較正パラメータ1104、および復元されたカメラ捕捉位置情報1110を使用して、復元されたペン先位置情報1108を生成する。
図13は、位置的にエンコードされた迷路パターン上に重なるテキストを含む、位置的にエンコードされた用紙のスキャナされたコピーを示している。図13は、ペン先202で用紙上に書かれた実際のインクストローク1301を示している。
図12は、図13のスキャナされた画像に対応する、位置的にエンコードされた用紙の電子コピーの一部の画面写真である。図12では、捕捉画像ストローク1203は、捕捉画像ストローク1203に沿った点の文書内の位置を判定することによってペンのカメラ203によって捕捉された画像のそれぞれの中心から復元された。
図12は、ペン先202の復元されたペン先ストローク1201も示している。復元されたペン先ストローク1201は、較正パラメータ1104を復元された捕捉画像ストローク1203に適用することによって取得することができる。
本発明の様々な実施形態によれば、仮想ペン先212は、復元された画像中心ストローク1203を復元されたペン先ストローク1201にマッピングするために使用される。仮想ペン先の位置は、ペンの構成に基づく実ペン先202とカメラ203との間のあらかじめ定義されている関係によって決まる。仮想ペン先212は、画像センサー平面209上に投影されたペン先202の点である。画像センサー平面209上の仮想ペン先212の位置は不明であるが、固定されている。
画像の中心の位置をペン先の位置にマッピングする1つの方法は、ペン先とペン本体との間の空間的な関係、ペン本体、レンズ、および画像センサーの間の空間的関係、レンズの焦点距離などの光学特性、画像センサーのピクセルの物理的サイズ、画像の中心とレンズの光軸との間の距離などを識別することである。これらの測定は一般に、特別な機器を必要とする。さらに、インクカートリッジが交換されたときなど、ペンの構成が変わるたびに、このプロセスを繰り返す必要がある可能性がある。仮想ペン先の概念は、これらの複雑なステップを不要にする。仮想ペン先の位置に射影変換(perspective transform)が適用されてペン先の位置が取得される。すなわち、
pentip=Fs→p(Lvirtual−pentip) (
である。
(IX.較正)
以下の(a)から(g)までのステップを行うことによって本発明の様々な実施形態に従って較正パラメータLvirtual−pentipを推定することができる。
(a)ユーザは、実ペン先202を面207上の固定位置Lpentipに置く。図14を参照すると、位置的にエンコードされた面207の一部1400を示しており、面上にLpentipが1402で示されている。
(b)ユーザはペン先を位置Lpentipに保ち、異なるペンの向きの一連の画像を捕捉する(すなわち、ペン先202が固定位置Lpentipにある間に、様々な方向にペンを回転させ、かつ/またはペン先202の反対のペン端部を移動させることができる)。図14を参照すると、Lpentip1402では、パス1404に沿った中心を持つ画像を捕捉することができる。
(c)
Figure 0004750425
を(0,0)として初期設定する。式中
Figure 0004750425
は、Lvirtual−pentipの推定値である。
(d)捕捉画像ごとに、変換Fs→pおよび
Figure 0004750425
は、m配列のデコーディングおよび画像照合を行うことによって算出され、次いで式および式が評価される。
Figure 0004750425
式中、Nは較正に使用される捕捉画像の数、およびΔLはi番目のフレームにおける実ペン先の位置とLpentipとの間のオフセットである。
(e)式()で、Lvirtual−pentip
Figure 0004750425
と設定して
Figure 0004750425
i=1、2、・・・、Nが得られる。
Figure 0004750425
を平均することによってLpentipが次のように推定される。
Figure 0004750425
(f)式()で、Lpentip
Figure 0004750425
と設定して
Figure 0004750425
i=1、2、・・・、Nが得られる。
Figure 0004750425
を平均することによってLvirtual−pentipが次のように推定される。
Figure 0004750425
(g)ステップ(e)に進む。
(e)から(g)までのステップの何度かの反復の後、Lvirtual−pentipおよびLpentipは、それぞれ実質的により正確な結果に収束する。これを
Figure 0004750425
および
Figure 0004750425
と呼ぶ。
次いで
Figure 0004750425
を式()で較正パラメータLvirtual−pentipとして使用して、復元された画像中心ストローク1203を復元されたペン先ストローク1201にマッピングすることができる。
次に、ペンを固定位置Lpentipに配置し、47の画像が捕捉されるようにペンを回転することに基づいて
Figure 0004750425
およびLvirtual−pentipが算出される一例を示す。各画像から、変換Fs→pおよび
Figure 0004750425
を取得することができる。以下に示すように、47回の反復後、Lvirtual−pentipは(0.00,0.00)から最終結果(30.80,7.01)に収束し、Lpentipは最終結果(978.87,1618.55)に収束する。Lvirtual−pentipは画像の中心を原点とする捕捉画像の座標系内にあり、Lpentipは対応する文書の座標系内にあることに留意されたい。
反復回数1−−[ステップc]−−VirtualPentip(x=0.00,y=0.00)を初期設定して、画像ごとに用紙上のペン先を算出する。
[ステップe]:
画像0 用紙上のペン先:x=985.57、y=1649.70
画像1 用紙上のペン先:x=985.20、y=1649.25
・・・
画像46 用紙上のペン先:x=1006.41、y=1629.30
画像47 用紙上のペン先:x=1006.76、y=1628.79
平均Pen Tip on Paper:x=993.32、y=1643.28
[ステップf]−−最後の平均Pen Tip on Paper(x=993.32、y=1643.28)を使用して各画像のVirtualPentipを算出する。
画像0 仮想ペン先:x=2.83、y=11.43
画像1 仮想ペン先:x=2.42、y=11.66
・・・
画像46 仮想ペン先:x=9.46、y=−17.72
画像47 仮想ペン先:x=10.55、y=−18.45
平均VirtualPentip:x=3.65、y=0.88
[ステップg]−−ステップeに進む。
反復回数2−−[ステップe]−−最後の平均VirtualPentip(x=3.65,y=0.88)を使用して各画像の用紙上のペン先を算出する。
画像0 用紙上のペン先:x=984.86、y=1646.07
画像1 用紙上のペン先:x=984.50、y=1645.58
・・・
画像46 用紙上のペン先:x=1003.09、y=1628.06
画像47 用紙上のペン先:x=1003.53、y=1627.54
平均Pen Tip on Paper:x=991.64、y=1640.32
[ステップf]−−最後の平均Pen Tip on Paper(x=991.64、y=1640.32)を使用して各画像のVirtualPentipを算出する。
画像0 仮想ペン先:x=6.25、y=10.93
画像1 仮想ペン先:x=5.79、y=11.12
・・・
画像46 仮想ペン先:x=11.93、y=−14.67
画像47 仮想ペン先:x=13.01、y=−15.41
平均VirtualPentip:x=6.87,y=1.64
[ステップg]−−ステップeに進む。
反復回数3−−[ステップe]−−最後の平均VirtualPentip(x=6.87,y=1.64)を使用して各画像の用紙上のペン先を算出する。
・・・
反復回数43−−平均VirtualPentip:x=30.74、y=7.00
・・・
反復回数44−−平均VirtualPentip:x=30.76、y=7.01
・・・
反復回数45−−平均VirtualPentip:x=30.77、y=7.01
・・・
反復回数46−−平均VirtualPentip:x=30.78、y=7.01
・・・
反復回数47−−[ステップf]−−最後の平均Pen Tip on Paper(x=978.87、y=1618.55)を使用して各画像のVirtualPentipを算出する。
画像0 仮想ペン先:x=31.61、y=6.88
画像1 仮想ペン先:x=30.74、y=6.73
・・・
画像46 仮想ペン先:x=30.47、y=7.74
画像47 仮想ペン先:x=31.46、y=6.96
したがってこの例では、平均VirtualPentipの最後の値は、x=30.80、y=7.01に収束する。
上述してきたことは、単に本発明の原理の用途の例にすぎない。当業者は、本発明の意図および範囲から逸脱することなく、他の構成および方法を実施することができる。本発明の任意の方法は、コンピュータディスクまたは他のコンピュータ可読媒体上に格納できるソフトウェアで実施することができる。
本発明の実施形態とともに使用できるコンピュータの一般的な説明を示す図である。 本発明の実施形態による画像捕捉システムおよび対応する捕捉画像を示す図である。 本発明の実施形態による画像捕捉システムおよび対応する捕捉画像を示す図である。 本発明の実施形態による様々なシーケンスおよび折りたたみ技術を示す図である。 本発明の実施形態による様々なシーケンスおよび折りたたみ技術を示す図である。 本発明の実施形態による様々なシーケンスおよび折りたたみ技術を示す図である。 本発明の実施形態による様々なシーケンスおよび折りたたみ技術を示す図である。 本発明の実施形態による様々なシーケンスおよび折りたたみ技術を示す図である。 本発明の実施形態による様々なシーケンスおよび折りたたみ技術を示す図である。 本発明の実施形態による様々なエンコーディングシステムを示す図である。 本発明の実施形態による様々なエンコーディングシステムを示す図である。 本発明の実施形態による様々なエンコーディングシステムを示す図である。 本発明の実施形態による様々なエンコーディングシステムを示す図である。 本発明の実施形態による様々なエンコーディングシステムを示す図である。 図4Aおよび4Bによるエンコーディングシステムに関連付けられている結果として得られた4つの可能なコーナーを示す図である。 図4Aおよび4Bによるエンコーディングシステムに関連付けられている結果として得られた4つの可能なコーナーを示す図である。 図4Aおよび4Bによるエンコーディングシステムに関連付けられている結果として得られた4つの可能なコーナーを示す図である。 図4Aおよび4Bによるエンコーディングシステムに関連付けられている結果として得られた4つの可能なコーナーを示す図である。 本発明の実施形態による捕捉画像部分の回転を示す図である。 図4Aから図4Eのコーディングシステムとともに使用される様々な角度の回転を示す図である。 本発明の実施形態による捕捉された配列の位置を判定するプロセスを示す図である。 本発明の実施形態による捕捉画像の位置を判定する方法を示す図である。 本発明の実施形態による捕捉画像の位置を判定する別の方法を示す図である。 本発明の様々な実施形態による較正モジュールおよびマッピングモジュールを示す図である。 本発明の一実施形態による、復元されたカメラ捕捉ストローク(すなわち捕捉画像のそれぞれの中心から復元された)、および対応するマップされたペン先ストロークを示す図である。 図12に示す復元されたストロークに関連付けられている実際のペン先ストロークを示す図である。 本発明の様々な実施形態による、カメラで捕捉された画像のそれぞれの中心に基づいて復元されたパス、およびパスに沿った点が較正パラメータを介してマッピングされた点を示す図である。 従来技術による文書におけるエンコードスペースの表現を示す図である。
符号の説明
101 キーボード
102 マウス
106 特殊ポートインタフェース
107 モニタ
108 ビデオアダプタ
109 リモートコンピュータ
110 処理ユニット
111 メモリ
112 ローカルエリアネットワーク
113 広域ネットワーク
114 ネットワークインタフェース
115 モデム
120 システムメモリ
130 システムバス
165 デジタイザ
192 ハードディスクインタフェース
193 磁気ディスクドライブインタフェース
194 光ドライブインタフェース
195 オペレーティングシステム
196 アプリケーションプログラム
197 他のプログラムモジュール
198 プログラムデータ
1100 較正入力データ
1102 較正モジュール
1104 較正パラメータ
1106 マッピングモジュール
1108 ペン先位置情報
1110 カメラ捕捉位置情報

Claims (25)

  1. ペン先およびカメラを含むデジタルペンを較正し、前記デジタルペンのカメラで捕捉された画像の中心の位置を前記ペン先の位置にマッピングする方法であって、
    前記ペン先を位置的にエンコードされた面上の固定位置Lpentipに保ちながら前記ペンを異なる複数の向きに配置することによって、前記デジタルペンのカメラによって捕捉された複数の画像に基づいて較正パラメータを生成するステップであって、前記較正パラメータは前記較正パラメータの繰り返し生成された複数の推定値に基づいて生成されるステップであって、前記較正パラメータは、前記ペンのカメラで捕捉された前記画像の中心の位置を前記ペン先の位置にマッピングするために用いられるステップと、
    位置的にエンコードされた面にユーザによって書かれたストロークを前記位置的にエンコードされた面の捕捉された画像内の座標で指定される位置で復元できるように、前記較正パラメータを使用して前記デジタルペンのカメラで捕捉された画像の前記中心の前記位置を前記ペン先の前記位置にマッピングするステップであって、前記捕捉された画像内の前記復元されたストロークの前記位置は前記ユーザが前記位置的にエンコードされた面に前記ストロークを書いていた間の前記ペン先の複数の位置に対応するステップと
    を含むことを特徴とする方法。
  2. 前記複数の捕捉画像ごとにm配列のデコーディングおよび画像照合を行うことによって変換Fs→pおよび逆変換
    Figure 0004750425
    を算出し、次いで
    Figure 0004750425
    i=1、2、・・・、N、および
    Figure 0004750425
    i=1、2、・・・、Nを算出するステップであって、式中Nは前記較正パラメータの生成に使用される捕捉画像の数、およびΔLはi番目のフレームにおける実ペン先の位置とLpentipとの間のオフセットであるステップをさらに含むことを特徴とする請求項1に記載の方法。
  3. Figure 0004750425
    を(0,0)として初期設定するステップであって、式中
    Figure 0004750425
    はLvirtual−pentipの推定値であるステップをさらに含むことを特徴とする請求項2に記載の方法。
  4. 前記式
    Figure 0004750425
    i=1、2、・・・、Nにおいて、Lvirtual−pentip
    Figure 0004750425
    と設定して
    Figure 0004750425
    i=1、2、・・・、Nを取得し、
    Figure 0004750425
    を平均することによってLpentip
    Figure 0004750425
    と推定するステップをさらに含むことを特徴とする請求項3に記載の方法。
  5. 前記式
    Figure 0004750425
    i=1、2、・・・、Nにおいて、Lpentip
    Figure 0004750425
    と設定して
    Figure 0004750425
    i=1、2、・・・、Nを取得し、
    Figure 0004750425
    を平均することによってLvirtual−pentip
    Figure 0004750425
    と推定するステップをさらに含むことを特徴とする請求項4に記載の方法。
  6. 前記Lvirtual−pentipの推定値がより正確な結果
    Figure 0004750425
    に収束し、前記Lpentipの推定値がより正確な結果
    Figure 0004750425
    に収束するように請求項4および請求項5のステップを複数回繰り返すステップをさらに含むことを特徴とする請求項5に記載の方法。
  7. Figure 0004750425
    を較正パラメータとして使用して前記カメラで捕捉された画像の前記中心の前記位置を前記ペン先の前記位置にマッピングするステップをさらに含むことを特徴とする請求項6に記載の方法。
  8. 仮想ペン先を使用して、復元されたカメラ捕捉ストロークを復元されたペン先ストロークにマッピングするステップであって、前記デジタルペンの画像感知平面上の前記仮想ペン先の位置は、前記ペン先と前記ペンのカメラとの間のあらかじめ定義されている関係によって決まり、前記あらかじめ定義されている関係は前記ペンの構成に基づくステップをさらに含むことを特徴とする請求項1に記載の方法。
  9. 較正パラメータは前記較正パラメータの繰り返し生成された複数の推定値に基づいており、ペン先を位置的にエンコードされた面上の固定位置Lpentipに保ちながらペンを異なる複数の向きに配置することによって、デジタルペンのカメラによって捕捉された複数の画像に基づいて前記較正パラメータを生成するステップを含むステップを行うことによって、前記ペン先および前記カメラを含む前記デジタルペンの前記較正パラメータを生成するコンピュータ実行可能命令であって、前記位置的にエンコードされた面上の前記ペン先の位置への前記カメラによって捕捉された画像の中心の位置のマッピングは前記較正パラメータによって決まり、前記較正パラメータは、前記ペンのカメラで捕捉された前記画像の中心の位置を前記ペン先の位置にマッピングするために用いられるコンピュータ実行可能命令を含むことを特徴とするコンピュータ可読媒体。
  10. Nが前記較正パラメータの生成に使用される捕捉画像の数、およびΔLがi番目のフレームにおける実ペン先の位置とLpentipとの間のオフセットである場合、前記複数の捕捉画像の画像ごとに画像照合を行うことによって変換Fs→pおよび逆変換
    Figure 0004750425
    を算出し、
    Figure 0004750425
    i=1、2、・・・、N、および
    Figure 0004750425
    i=1、2、・・・、Nを算出するコンピュータ実行可能命令をさらに含むことを特徴とする請求項9に記載のコンピュータ可読媒体。
  11. Figure 0004750425
    がLvirtual−pentipの推定値である場合、
    Figure 0004750425
    を(0,0)として初期設定するコンピュータ実行可能命令をさらに含むことを特徴とする請求項10に記載のコンピュータ可読媒体。
  12. 前記式
    Figure 0004750425
    i=1、2、・・・、Nにおいて、Lvirtual−pentip
    Figure 0004750425
    と設定して
    Figure 0004750425
    i=1、2、・・・、Nを取得し、
    Figure 0004750425
    を平均することによってLpentip
    Figure 0004750425
    と推定するコンピュータ実行可能命令さらに含むことを特徴とする請求項11に記載のコンピュータ可読媒体。
  13. 前記式
    Figure 0004750425
    i=1、2、・・・、Nにおいて、Lpentip
    Figure 0004750425
    と設定して
    Figure 0004750425
    i=1、2、・・・、Nを取得し、
    Figure 0004750425
    を平均することによってLvirtual−pentip
    Figure 0004750425
    と推定するコンピュータ実行可能命令をさらに含むことを特徴とする請求項12に記載のコンピュータ可読媒体。
  14. 前記Lvirtual−pentipの推定値がより正確な結果
    Figure 0004750425
    に収束し、前記Lpentipの推定値がより正確な結果
    Figure 0004750425
    に収束するように請求項12および請求項13の演算を複数回繰り返すコンピュータ実行可能命令をさらに含むことを特徴とする請求項13に記載のコンピュータ可読媒体。
  15. Figure 0004750425
    を較正パラメータLvirtual−pentipとして使用して画像の前記中心の前記位置を前記ペン先の前記位置にマッピングするコンピュータ実行可能命令をさらに含むことを特徴とする請求項14に記載のコンピュータ可読媒体。
  16. ペン先を位置的にエンコードされた面上の固定位置Lpentipに保ちながらペンを異なる複数の向きに配置することによって、デジタルペンのカメラによって捕捉された複数の画像に基づいて較正パラメータを生成するステップであって、前記較正パラメータは前記較正パラメータの繰り返し生成された複数の推定値に基づいて生成されるステップと、
    位置的にエンコードされた面にユーザによって書かれたストロークを前記位置的にエンコードされた面の捕捉された画像内の座標で指定される位置で復元できるように、前記較正パラメータを使用して前記デジタルペンのカメラで捕捉された画像の前記中心の前記位置を前記ペン先の位置にマッピングするステップであって、前記捕捉された画像内の前記復元されたストロークの前記位置は前記ユーザが前記位置的にエンコードされた面に前記ストロークを書いていた間の前記ペン先の複数の位置に対応し、前記較正パラメータは、前記ペンのカメラで捕捉された前記画像の中心の位置を前記ペン先の位置にマッピングするために用いられるステップと
    を含むステップを行うことによってペン先およびカメラを含むデジタルペンを較正し、前記デジタルペンのカメラで捕捉された画像の中心の位置を前記ペン先の前記位置にマッピングするコンピュータ実行可能命令を含むことを特徴とするコンピュータ可読媒体。
  17. 仮想ペン先を使用して、復元されたカメラ捕捉ストロークを復元されたペン先ストロークにマッピングするコンピュータ実行可能命令であって、前記デジタルペンの画像感知平面上の前記仮想ペン先の位置は、前記ペン先と前記ペンのカメラとの間のあらかじめ定義されている関係によって決まり、前記あらかじめ定義されている関係は前記ペンの構成に基づくコンピュータ実行可能命令をさらに含むことを特徴とする請求項16に記載のコンピュータ可読媒体。
  18. ペン先およびカメラを含むデジタルペンを較正し、前記デジタルペンのカメラで捕捉された画像の中心の位置を前記ペン先の位置にマッピングするシステムであって、
    前記ペン先を位置的にエンコードされた面上の固定位置Lpentipに保ちながら異なる複数の向きの前記ペンに関して前記デジタルペンのカメラによって捕捉された複数の画像に基づいて較正パラメータを生成する較正モジュールであって、前記較正パラメータは前記較正パラメータの繰り返し生成された複数の推定値に基づいて生成される較正モジュールと、
    位置的にエンコードされた面にユーザによって書かれたストロークを前記位置的にエンコードされた面の捕捉された画像内の座標で指定される位置で復元できるように、前記較正パラメータを使用して前記デジタルペンのカメラで捕捉された画像の前記中心の前記位置を前記ペン先の前記位置にマッピングするマッピングモジュールであって、前記捕捉された画像内の前記復元されたストロークの前記位置は前記ユーザが前記位置的にエンコードされた面に前記ストロークを書いていた間の前記ペン先の複数の位置に対応し、前記較正パラメータは、前記ペンのカメラで捕捉された前記画像の中心の位置を前記ペン先の位置にマッピングするために用いられるマッピングモジュールと
    を含むことを特徴とするシステム。
  19. 前記較正モジュールは、Nが前記較正パラメータの生成に使用される捕捉画像の数、およびΔLがi番目のフレームにおける実ペン先の位置とLpentipとの間のオフセットである場合、前記複数の捕捉画像の画像ごとに画像照合を行うことによって変換Fs→pおよび逆変換
    Figure 0004750425
    を算出し、
    Figure 0004750425
    i=1、2、・・・、N、および
    Figure 0004750425
    i=1、2、・・・、Nを算出することを特徴とする請求項18に記載のシステム。
  20. 前記較正モジュールは、
    Figure 0004750425
    がLvirtual−pentipの推定値である場合、
    Figure 0004750425
    を(0,0)として初期設定することを特徴とする請求項19に記載のシステム。
  21. 前記式
    Figure 0004750425
    i=1、2、・・・、Nにおいて、Lvirtual−pentip
    Figure 0004750425
    と設定されて
    Figure 0004750425
    i=1、2、・・・、Nを取得し、Lpentip
    Figure 0004750425
    を平均することによって
    Figure 0004750425
    と推定されることを特徴とする請求項20に記載のシステム。
  22. 前記式
    Figure 0004750425
    i=1、2、・・・、Nにおいて、Lpentip
    Figure 0004750425
    と設定されて
    Figure 0004750425
    i=1、2、・・・、Nを取得し、Lvirtual−pentip
    Figure 0004750425
    を平均することによって
    Figure 0004750425
    と推定されることを特徴とする請求項21に記載のシステム。
  23. 前記較正モジュールは、前記Lvirtual−pentipの推定値がより正確な結果
    Figure 0004750425
    に収束し、前記Lpentipの推定値がより正確な結果
    Figure 0004750425
    に収束するように請求項21および請求項22の演算を複数回繰り返すことを特徴とする請求項22に記載のシステム。
  24. 前記較正モジュールは、前記較正モジュールから
    Figure 0004750425
    を、前記復元された画像中心ストロークを前記復元されたペン先ストロークにマップする前記マッピングモジュールによって使用するために前記較正パラメータとして出力することを特徴とする請求項23に記載のシステム。
  25. 前記マッピングモジュールは、仮想ペン先を使用して、復元されたカメラ捕捉ストロークを復元されたペン先ストロークにマップし、前記デジタルペンの画像感知平面上の前記仮想ペン先の位置は前記ペン先と前記ペンのカメラとの間のあらかじめ定義されている関係によって決まり、前記あらかじめ定義されている関係は前記ペンの構成に基づくことを特徴とする請求項18に記載のシステム。
JP2005001435A 2004-01-06 2005-01-06 カメラ−ペン先のマッピングおよび較正 Expired - Fee Related JP4750425B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/753,023 US7136054B2 (en) 2004-01-06 2004-01-06 Camera-pen-tip mapping and calibration
US10/753,023 2004-01-06

Publications (3)

Publication Number Publication Date
JP2005202953A JP2005202953A (ja) 2005-07-28
JP2005202953A5 JP2005202953A5 (ja) 2008-02-07
JP4750425B2 true JP4750425B2 (ja) 2011-08-17

Family

ID=34592570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005001435A Expired - Fee Related JP4750425B2 (ja) 2004-01-06 2005-01-06 カメラ−ペン先のマッピングおよび較正

Country Status (10)

Country Link
US (1) US7136054B2 (ja)
EP (1) EP1553482A1 (ja)
JP (1) JP4750425B2 (ja)
KR (1) KR101037232B1 (ja)
CN (1) CN100472554C (ja)
AU (1) AU2004242471A1 (ja)
BR (1) BRPI0500015A (ja)
CA (1) CA2491554C (ja)
MX (1) MXPA05000368A (ja)
RU (1) RU2363032C2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7133563B2 (en) 2002-10-31 2006-11-07 Microsoft Corporation Passive embedded interaction code
US7263224B2 (en) * 2004-01-16 2007-08-28 Microsoft Corporation Strokes localization by m-array decoding and fast image matching
US8054495B2 (en) * 2004-04-07 2011-11-08 Hewlett-Packard Development Company, L.P. Digital documents, apparatus, methods and software relating to associating an identity of paper printed with digital pattern with equivalent digital documents
US20060084039A1 (en) * 2004-10-19 2006-04-20 Massachusetts Institute Of Technology Drawing tool for capturing and rendering colors, surface images and movement
US7505982B2 (en) * 2004-12-03 2009-03-17 Microsoft Corporation Local metadata embedding solution
US7536051B2 (en) * 2005-02-17 2009-05-19 Microsoft Corporation Digital pen calibration by local linearization
US7607076B2 (en) * 2005-02-18 2009-10-20 Microsoft Corporation Embedded interaction code document
US7532366B1 (en) 2005-02-25 2009-05-12 Microsoft Corporation Embedded interaction code printing with Microsoft Office documents
US7826074B1 (en) 2005-02-25 2010-11-02 Microsoft Corporation Fast embedded interaction code printing with custom postscript commands
US7421439B2 (en) * 2005-04-22 2008-09-02 Microsoft Corporation Global metadata embedding and decoding
US7400777B2 (en) 2005-05-25 2008-07-15 Microsoft Corporation Preprocessing for information pattern analysis
US7729539B2 (en) 2005-05-31 2010-06-01 Microsoft Corporation Fast error-correcting of embedded interaction codes
US7528848B2 (en) * 2005-06-30 2009-05-05 Microsoft Corporation Embedded interaction code decoding for a liquid crystal display
US7619607B2 (en) * 2005-06-30 2009-11-17 Microsoft Corporation Embedding a pattern design onto a liquid crystal display
EP1897010A1 (en) * 2005-06-30 2008-03-12 Nokia Corporation Camera control means to allow operating of a destined location of the information surface of a presentation and information system
US7817816B2 (en) 2005-08-17 2010-10-19 Microsoft Corporation Embedded interaction code enabled surface type identification
EP1909162A1 (en) * 2006-10-02 2008-04-09 Koninklijke Philips Electronics N.V. System for virtually drawing on a physical surface
ES2323399B2 (es) * 2007-06-19 2010-02-26 Gat Microencapsulation Ag Suspensiones en aceites de sulfonilureas y combinaciones agroquimicas.
US8760401B2 (en) * 2008-04-21 2014-06-24 Ron Kimmel System and method for user object selection in geographic relation to a video display
US20090309854A1 (en) * 2008-06-13 2009-12-17 Polyvision Corporation Input devices with multiple operating modes
US9354725B2 (en) 2012-06-01 2016-05-31 New York University Tracking movement of a writing instrument on a general surface
US9373302B2 (en) * 2012-08-10 2016-06-21 Blackberry Limited Stacked device position identification
KR101410990B1 (ko) * 2012-09-04 2014-06-23 이승희 전자펜을 이용한 입력 시스템
EP3061067B1 (en) * 2013-10-25 2023-11-29 Wacom Co., Ltd. Dynamic handwriting verification, handwriting-baseduser authentication, handwriting data generation, and handwriting data preservation
KR101589707B1 (ko) * 2014-09-25 2016-01-28 (주) 씨앤피 펜 타입 카메라가 장착된 휴대용 영상 확대 장치
TWI564773B (zh) * 2015-08-05 2017-01-01 緯創資通股份有限公司 光學觸控系統及其光學觸控裝置
US10838551B2 (en) * 2017-02-08 2020-11-17 Hewlett-Packard Development Company, L.P. Calibration of displays
US11301063B2 (en) 2018-07-18 2022-04-12 John J. King, JR. Smart pen device and method of implementing a smart pen device

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE58904580D1 (de) * 1989-10-24 1993-07-08 Geberit Ag Montageraumabdeckung fuer insbesondere geschaeumte installationsbausteine.
US5146552A (en) 1990-02-28 1992-09-08 International Business Machines Corporation Method for associating annotation with electronically published material
JPH06506080A (ja) * 1991-04-03 1994-07-07 ヒューレット・パッカード・カンパニー 位置検知装置
CA2045907C (en) 1991-06-28 1998-12-15 Gerald B. Anderson A method for storing and retrieving annotations and redactions in final form documents
US5414227A (en) 1993-04-29 1995-05-09 International Business Machines Corporation Stylus tilt detection apparatus for communication with a remote digitizing display
JPH08237407A (ja) 1994-12-09 1996-09-13 Xerox Corp 画像タイルの相対的なアラインメントを見当合わせすると共に透視歪みを修正するための方法
US5626620A (en) 1995-02-21 1997-05-06 Medtronic, Inc. Dual chamber pacing system and method with continual adjustment of the AV escape interval so as to maintain optimized ventricular pacing for treating cardiomyopathy
US6208894B1 (en) 1997-02-26 2001-03-27 Alfred E. Mann Foundation For Scientific Research And Advanced Bionics System of implantable devices for monitoring and/or affecting body parameters
US5855594A (en) 1997-08-08 1999-01-05 Cardiac Pacemakers, Inc. Self-calibration system for capture verification in pacing devices
US6181329B1 (en) 1997-12-23 2001-01-30 Ricoh Company, Ltd. Method and apparatus for tracking a hand-held writing instrument with multiple sensors that are calibrated by placing the writing instrument in predetermined positions with respect to the writing surface
US6070102A (en) 1998-04-29 2000-05-30 Medtronic, Inc. Audible sound confirmation of programming an implantable medical device
JP2002516429A (ja) 1998-04-30 2002-06-04 シー テクノロジーズ アクチボラゲット 制御装置およびオブジェクトの制御方法
US6551357B1 (en) 1999-02-12 2003-04-22 International Business Machines Corporation Method, system, and program for storing and retrieving markings for display to an electronic media file
US6522928B2 (en) 2000-04-27 2003-02-18 Advanced Bionics Corporation Physiologically based adjustment of stimulation parameters to an implantable electronic stimulator to reduce data transmission rate
JP4419305B2 (ja) * 2000-09-29 2010-02-24 ブラザー工業株式会社 座標読み取り装置
JP3771831B2 (ja) 2001-11-01 2006-04-26 インターナショナル・ビジネス・マシーンズ・コーポレーション デジタル・コンテンツに付加されるアノテーション情報を共有するためのコンピュータ・システムおよびプログラム
US20030117378A1 (en) 2001-12-21 2003-06-26 International Business Machines Corporation Device and system for retrieving and displaying handwritten annotations

Also Published As

Publication number Publication date
AU2004242471A1 (en) 2005-07-21
EP1553482A1 (en) 2005-07-13
CA2491554A1 (en) 2005-07-06
BRPI0500015A (pt) 2005-08-09
KR20050072691A (ko) 2005-07-12
MXPA05000368A (es) 2005-08-19
RU2363032C2 (ru) 2009-07-27
RU2004139188A (ru) 2006-06-10
CA2491554C (en) 2012-03-13
JP2005202953A (ja) 2005-07-28
CN1637774A (zh) 2005-07-13
US20050146518A1 (en) 2005-07-07
KR101037232B1 (ko) 2011-05-25
US7136054B2 (en) 2006-11-14
CN100472554C (zh) 2009-03-25

Similar Documents

Publication Publication Date Title
JP4750425B2 (ja) カメラ−ペン先のマッピングおよび較正
JP4833555B2 (ja) m配列のデコーディングおよびエラー訂正の強化された手法
JP5009326B2 (ja) 2次元配列における復号およびエラー訂正の方法
US7536051B2 (en) Digital pen calibration by local linearization
RU2375740C2 (ru) ОПРЕДЕЛЕНИЕ РАСПОЛОЖЕНИЯ ШТРИХОВ ПОСРЕДСТВОМ ДЕКОДИРОВАНИЯ m-МАССИВА И БЫСТРОГО СРАВНЕНИЯ ИЗОБРАЖЕНИЙ
US8156153B2 (en) Global metadata embedding and decoding
RU2360303C2 (ru) Анализ изображения позиционно кодированного документа и нанесение метки
KR101114196B1 (ko) 고속 이미지 매칭에 의한 글로벌 국소화
JP4822775B2 (ja) 迷路パターン分析方法及びその装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071211

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20071211

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20080201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081006

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081007

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081110

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090109

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20100526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100526

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110519

R150 Certificate of patent or registration of utility model

Ref document number: 4750425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees