JP2004213521A - ペン入力情報処理方法 - Google Patents
ペン入力情報処理方法 Download PDFInfo
- Publication number
- JP2004213521A JP2004213521A JP2003001979A JP2003001979A JP2004213521A JP 2004213521 A JP2004213521 A JP 2004213521A JP 2003001979 A JP2003001979 A JP 2003001979A JP 2003001979 A JP2003001979 A JP 2003001979A JP 2004213521 A JP2004213521 A JP 2004213521A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- gesture
- image data
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Facsimiles In General (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Character Discrimination (AREA)
- Digital Computer Display Output (AREA)
Abstract
【目的】画像上に書かれた軌跡を認識し、認識結果に対応した種類の画像処理を認識結果の数値をパラメータとして実行する情報処理を実現することができるペン入力情報処理方式を提供すること。
【構成】画像データを表示する手段と、画像データ上に手書き軌跡情報を入力する手段と、入力された手書き軌跡データを画像データに付加して記憶する手段と、前記記憶した手書き軌跡データが付加された画像データを他の機械に送信する手段を持つ情報処理装置と、前記情報処理装置から送られてくる手書き軌跡データが付加された画像データを受信する手段と、受信した手書き軌跡データを認識する手段と前記認識した形状に対応する処理を画像データに対して行う。
【選択図】 図2
【構成】画像データを表示する手段と、画像データ上に手書き軌跡情報を入力する手段と、入力された手書き軌跡データを画像データに付加して記憶する手段と、前記記憶した手書き軌跡データが付加された画像データを他の機械に送信する手段を持つ情報処理装置と、前記情報処理装置から送られてくる手書き軌跡データが付加された画像データを受信する手段と、受信した手書き軌跡データを認識する手段と前記認識した形状に対応する処理を画像データに対して行う。
【選択図】 図2
Description
【0001】
【発明の属する技術分野】
本発明は、画像に対する処理を手書き軌跡で指示するペン入力情報処理方法に関するものである。
【0002】
【従来の技術】
従来の情報処理装置は、特開平8−69351号等に記載のように、ペン入力されるジェスチャー軌跡データを記憶する手段と、記憶した軌跡データを順次認識し、その結果がジェスチャーであればそのジェスチャーに対応する処理を行う手段等で構成されていた。
【0003】
【発明が解決しようとする課題】
ところで、従来のジェスチャー認識では、ジェスチャーを入力してから、直ぐに認識させ処理を実行する場合においては、処理を実行するCPU等の能力によっては時間が掛かるため操作者がいらつくようなことがあった。
【0004】
又、従来のジェスチャー認識では、文字列に対する編集操作が対象であったため、削除とか、仮名漢字変換の実行とか簡単なもであった。ところが、画像に対する画像処理操作においては、数値指定が必要なような複雑なものもあるためそのまま適応することは難しかった。
【0005】
又、文字列の選択ジェスチャーでは、希望の選択領域は通常簡単に入力できるが、画像の部分選択指示においては、100×100画素の矩形範囲を選択したい等の要求があった。従来の画像処理ソフトにおいては、或る程度余分な領域含む大きな領域を一旦コピーしてから、余分な領域を削除する等と煩雑であった。
【0006】
本発明は上記問題に鑑みてなされたもので、その目的とする処は、画像上に書かれた軌跡を認識し、認識結果に対応した種類の画像処理を認識結果の数値をパラメータとして実行する情報処理を実現することができるペン入力情報処理方式を提供することにある。
【0007】
又、本発明は、認識できる手書き軌跡ジェスチャーの形状の種類をホストコンピュータ側の種類を変更することにより拡張することができるペン入力情報処理方式を提供することを目的とする。
【0008】
更に、本発明は、画像選択時において、画像選択範囲変更認識手段を設けることにより、画像選択領域の微少な変更も選択領域表示上に直接手書き数値を入力することにより可能とするペン入力情報処理方式を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するため、本発明は、画像データを表示する手段と、画像データ上に手書き軌跡情報を入力する手段と、入力された手書き軌跡データを画像データに付加して記憶する手段と、前記記憶した手書き軌跡データが付加された画像データを他の機械に送信する手段を持つ情報処理装置と、前記情報処理装置から送られてくる手書き軌跡データが付加された画像データを受信する手段と、受信した手書き軌跡データを認識する手段と前記認識した形状に対応する処理を画像データに対して行うことを特徴とする。
【0010】
又、本発明は、画像データを表示する手段と、画像データ上に手書き軌跡情報を入力する手段と、入力された手書き軌跡データを画像データに付加して記憶する手段と、前記記憶した手書き軌跡データを形状によって認識する手段と、前記認識した形状の種類に応じた処理種類によって前記記憶した手書き軌跡データが付加された画像データを他の機械に送信するか、前記画像データに対する処理を行うかを決定する手段と前記画像データに対する処理を行う手段と前記記憶した手書き軌跡データが付加された画像データを他の機械に送信する手段を持つ情報処理装置と、前記情報処理装置から送られてくる手書き軌跡データが付加された画像データを受信する手段と、受信した手書き軌跡データを認識する手段と前記認識した形状に対応する処理を画像データに対して行うことを特徴とする。
【0011】
【発明の実施の形態】
以下に本発明の実施形態を添付図面に基づいて説明する。
【0012】
<実施の形態1>
図1は本発明の実際の使用形態を表している。1は携帯情報機器であり、カメラ部、液晶表示部、抵抗膜等で構成されている座標入力部、CPU、ROM、RAM、記録メディアを差し込むスロット、他の情報機器と接続するためのUSB等のインターフェイスで構成されている。カメラ部で撮影した画像を液晶表示部に表示し、その画像に対する処理の指示を座標入力部によって入力する軌跡データで行う。ROMには、本発明を含む携帯情報機器の情報処理手順が記憶されている。RAMには、画像データ、入力された軌跡データ等が記憶されている。画像データはユーザの指示操作によって、USBインターフェイスを通ってパーソナルコンピュータへ送られる。又は、記録メディアを介して画像データは、パーソナルコンピュータやプリンターに送られる。
【0013】
2は一般的な液晶表示部であり、その液晶表示部2の上面に座標入力を行う一般的な透明抵抗膜デジタイザーが取り付けられている。その表示画面上をペン3で押圧することにより手書きの軌跡を入力することができる。
【0014】
3は一般的なペンであり、手書き軌跡情報や、表示画面上のソフトボタン等の入力に利用される。
【0015】
4は一般的なデジタルカメラ部であり、レンズ、CCD等の撮像素子で構成されている。携帯情報機器1内のCPUによって制御され、撮影された画像データはCPUに接続されているRAMに記憶される。
【0016】
5は一般的なパーソナルコンピュータであり、携帯情報機器1とUSBインターフェイスを通じて接続されている。携帯情報機器1から送られてくる、手書き軌跡データが付加された画像データを定められた処理手順で処理を行うよう構成されている。
【0017】
図2は本発明実施例の携帯情報機器のブロック図である。
【0018】
2−1は、位置座標入力部であり、2−2の液晶表示部の上面に配置された抵抗膜デジタイザーで構成されている。抵抗膜デジタイザーは制御回路を介して、システムバス11を経由してCPU6に接続している。ペン3を使って、画面上を押圧することにより、押圧した位置の位置座標データがCPU6によって読み取られる訳である。読み取られた位置座標データは、RAM7に記憶され、ROM8内の処理手順に従って、手書き軌跡の辞書データとのマッチング処理等が実行される訳である。
【0019】
2−2は一般的な液晶表示部で、液晶表示素子、液晶制御回路、表示メモリから構成され、システムバス11を経由してCPU6に接続している。CPU6からの指示で、画像データや手書き軌跡データが画面上に表示される。
【0020】
3は一般的なペンであり、手書き軌跡情報や、表示画面上のソフトボタン等の入力に利用される。
【0021】
4は一般的なデジタルカメラ部であり、レンズ、CCD等の撮像素子、CCDの制御回路で構成されている。CCDの制御回路はシステムバス11を経由してCPU6に接続している。CPU6によってCCDは制御され、撮影された画像はRAM7に記憶される。
【0022】
6は一般的なCPUであり、システムバス11を介してRAM7、ROM8、の位置座標入力部2−1、液晶表示部2−2等と接続しており、ROM8に記憶されているプログラムによって処理動作を行う。
【0023】
7は一般的なRAMであり、画像データの保存や、プリグラムのワーク領域として使われる。
【0024】
8は一般的なROMであり、CCDの制御プログラム、液晶表示部の制御プログラム等が記憶されている。又、手書き軌跡の認識プログラム、手書き軌跡形状の辞書データ等の本発明の処理手順も記憶されている。
【0025】
9はデジタルカメラ等で一般的なコンパクトフラッシュのカードのインターフェイス部であり、差し込まれたコンパックトフラッシュカードのデータの読み込み書き込みを実現し、画像データ等を記憶することができる。
【0026】
10は一般的なUSBインターフェイス部であり、CPU6によって制御され、一般のパーソナルコンピュータと接続して、手書き軌跡データが付加された画像データ等のやり取りを行うことができる。
【0027】
図3は本発明実施例の処理構成図である。
【0028】
2−1は図2で説明した位置座標入力部であり、ペンで押圧することにより、その押圧した位置の位置座標が入力される。図のように画像の上にジェスチャー軌跡を書くことにより、その画像に対する処理を指示することができる。
【0029】
3−1は文字切り手段であり、位置座標入力手段2−1から送られてくる一画面分の複数文字の位置座標データを1文字単位に切り分ける処理を行う。座標入力操作から認識処理実行のタイミングは、ユーザの指定によって時間は変更可能である。既定値は10秒ペンアップが続くか、他のスイッチ等が押されたら、文字切り手段3−1に、画面上の位置座標データが送られるように構成されている。本実施の形態ではこの構成で行うが、認識処理時間が1秒以下であれば、ペンアップのタイミングで毎回認識処理を繰り返す構成も考えられる、その場合は認識結果により入力処理が継続するかどうかを決定する構成となる(この考え方は、特許第3143461号で記載の方式をジェスチャー認識に応用することで実現することができる)。
【0030】
認識した結果が継続コードであれば、次のストロークの入力を待ち、ジェスチャーコードであれば、そのコードに対応した処理を実行する。又、認識した結果のジェスチャーが数値パラメータを必要とする種類であれば、数値パラメータの入力を待つ構成となる。文字切りのアルゴリズムは、最初に入力されたストロークの外接矩形を記憶し、次のストロークがその矩形内か外かで、次の文字のストロークかそうでないかを判断する。
【0031】
3−2はジェスチャー認識手段で、ジェスチャー認識辞書データ3−3との文字切り手段3−1から送られてくる1文字分の位置座標データとのマッチング処理を行い、辞書データとの一致度が高い順に候補を出力する。
【0032】
3−3はジェスチャー認識辞書データで、ジェスチャー形状のデータとジェスチャーコードが記憶されている。
【0033】
3−4は数字認識手段で、数字認識辞書データ3−5と文字切り手段3−1から送られてくる1文字分の位置座標データとのマッチング処理を行い、辞書データとの一致度が高い順に候補を出力する。
【0034】
3−5は数字認識辞書データで、数字のデータと数字の文字コードが記憶されている。ジェスチャー認識手段3−2の認識結果と数字認識手段3−4の認識結果がジェスチャー処理手段3−6に送られる。
【0035】
3−6はジェスチャー処理手段で、3−2,3−4から送られてくる認識結果を統合し、その統合したジェスチャーの認識結果によって、図1で表した、携帯情報端末で実際の画像処理を行うか、図1のパソコン5側に手書き軌跡データを付加した画像を送って処理を行うかを決定する。
【0036】
3−7は画像処理手段で、手段3−6において携帯情報端末で実際の画像処理を行うと決定した場合は、液晶表示部2−2に表示している画像に対して、ジェスチャー認識3−2で決定したジェスチャーに対応する画像処理を行う。
【0037】
3−8は画像データに軌跡データを付加する手段で、液晶表示部2−2に表示している画像データに3−6から受け取ったジェスチャー軌跡データを付加する。ジェスチャー軌跡データは、パーソナルコンピュータ5に送られるのであるから、データを圧縮した方が効率が良いので、認識に影響を及ばさない範囲で圧縮を行う。位置座標は0〜256の範囲に正規化し、微少移動量の座標点は必要ないので、間引いてしまう。
【0038】
3−9はパソコン5へ3−8で作成したデータを転送する手段である。本実施の形態では、図2の一般的なUSBインターフェイス10を使って、ジェスチャー軌跡データが付加された画像ファイルをパソコンへ転送する。ファイル転送の手順等は一般的な方式とする。
【0039】
図4はジェスチャー辞書のデーター構造図である。ジェスチャーの種類毎にジェスチャーコード、そのジェスチャーに対応する画像処理の内容、ジェスチャーの形状の特徴化したデータが記憶されている。
【0040】
ジェスチャーコードは、ジェスチャーの種類を区別するための16ビットコードで他の文字(数字アルファベット記号等)と異なるものとする。
【0041】
ジェスチャーに対応する処理の内容は、画像処理のコマンドとする。即ち、ジェスチャーコード“01”に対応する画像消去であれば、“DEL”であり、ジェスチャーコード“02”に対応する画像印刷であれば、“PRINT”である。
【0042】
ジェスチャーの形状の特徴化したデータは、認識アルゴリズムが図4で表したような形状の軌跡の位置座標データから特徴量データを抽出したものである。
【0043】
認識アルゴリズムとしては、特許第3143461号等に記載のストロークを10等分してその10等分したストローク8方向ベクトルで表す方式で行う。認識時も同一の方法で8方向ベクトル化するので、同一の形状のジェスチャーを書けば、同一の8方向ベクトル化データが得られる。
【0044】
図7はジェスチャーコードに対応する画像処理の処理テーブルの構成図である。
【0045】
ジェスチャーコードは、ジェスチャーの種類を区別するための16ビットコードで他の文字(数字アルファベット記号等)と異なるものとする。画像処理内容は、ジェスチャーコードに対応する画像処理内容である。パラメータの内容は、その画像処理のパラメータの内容である。即ち、画像の印刷ジェスチャーの場合は、パラメータは印刷枚数である。次のデータは、画像処理をどの機械で行うかの判別データである。携帯端末側で実行とパソコン側で実行の2種類が存在する。
【0046】
図5、図6、図8及び図9は本発明実施例のフローチャートである。
【0047】
上記構成で、図5、図6、図8及び図9のフローチャートに沿って処理を説明する。
【0048】
図1の1で表した携帯端末は、図1−4のデジタルカメラ部で、静止画を撮影し、図1の2の液晶表示部に撮影した画像を表示する一般的な撮影画像のプレビューモードを備えている。
【0049】
撮影画像のプレビューモードにおいて、その撮影画像上に図1のペン3で手書き軌跡を入力することにより、その画像に対する画像処理を指示することができる構成となっている。JPEG等の形式で図1の1に記憶されている画像ファイルを液晶画面上に表示し、ペンの手書きジェスチャー入力モードとなる。画像を表示しているエリアは、手書きジェスチャー入力エリアとなり、それ以外のエリアは画像ファイルの切り替えエリアやメニューエリアやモード変更エリアとなっている。
【0050】
手書きジェスチャー入力エリアに入力があるまで、入力待ちモードで入力を待つ、最初のペン入力があってから、一定時間入力がないと、ジェスチャー認識モードとなり、ステップ5−1からの処理を行う。又は、画像上にジェスチャー軌跡が入力されている状態で、他のモードや、他の画像ファイルに表示を切り替える操作を指示された場合は、ジェスチャー認識モードとなり、ステップ5−1からの処理を行うようにする。
【0051】
図5のフローチャートで1文字の軌跡データを切り分ける処理を説明する。この処理が図3の文字切り手段3−1に相当する。
【0052】
ステップS5−1で、文字切り処理を開始する。表示画面上に書かれているジェスチャー文字軌跡郡を1文字ずつのデータに切り分ける処理を開始する。
【0053】
ステップS5−2で、最大最小XY座標記憶エリア等のワークの初期化を行う。
【0054】
ステップS5−3で、1ストロークのデータを画像ファイルに対応して記憶されている入力軌跡の座標データ記憶領域から読み込み。個々のストロークは、入力されたときの時系列の順に記憶されている。1ストロークのデータは、可変であり、X座標、Y座標、…ペンアップ、ペンアップのように構成されている(特許第0314361号等に記載の一般的な軌跡の座標データ形式である)。読み込んだストロークデータは、一時的な1文字分データの記憶領域に記憶される。
【0055】
ステップS5−4で、前記ステップで読み込んだ1ストロークデータの最大、最小のXY座標値を記憶する。
【0056】
ステップS5−5で、表示画面上の軌跡記憶領域に、未だ処理していないストロークがあるかのチェックを行う。ストロークが無ければ処理は終了なので、ステップS5−9に進み、ストロークがあればステップS5−6に進む。
【0057】
ステップS5−6で、次のストロークデータのXY座標がステップS5−4で記憶している最小最大XY座標範囲内かのチェックを行う。その判定結果を記憶する。記憶している前のストロークの外接矩形内に今チェックしているストロークが存在すれば、同じ文字のストロークデータとして扱い、そうでなければ別の文字のストロークとして扱う訳である。
【0058】
ステップS5−7において、前記ステップでチェックした結果、次のストロークが範囲内であれば、1文字分のデータに付加するために、ステップS5−3に進みそのストロークデータを読み込む。次のストロークが範囲外であれば、ステップS5−8に進む。
【0059】
ステップS5−8において、ステップS5−3で記憶してきた一時的な1文字分データの記憶領域に記憶されている、ストロークデータ郡を1文字分のデータとして出力する。そして、1文字分データの記憶領域をクリアし、ストロークの最小最大記憶領域をクリアし、次の1文字分のデータを読み込むためにステップS5−3に進む。
【0060】
ステップS5−9において、終了処理を行う。一時的な1文字分データの記憶領域に記憶されている、ストロークデータ郡を最後の1文字分のデータとして出力し、この処理で使った記憶領域等を解放する。
【0061】
上記説明した手順で、表示画面上に入力された1画面分の手書きのジェスチャー軌跡郡を1文字毎のデータ切り分けることができる。1文字分のデータに切り分けることができれば、他の方式でも構わないのは言うまでもない。又、ジェスチャーの入力形状、数値の入力形状を、全て1筆で入力させるようにすれば、1文字部の区切りは、1ストローク毎になるので、上記フローチャート5の処理は省略できる。
【0062】
次に、図6のフローチャートで1文字分の軌跡データの認識処理を説明する。この処理が、図3のジェスチャー認識手段3−2と、数値認識手段3−4に相当する。
【0063】
ステップS6−1で1文字分の認識処理を開始する。ワーク等の一時記憶領域を初期化する。
【0064】
ステップS6−2において、1ストロークを10等分する。対象ストロークの座標点間の距離を加算して、そのストロークの全長を求め、その全長の10分の1を基準長として、始点から基準長単位で、ストロークを分割する。
【0065】
ステップS6−3において、分割したストロークを8方向ベクトル化する。前記ステップで、ストロークは分割されているのでその分割ストロークの始点終点で方向角度を求め、その角度を8方向に分類する。0度を1に分類すれば、45度を2、…、315度を8に分類する。例えば、“−”のような横線のストロークは、“1,1,1,1,1,1,1,1,1,1,”にデータ化される。
【0066】
ステップS6−4において、ジェスチャー辞書の8方向ベクトルデータと順次マッチング処理を行い、入力ベクトルデータと辞書ベクトルデータの一致度を計算していく。入力された1文字のストロークが1筆で書かれたものであれば、1筆の辞書データとマッチングを行い、2筆で書かれたものであれば、2筆の辞書データとマッチングを行う。1つの分割ストロークで、入力ストロークと辞書ストロークの方向が同一であれば、10点とし、その隣の方向であれば、8点とし、逆の方向であれば、0点として、評価する。
【0067】
例えば、例えば、“X”のようなジェスチャーを入力されると、“8,8,8,8,8,8,8,8,8,1”、“6,6,6,6,6,6,6,6,6,6”となり、辞書データの消去ジェスチャーの形状データが“8,8,8,8,8、8,8,8,8,8”、“6,6,6,6,6,6,6,6,6,6”とマッチングすると一致度が99となる。
【0068】
ステップS6−5において、マッチング処理の結果で一致度が高い順に候補記憶領域に記憶する処理を行う。前記ステップで例えば、消去ジェスチャーの形状が入力されマッチングされていれば、消去コード“01”とその評価結果99が記憶される。
【0069】
ステップS6−6において、数字辞書の8方向ベクトルデータと順次マッチング処理を行い、入力ベクトルデータと辞書ベクトルデータの一致度を計算していく。例えば、“1”が入力されれば、“7,7,7,7,7,7,7,7,7,7”となり1の辞書データが、“7,7,7,7,7,7,7,7,7,7”であれば、一致度は100となる。
【0070】
ステップS6−7において、マッチング処理の結果で一致度が高い順に候補記憶領域に記憶する処理を行う。例えば、前記ステップで“1”の結果の一致度が100であれば、1の文字コードと一致度の100が記憶される。
【0071】
ステップS6−8において、ジェスチャー辞書と数字辞書との結果の候補列を統合して、最終結果とする。基本的には、数字の書き方とは異なる形状をジェスチャーとするので間違えることはない。例えば、“P3”と入力されれば、画像印刷ジェスチャーコード“02”と、3の文字コードが第一候補として出力される。
【0072】
ステップS6−9において、認識処理が終了される。
【0073】
もし、全ての辞書データとマッチングを行っても一致度が低くて、30点以下の場合は、候補該当文字無しとする。
【0074】
このように処理を行うことにより、手書きジェスチャーを認識することができる。
【0075】
次に、図8のフローチャートに従ってジェスチャー処理を説明する。
【0076】
図3のジェスチャー処理手段3−6、画像処理手段3−7、画像データ3−8に軌跡データを付加する手段に相当する。
【0077】
ステップS8−1において、ジェスチャー処理を開始する。ワーク等の初期化処理を行う。
【0078】
本実施の形態では、ジェスチャー処理は、認識結果が出次第実行する構成にしているが、携帯端末では、レスポンスが重要であるので、ジェスチャーに対応する画像処理に時間が掛かる場合は、入力処理が無いCPUがアイドル状態の時に画像処理自体は行う構成にしても良い。そのためには、画像ファイルと実行するジェスチャーの対応を記憶しておく領域を設ければ可能である。
【0079】
ステップS8−2において、図7に表したジェスチャー処理テーブルを検索する。認識した結果であるジェスチャーコードでテーブルを検索して、そのジェスチャーに対応する画像処理を携帯端末側で実行するか、パソコン側で実行するかの種別を読み込む。例えば、認識結果が画像消去ジェスチャーであれば、ジェスチャーコード01の画像消去ジェスチャーは、図7から、画像消去処理を携帯機器で実行になっているので、そのことを記憶する。
【0080】
ステップS8−3において、前記ステップで記憶した、処理をどの機械で実行するかの種別によって処理を分岐させる。携帯端末で実行の種別であれば、ステップS8−4に進み、パソコン側で実行の種別であればステップS8−5に進む。
【0081】
ステップS8−4において、認識結果のジェスチャーコードに対応した画像処理を携帯端末側で実行する。例えば、認識結果のジェスチャーコードが01であれば、消去ジェスチャーなので、画像ファイルの消去を実行する。又、例えば、認識結果のジェスチャーコードが04であれば、画像をメイルに加工する処理のジェスチャーなので、画像ファイルを通信のための一般的なMIMEエンコード等の方式で変換し、パラメータの認識結果である数字に対応する規定の宛先に対する電子メイルのファイルを作成し、電子メイルの送信バッファに書き出す処理を行う。
【0082】
ステップS8−5において、ジェスチャーの軌跡データを画像ファイルに付加する処理を行う。一般的なJPEG等の画像ファイルには、コメント入力のためのテキスト記憶領域があるので、そこにジェスチャーの軌跡位置座標データ列をアスキーコード化して書き込むようにする。これにより一般の画像ファイルフォーマットのまま扱えるので、もし、ジェスチャー処理をサポートしていないパーソナルコンピュータにこの画像ファイルを送ってしまってもジェスチャー処理が実行されないだけで他に悪影響を及ぼすことがない。
【0083】
ジェスチャーの軌跡位置座標データ列のアスキーコード化は、先ず、XY位置座標を0〜240の範囲に正規化し、微少座標の変化は無視して良いので位置座標の微少変化点は間引く。そして、XYが例えば、00H、F0Hの2バイトの値であれば、それを、“0”、“0”、“F”、“0”の4バイトの文字コードに変換し、1ストロークの区切りのペンアップのコードは、“UP”“UP”とし、1文字の区切りは“EN”“ND”とし、データの終りは“XX”“XX”とする。
【0084】
ステップS8−6において、前記ステップでジェスチャーの軌跡データを付加した画像ファイルをパソコンへの転送領域に記憶しておく。通常携帯端末はパソコンと接続しない状態で使われるので、接続していない状態では転送の予約処理だけを行い、接続した時点で転送するように処理を実行する。
【0085】
次に、図9のフローチャートで、パソコン側に送られた画像ファイルの処理を説明する。
【0086】
ステップS9−1において、手書きジェスチャーの軌跡データが付加されている画像ファイルの処理を開始する。ワーク等の初期化を実行する。
【0087】
ステップS9−2において、画像ファイルに付加されているジェスチャー軌跡データを読み込む処理を行う。ステップS8−5において行った処理の逆の処理を行うわけである。画像ファイルのコメント領域に記憶されているアスキーコード化されたジェスチャーの軌跡位置座標データ列をバイナリー化する。0,0,F,0,……“U、P”“U、P、”EN”“N D”“X、X”“X、X”のアスキーコード列を00H、F0H、…ペンアップコード“F1H、F1H”文字切りコード“FEH、FEH”データ終了コード“FFH、FFH”のバイナリーコードに変換し、一時記憶領域に記憶する。
【0088】
ステップS9−3において、画像ファイルに軌跡データが付加されているかどうかのチェックを行う。前記ステップで変換すべき軌跡データが存在しないときは、通常の画像ファイルなのでステップS9−10に進みこの手書き軌跡データ処理を終了する。軌跡データが存在するときは、ステップS9−4に進み、手書き軌跡データの処理を行う。
【0089】
ステップS9−4において、一時記憶領域に記憶されている1画像ファイルの軌跡データの中から1文字分の軌跡データを取り出し、その軌跡データの軌跡ストロークを10等分する処理を行う。対象ストロークの座標点間の距離を加算して、そのストロークの全長を求め、その全長の10分の1を基準長として、始点から基準長単位でストロークを分割する。
【0090】
ステップS9−5において、分割したストロークを8方向ベクトル化する。前記ステップで、ストロークは分割されているのでその分割ストロークの始点終点で方向角度を求め、その角度を8方向に分類する。0度を1に分類すれば、45度を2、…、315度を8に分類する。例えば、“−”のような横線のストロークは、“1,1,1,1,1,1,1,1,1,1,”にデータ化される。
【0091】
ステップS9−6において、ジェスチャー&数字辞書の8方向ベクトルデータと順次マッチング処理を行い、入力ベクトルデータと辞書ベクトルデータの一致度を計算していく。ここでマッチングを行う辞書は、図1の5のパソコン側に記憶されている辞書である。携帯端末側の辞書は、通常ROM等に記憶されている場合が多いので更新するのが難しいが、パソコン側の辞書は、通常ハードディスク等に記憶されているので、更新ファイル等をネットワーク等で配布すれば、更新は可能である。
【0092】
本実施の形態では、パソコン側の辞書のジェスチャー形状データには、携帯端末に登録されている形状以外のデータも登録されている構成となっている。そのため、もしその形状のジェスチャーを携帯端末で入力した場合は、候補無しの結果になるが、本実施の形態では、その場合、その位置座標データ列は画像ファイルに付加されてパソコン側に送られてきて、このステップでマッチングされ、認識結果のジェスチャーコードを出力できるのである。
【0093】
ステップS9−7において、前記マッチング処理の認識結果の認識候補を一致度が高い順に候補記憶領域に記憶する処理を行う。
【0094】
ステップS9−8において、画像ファイルに付加されてきた軌跡データの全ての認識処理を行ったかのチェックを行う。未だ認識すべき1文字分の軌跡データがあれば、ステップS9−4に進んで認識処理を続行し、もう処理すべきデータが無ければステップS9−9に進む。
【0095】
ステップS9−9において、認識結果のジェスチャーに対応する画像処理を実行する。
【0096】
例えば、認識結果が、ジェスチャーコード“02”の画像印刷ジェスチャーであれば、図1の5のパーソナルコンピュータ上で指定枚数の印刷処理を行う。
【0097】
又、例えば、認識結果が、ジェスチャーコード“03”の画像解像度変換ジェスチャーであれば、図1の5のパーソナルコンピュータ上で、指定解像度に画像を変換する処理を行う。
【0098】
ステップS9−10において、1つの画像ファイルのジェスチャー処理を終了する。携帯端末から送られてきた画像ファイルが複数存在するときは、この処理をその個数だけ繰り返す。
【0099】
又、この認識結果のジェスチャーの種類によっては、認識結果を携帯端末側に戻す構成を追加することも可能である。この構成を追加すれば、携帯端末側で実行するジェスチャー処理種類も追加できる。その場合、特定のジェスチャーがホストコンピュータ側で認識されると、その認識結果のジェスチャーに対応する画像処理の携帯端末側のコマンド列と送られてきた画像ファイルのインデックスを携帯端末側に送り返すプログラムを追加すれば良い。そして携帯端末側は、その画像インデックスによって画像を特定し、その画像に対する処理を送られてきたコマンド列沿って行えば良い。
【0100】
以上説明した構成で携帯端末とパーソナルコンピュータ側のプログラムを作ることにより、より柔軟な、画像ファイルに対するジェスチャー指示処理システムを実現することができる。
【0101】
<実施の形態2>
前記実施の形態1では、画像処理の対象は、表示している1画面全体としてきたが、処理操作としては、対象が画像の一部分であることもある。単純には、選択ジェスチャーを設ければ可能であるが、画像の場合書かれた軌跡の位置座標を選択範囲とするとなかなかユーザにとって使いにくいときがある。プリント用紙の大きさやレイアウトの関係で100*100画素の矩形で切り取りたい等の要求がある場合。手書き軌跡で縦横を100:100にするのは何度か繰り返せば可能であるが、なかなか難しく本来の手軽な操作と相反することになる。そこで、実施の形態1に選択範囲の変更処理操作を付加することにより、微妙な選択を行いたいときの操作を簡単なものにする。
【0102】
図10は本実施の形態の処理構成図である。
【0103】
2−1,3−1,3−2,3−3,3−4,3−5,3−6は図3の処理手段と同じであるため説明を省く。
【0104】
10−1はジェスチャー軌跡の選択範囲を求める手段である。ジェスチャーの認識結果が選択ジェスチャーコードの場合、この手段にジェスチャー軌跡データが送られてくる。その選択ジェスチャーに応じた画像選択範囲の位置座標を出力する。
【0105】
10−2は、ジェスチャー軌跡で入力された画像選択範囲を表示する手段である。10−3は選択範囲を認識指示入力で変更する手段である。
【0106】
10−4は処理時間、バッテリー状態によってジェスチャー処理を実行する時間、機械を選択変更する手段である。10−1,10−2,10−3の手段は実施例では、図2のROM8の中にプログラムとして実現されている。
【0107】
図11〜図14は選択範囲変更処理の入力表示例である。
【0108】
図15はフローチャートである。これは、図10の10−1,10−2,10−3,10−4の処理手段を実現したプログラムのフローチャートである。
【0109】
上記構成で、図15のフローチャートに沿って処理を説明する。
【0110】
本実施の形態では、選択ジェスチャーとして図11のような“O”“X”の2種類を選択ジェスチャーとする。“O”のジェスチャーは丸く囲まれた部分を選択範囲とする。“X”の方はXの軌跡の外接矩形部分を選択範囲とする。
【0111】
ステップS15−1において、画像のジェスチャー選択処理を開始する。ワーク等の初期化処理を行う。
【0112】
ステップS15−2において、選択ジェスチャー入力処理を行う。2−1の座標入力部を使って、ユーザは選択したい画像部分上に選択ジェスチャーを入力する。
【0113】
ステップS15−3において認識処理を実行する。認識処理自体は、実施の形態のフローチャート図6で説明した方法で行い、認識結果が出力される。
【0114】
ステップS15−4において、認識結果のチェックを行う。認識結果が選択ジェスチャーであれば、ステップS15−5に進み、選択ジェスチャー処理を行う。認識結果が選択ジェスチャー以外であれば、他のジェスチャー処理へ進む。
【0115】
ステップS15−5において、選択ジェスチャーの選択範囲の表示を行う。認識結果が“X”選択ジェスチャーであるときは、Xの軌跡の外接矩形部分を選択範囲とし、その外接矩形部分を表示させる。これにより、ユーザは希望の部分が選択されたどうかが確認できる。図11のように“X”が入力され、“X”選択ジェスチャーで、あると認識されると、図12のAのように“X”外接矩形が表示される。選択部分の表示後、次の指示入力待ちになる。又は、“O”ジェスチャーが入力されると、図12のBのように、丸で囲まれた画像が選択範囲となり、強調表示される。
【0116】
ステップS15−6において、画像部分選択表示後の指示入力をチェックする。ユーザは、座標入力部2−1を使って、位置座標軌跡を入力することができる。入力された位置座標をチェックして、入力軌跡の位置座標が画像選択表示の外接矩形上であれば、ステップS15−7からの選択範囲変更処理に進む。入力軌跡の位置座標が外接矩形上でなければ、ステップS15−10に進み、選択範囲に対する画像処理ジェスチャーの処理を行う。図13が外接矩形に選択範囲変更の指示入力がなされたときの表示である。又、この選択表示後の入力処理において、最初のペンダウン時の位置が外接矩形上でペンが一定期間(数秒以上)停止状態が続いたら、従来のマウス等による操作による画像選択エリア変更モードにはいる処理を付け加えても良い。
【0117】
ステップS15−7において、選択境界上の数字認識処理を行う。この認識処理自体は、実施の形態1で説明したものと同じ処理である。フローチャート図5の処理によって、文字切りを行い。フローチャート図6のステップS6−6の処理によって、数字の認識結果が出力される。
【0118】
ステップS15−8において、認識結果の評価処理を行う。認識結果の数字が妥当であるかをチェックし、妥当であればその数値を入力として画像選択範囲を変更する。1以上画像選択最大値以下の値であれば妥当であるとする。例えば図13のように横に“100”縦に“100”と入力され認識されると。元々の選択領域が、87画素×100画素であると100画素×100画素の選択領域に拡張する。
【0119】
ステップS15−9において、選択範囲の表示の変更処理を行う。前ステップS15−8で決定した、100画素×100画素を選択範囲として、100画素×100画素の矩形を破線で図14のように表示する処理を行う。そして、ステップS15−6に進み入力待ちとなる。
【0120】
ステップS15−10において、選択範囲に対するジェスチャーの認識処理を行う。ジェスチャーの認識処理自体は、ステップS15−3と同様なものである、ここで入力された軌跡を認識し、認識結果のジェスチャーコードを出力する。例えば、ここで“C”のジェスチャーが入力されていれば、“C”のコピージェスチャーコードが出力される。
【0121】
ステップS15−11において、認識結果のジェスチャー処理を実行する。選択した画像部分に対して、認識結果のジェスチャーに対応する処理を行う。例えば、図14の選択状態で、”C”のコピージェスチャーが入力されたら、図14のC−の矩形で囲まれた領域の画像がコピー用の記憶領域に記憶される。前記処理が終わったらこの選択表示を解除し、選択状態を解除する。
【0122】
以上説明した構成で携帯端末のプログラムを作ることにより、より柔軟な、画像ファイルに対する選択範囲変更指示を実現できる。
【0123】
又、実施の形態1では、ジェスチャー認識後の処理の実施時期は固定であったが、携帯端末のバッテリーの状態やユーザの指定によって変更する構成にするのも可能である。
【0124】
図7のジェスチャーコードに対応する画像処理の処理テーブルの構成図を拡張し、携帯端末のバッテリー電圧が低下しているときは実行を延期する判別データ領域を設ける。
【0125】
例えば、画像消去処理は、バッテリー電圧低下時は、消去予約処理だけを行い。バッテリー電圧が回復したときに実際の消去動作を行うようにする。それにより、バッテリー電圧低下時は、消去動作等のユーザデータに危険を及ぼすような動作を禁止した安全な携帯端末を提供できる。
【0126】
図7のジェスチャーコードに対応する画像処理テーブルの画像処理実行機械の判別データを書き換えるユーザ設定プログラムを組み込めば、ユーザの好みにより、画像処理の時間が掛かっても携帯端末側で実行する携帯端末を提供することができる。
【0127】
【発明の効果】
以上の説明で明らかなように、本発明によれば、画像処理を必要とする画像上に手書き軌跡を入力する手段と画像処理操作種類に対応する形状と画像処理のパラメータの数値に対応する数字を認識する手段を設けることにより、画像上に書かれた軌跡を認識し、認識結果に対応した種類の画像処理を認識結果の数値をパラメータとして実行する情報処理を実現できる。これにより、簡単な操作で画像処理を行うことができる携帯端末を実現できる。そして、入力した軌跡の種類によっては、画像データに軌跡データを付加してホストコンピュータに送る手段を設けることにより、ホストコンピュータ側で認識ジェスチャー種類を増やすこともできる携帯端末実現することができる。
【0128】
又、選択範囲ジェスチャー入力時に画像選択範囲認識手段、画像選択範囲表示手段、画像選択範囲変更認識手段を設けることにより、画像選択範囲を自由に簡単に変更できる携帯端末を提供することができる。
【図面の簡単な説明】
【図1】本発明の実際の使用形態を表す図である。
【図2】本発明の携帯情報機器のブロック図である。
【図3】本発明の実施の形態の処理構成図である。
【図4】ジェスチャー辞書のデーター構造図である。
【図5】本発明の実施の形態のフローチャートである。
【図6】本発明の実施の形態のフローチャートである。
【図7】本発明の実施の形態のフローチャートである。
【図8】本発明の実施の形態のフローチャートである。
【図9】本発明の実施の形態のフローチャートである。
【図10】本発明の実施の形態2の処理構成図である。
【図11】ジェスチャー入力表示例を示す図である。
【図12】ジェスチャー入力表示例を示す図である。
【図13】ジェスチャー入力表示例を示す図である。
【図14】ジェスチャー入力表示例を示す図である。
【図15】本発明の実施の形態2のフローチャートである。
【符号の説明】
1 携帯情報端末
2−1 位置座標入力部
2−2 画像表示部
3 ペン
4 カメラ部
5 パソコン
6 CPU
7 RAM
8 ROM
9 画像メディアインターフェイス
10 USBインターフェイス
11 システムバス
【発明の属する技術分野】
本発明は、画像に対する処理を手書き軌跡で指示するペン入力情報処理方法に関するものである。
【0002】
【従来の技術】
従来の情報処理装置は、特開平8−69351号等に記載のように、ペン入力されるジェスチャー軌跡データを記憶する手段と、記憶した軌跡データを順次認識し、その結果がジェスチャーであればそのジェスチャーに対応する処理を行う手段等で構成されていた。
【0003】
【発明が解決しようとする課題】
ところで、従来のジェスチャー認識では、ジェスチャーを入力してから、直ぐに認識させ処理を実行する場合においては、処理を実行するCPU等の能力によっては時間が掛かるため操作者がいらつくようなことがあった。
【0004】
又、従来のジェスチャー認識では、文字列に対する編集操作が対象であったため、削除とか、仮名漢字変換の実行とか簡単なもであった。ところが、画像に対する画像処理操作においては、数値指定が必要なような複雑なものもあるためそのまま適応することは難しかった。
【0005】
又、文字列の選択ジェスチャーでは、希望の選択領域は通常簡単に入力できるが、画像の部分選択指示においては、100×100画素の矩形範囲を選択したい等の要求があった。従来の画像処理ソフトにおいては、或る程度余分な領域含む大きな領域を一旦コピーしてから、余分な領域を削除する等と煩雑であった。
【0006】
本発明は上記問題に鑑みてなされたもので、その目的とする処は、画像上に書かれた軌跡を認識し、認識結果に対応した種類の画像処理を認識結果の数値をパラメータとして実行する情報処理を実現することができるペン入力情報処理方式を提供することにある。
【0007】
又、本発明は、認識できる手書き軌跡ジェスチャーの形状の種類をホストコンピュータ側の種類を変更することにより拡張することができるペン入力情報処理方式を提供することを目的とする。
【0008】
更に、本発明は、画像選択時において、画像選択範囲変更認識手段を設けることにより、画像選択領域の微少な変更も選択領域表示上に直接手書き数値を入力することにより可能とするペン入力情報処理方式を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するため、本発明は、画像データを表示する手段と、画像データ上に手書き軌跡情報を入力する手段と、入力された手書き軌跡データを画像データに付加して記憶する手段と、前記記憶した手書き軌跡データが付加された画像データを他の機械に送信する手段を持つ情報処理装置と、前記情報処理装置から送られてくる手書き軌跡データが付加された画像データを受信する手段と、受信した手書き軌跡データを認識する手段と前記認識した形状に対応する処理を画像データに対して行うことを特徴とする。
【0010】
又、本発明は、画像データを表示する手段と、画像データ上に手書き軌跡情報を入力する手段と、入力された手書き軌跡データを画像データに付加して記憶する手段と、前記記憶した手書き軌跡データを形状によって認識する手段と、前記認識した形状の種類に応じた処理種類によって前記記憶した手書き軌跡データが付加された画像データを他の機械に送信するか、前記画像データに対する処理を行うかを決定する手段と前記画像データに対する処理を行う手段と前記記憶した手書き軌跡データが付加された画像データを他の機械に送信する手段を持つ情報処理装置と、前記情報処理装置から送られてくる手書き軌跡データが付加された画像データを受信する手段と、受信した手書き軌跡データを認識する手段と前記認識した形状に対応する処理を画像データに対して行うことを特徴とする。
【0011】
【発明の実施の形態】
以下に本発明の実施形態を添付図面に基づいて説明する。
【0012】
<実施の形態1>
図1は本発明の実際の使用形態を表している。1は携帯情報機器であり、カメラ部、液晶表示部、抵抗膜等で構成されている座標入力部、CPU、ROM、RAM、記録メディアを差し込むスロット、他の情報機器と接続するためのUSB等のインターフェイスで構成されている。カメラ部で撮影した画像を液晶表示部に表示し、その画像に対する処理の指示を座標入力部によって入力する軌跡データで行う。ROMには、本発明を含む携帯情報機器の情報処理手順が記憶されている。RAMには、画像データ、入力された軌跡データ等が記憶されている。画像データはユーザの指示操作によって、USBインターフェイスを通ってパーソナルコンピュータへ送られる。又は、記録メディアを介して画像データは、パーソナルコンピュータやプリンターに送られる。
【0013】
2は一般的な液晶表示部であり、その液晶表示部2の上面に座標入力を行う一般的な透明抵抗膜デジタイザーが取り付けられている。その表示画面上をペン3で押圧することにより手書きの軌跡を入力することができる。
【0014】
3は一般的なペンであり、手書き軌跡情報や、表示画面上のソフトボタン等の入力に利用される。
【0015】
4は一般的なデジタルカメラ部であり、レンズ、CCD等の撮像素子で構成されている。携帯情報機器1内のCPUによって制御され、撮影された画像データはCPUに接続されているRAMに記憶される。
【0016】
5は一般的なパーソナルコンピュータであり、携帯情報機器1とUSBインターフェイスを通じて接続されている。携帯情報機器1から送られてくる、手書き軌跡データが付加された画像データを定められた処理手順で処理を行うよう構成されている。
【0017】
図2は本発明実施例の携帯情報機器のブロック図である。
【0018】
2−1は、位置座標入力部であり、2−2の液晶表示部の上面に配置された抵抗膜デジタイザーで構成されている。抵抗膜デジタイザーは制御回路を介して、システムバス11を経由してCPU6に接続している。ペン3を使って、画面上を押圧することにより、押圧した位置の位置座標データがCPU6によって読み取られる訳である。読み取られた位置座標データは、RAM7に記憶され、ROM8内の処理手順に従って、手書き軌跡の辞書データとのマッチング処理等が実行される訳である。
【0019】
2−2は一般的な液晶表示部で、液晶表示素子、液晶制御回路、表示メモリから構成され、システムバス11を経由してCPU6に接続している。CPU6からの指示で、画像データや手書き軌跡データが画面上に表示される。
【0020】
3は一般的なペンであり、手書き軌跡情報や、表示画面上のソフトボタン等の入力に利用される。
【0021】
4は一般的なデジタルカメラ部であり、レンズ、CCD等の撮像素子、CCDの制御回路で構成されている。CCDの制御回路はシステムバス11を経由してCPU6に接続している。CPU6によってCCDは制御され、撮影された画像はRAM7に記憶される。
【0022】
6は一般的なCPUであり、システムバス11を介してRAM7、ROM8、の位置座標入力部2−1、液晶表示部2−2等と接続しており、ROM8に記憶されているプログラムによって処理動作を行う。
【0023】
7は一般的なRAMであり、画像データの保存や、プリグラムのワーク領域として使われる。
【0024】
8は一般的なROMであり、CCDの制御プログラム、液晶表示部の制御プログラム等が記憶されている。又、手書き軌跡の認識プログラム、手書き軌跡形状の辞書データ等の本発明の処理手順も記憶されている。
【0025】
9はデジタルカメラ等で一般的なコンパクトフラッシュのカードのインターフェイス部であり、差し込まれたコンパックトフラッシュカードのデータの読み込み書き込みを実現し、画像データ等を記憶することができる。
【0026】
10は一般的なUSBインターフェイス部であり、CPU6によって制御され、一般のパーソナルコンピュータと接続して、手書き軌跡データが付加された画像データ等のやり取りを行うことができる。
【0027】
図3は本発明実施例の処理構成図である。
【0028】
2−1は図2で説明した位置座標入力部であり、ペンで押圧することにより、その押圧した位置の位置座標が入力される。図のように画像の上にジェスチャー軌跡を書くことにより、その画像に対する処理を指示することができる。
【0029】
3−1は文字切り手段であり、位置座標入力手段2−1から送られてくる一画面分の複数文字の位置座標データを1文字単位に切り分ける処理を行う。座標入力操作から認識処理実行のタイミングは、ユーザの指定によって時間は変更可能である。既定値は10秒ペンアップが続くか、他のスイッチ等が押されたら、文字切り手段3−1に、画面上の位置座標データが送られるように構成されている。本実施の形態ではこの構成で行うが、認識処理時間が1秒以下であれば、ペンアップのタイミングで毎回認識処理を繰り返す構成も考えられる、その場合は認識結果により入力処理が継続するかどうかを決定する構成となる(この考え方は、特許第3143461号で記載の方式をジェスチャー認識に応用することで実現することができる)。
【0030】
認識した結果が継続コードであれば、次のストロークの入力を待ち、ジェスチャーコードであれば、そのコードに対応した処理を実行する。又、認識した結果のジェスチャーが数値パラメータを必要とする種類であれば、数値パラメータの入力を待つ構成となる。文字切りのアルゴリズムは、最初に入力されたストロークの外接矩形を記憶し、次のストロークがその矩形内か外かで、次の文字のストロークかそうでないかを判断する。
【0031】
3−2はジェスチャー認識手段で、ジェスチャー認識辞書データ3−3との文字切り手段3−1から送られてくる1文字分の位置座標データとのマッチング処理を行い、辞書データとの一致度が高い順に候補を出力する。
【0032】
3−3はジェスチャー認識辞書データで、ジェスチャー形状のデータとジェスチャーコードが記憶されている。
【0033】
3−4は数字認識手段で、数字認識辞書データ3−5と文字切り手段3−1から送られてくる1文字分の位置座標データとのマッチング処理を行い、辞書データとの一致度が高い順に候補を出力する。
【0034】
3−5は数字認識辞書データで、数字のデータと数字の文字コードが記憶されている。ジェスチャー認識手段3−2の認識結果と数字認識手段3−4の認識結果がジェスチャー処理手段3−6に送られる。
【0035】
3−6はジェスチャー処理手段で、3−2,3−4から送られてくる認識結果を統合し、その統合したジェスチャーの認識結果によって、図1で表した、携帯情報端末で実際の画像処理を行うか、図1のパソコン5側に手書き軌跡データを付加した画像を送って処理を行うかを決定する。
【0036】
3−7は画像処理手段で、手段3−6において携帯情報端末で実際の画像処理を行うと決定した場合は、液晶表示部2−2に表示している画像に対して、ジェスチャー認識3−2で決定したジェスチャーに対応する画像処理を行う。
【0037】
3−8は画像データに軌跡データを付加する手段で、液晶表示部2−2に表示している画像データに3−6から受け取ったジェスチャー軌跡データを付加する。ジェスチャー軌跡データは、パーソナルコンピュータ5に送られるのであるから、データを圧縮した方が効率が良いので、認識に影響を及ばさない範囲で圧縮を行う。位置座標は0〜256の範囲に正規化し、微少移動量の座標点は必要ないので、間引いてしまう。
【0038】
3−9はパソコン5へ3−8で作成したデータを転送する手段である。本実施の形態では、図2の一般的なUSBインターフェイス10を使って、ジェスチャー軌跡データが付加された画像ファイルをパソコンへ転送する。ファイル転送の手順等は一般的な方式とする。
【0039】
図4はジェスチャー辞書のデーター構造図である。ジェスチャーの種類毎にジェスチャーコード、そのジェスチャーに対応する画像処理の内容、ジェスチャーの形状の特徴化したデータが記憶されている。
【0040】
ジェスチャーコードは、ジェスチャーの種類を区別するための16ビットコードで他の文字(数字アルファベット記号等)と異なるものとする。
【0041】
ジェスチャーに対応する処理の内容は、画像処理のコマンドとする。即ち、ジェスチャーコード“01”に対応する画像消去であれば、“DEL”であり、ジェスチャーコード“02”に対応する画像印刷であれば、“PRINT”である。
【0042】
ジェスチャーの形状の特徴化したデータは、認識アルゴリズムが図4で表したような形状の軌跡の位置座標データから特徴量データを抽出したものである。
【0043】
認識アルゴリズムとしては、特許第3143461号等に記載のストロークを10等分してその10等分したストローク8方向ベクトルで表す方式で行う。認識時も同一の方法で8方向ベクトル化するので、同一の形状のジェスチャーを書けば、同一の8方向ベクトル化データが得られる。
【0044】
図7はジェスチャーコードに対応する画像処理の処理テーブルの構成図である。
【0045】
ジェスチャーコードは、ジェスチャーの種類を区別するための16ビットコードで他の文字(数字アルファベット記号等)と異なるものとする。画像処理内容は、ジェスチャーコードに対応する画像処理内容である。パラメータの内容は、その画像処理のパラメータの内容である。即ち、画像の印刷ジェスチャーの場合は、パラメータは印刷枚数である。次のデータは、画像処理をどの機械で行うかの判別データである。携帯端末側で実行とパソコン側で実行の2種類が存在する。
【0046】
図5、図6、図8及び図9は本発明実施例のフローチャートである。
【0047】
上記構成で、図5、図6、図8及び図9のフローチャートに沿って処理を説明する。
【0048】
図1の1で表した携帯端末は、図1−4のデジタルカメラ部で、静止画を撮影し、図1の2の液晶表示部に撮影した画像を表示する一般的な撮影画像のプレビューモードを備えている。
【0049】
撮影画像のプレビューモードにおいて、その撮影画像上に図1のペン3で手書き軌跡を入力することにより、その画像に対する画像処理を指示することができる構成となっている。JPEG等の形式で図1の1に記憶されている画像ファイルを液晶画面上に表示し、ペンの手書きジェスチャー入力モードとなる。画像を表示しているエリアは、手書きジェスチャー入力エリアとなり、それ以外のエリアは画像ファイルの切り替えエリアやメニューエリアやモード変更エリアとなっている。
【0050】
手書きジェスチャー入力エリアに入力があるまで、入力待ちモードで入力を待つ、最初のペン入力があってから、一定時間入力がないと、ジェスチャー認識モードとなり、ステップ5−1からの処理を行う。又は、画像上にジェスチャー軌跡が入力されている状態で、他のモードや、他の画像ファイルに表示を切り替える操作を指示された場合は、ジェスチャー認識モードとなり、ステップ5−1からの処理を行うようにする。
【0051】
図5のフローチャートで1文字の軌跡データを切り分ける処理を説明する。この処理が図3の文字切り手段3−1に相当する。
【0052】
ステップS5−1で、文字切り処理を開始する。表示画面上に書かれているジェスチャー文字軌跡郡を1文字ずつのデータに切り分ける処理を開始する。
【0053】
ステップS5−2で、最大最小XY座標記憶エリア等のワークの初期化を行う。
【0054】
ステップS5−3で、1ストロークのデータを画像ファイルに対応して記憶されている入力軌跡の座標データ記憶領域から読み込み。個々のストロークは、入力されたときの時系列の順に記憶されている。1ストロークのデータは、可変であり、X座標、Y座標、…ペンアップ、ペンアップのように構成されている(特許第0314361号等に記載の一般的な軌跡の座標データ形式である)。読み込んだストロークデータは、一時的な1文字分データの記憶領域に記憶される。
【0055】
ステップS5−4で、前記ステップで読み込んだ1ストロークデータの最大、最小のXY座標値を記憶する。
【0056】
ステップS5−5で、表示画面上の軌跡記憶領域に、未だ処理していないストロークがあるかのチェックを行う。ストロークが無ければ処理は終了なので、ステップS5−9に進み、ストロークがあればステップS5−6に進む。
【0057】
ステップS5−6で、次のストロークデータのXY座標がステップS5−4で記憶している最小最大XY座標範囲内かのチェックを行う。その判定結果を記憶する。記憶している前のストロークの外接矩形内に今チェックしているストロークが存在すれば、同じ文字のストロークデータとして扱い、そうでなければ別の文字のストロークとして扱う訳である。
【0058】
ステップS5−7において、前記ステップでチェックした結果、次のストロークが範囲内であれば、1文字分のデータに付加するために、ステップS5−3に進みそのストロークデータを読み込む。次のストロークが範囲外であれば、ステップS5−8に進む。
【0059】
ステップS5−8において、ステップS5−3で記憶してきた一時的な1文字分データの記憶領域に記憶されている、ストロークデータ郡を1文字分のデータとして出力する。そして、1文字分データの記憶領域をクリアし、ストロークの最小最大記憶領域をクリアし、次の1文字分のデータを読み込むためにステップS5−3に進む。
【0060】
ステップS5−9において、終了処理を行う。一時的な1文字分データの記憶領域に記憶されている、ストロークデータ郡を最後の1文字分のデータとして出力し、この処理で使った記憶領域等を解放する。
【0061】
上記説明した手順で、表示画面上に入力された1画面分の手書きのジェスチャー軌跡郡を1文字毎のデータ切り分けることができる。1文字分のデータに切り分けることができれば、他の方式でも構わないのは言うまでもない。又、ジェスチャーの入力形状、数値の入力形状を、全て1筆で入力させるようにすれば、1文字部の区切りは、1ストローク毎になるので、上記フローチャート5の処理は省略できる。
【0062】
次に、図6のフローチャートで1文字分の軌跡データの認識処理を説明する。この処理が、図3のジェスチャー認識手段3−2と、数値認識手段3−4に相当する。
【0063】
ステップS6−1で1文字分の認識処理を開始する。ワーク等の一時記憶領域を初期化する。
【0064】
ステップS6−2において、1ストロークを10等分する。対象ストロークの座標点間の距離を加算して、そのストロークの全長を求め、その全長の10分の1を基準長として、始点から基準長単位で、ストロークを分割する。
【0065】
ステップS6−3において、分割したストロークを8方向ベクトル化する。前記ステップで、ストロークは分割されているのでその分割ストロークの始点終点で方向角度を求め、その角度を8方向に分類する。0度を1に分類すれば、45度を2、…、315度を8に分類する。例えば、“−”のような横線のストロークは、“1,1,1,1,1,1,1,1,1,1,”にデータ化される。
【0066】
ステップS6−4において、ジェスチャー辞書の8方向ベクトルデータと順次マッチング処理を行い、入力ベクトルデータと辞書ベクトルデータの一致度を計算していく。入力された1文字のストロークが1筆で書かれたものであれば、1筆の辞書データとマッチングを行い、2筆で書かれたものであれば、2筆の辞書データとマッチングを行う。1つの分割ストロークで、入力ストロークと辞書ストロークの方向が同一であれば、10点とし、その隣の方向であれば、8点とし、逆の方向であれば、0点として、評価する。
【0067】
例えば、例えば、“X”のようなジェスチャーを入力されると、“8,8,8,8,8,8,8,8,8,1”、“6,6,6,6,6,6,6,6,6,6”となり、辞書データの消去ジェスチャーの形状データが“8,8,8,8,8、8,8,8,8,8”、“6,6,6,6,6,6,6,6,6,6”とマッチングすると一致度が99となる。
【0068】
ステップS6−5において、マッチング処理の結果で一致度が高い順に候補記憶領域に記憶する処理を行う。前記ステップで例えば、消去ジェスチャーの形状が入力されマッチングされていれば、消去コード“01”とその評価結果99が記憶される。
【0069】
ステップS6−6において、数字辞書の8方向ベクトルデータと順次マッチング処理を行い、入力ベクトルデータと辞書ベクトルデータの一致度を計算していく。例えば、“1”が入力されれば、“7,7,7,7,7,7,7,7,7,7”となり1の辞書データが、“7,7,7,7,7,7,7,7,7,7”であれば、一致度は100となる。
【0070】
ステップS6−7において、マッチング処理の結果で一致度が高い順に候補記憶領域に記憶する処理を行う。例えば、前記ステップで“1”の結果の一致度が100であれば、1の文字コードと一致度の100が記憶される。
【0071】
ステップS6−8において、ジェスチャー辞書と数字辞書との結果の候補列を統合して、最終結果とする。基本的には、数字の書き方とは異なる形状をジェスチャーとするので間違えることはない。例えば、“P3”と入力されれば、画像印刷ジェスチャーコード“02”と、3の文字コードが第一候補として出力される。
【0072】
ステップS6−9において、認識処理が終了される。
【0073】
もし、全ての辞書データとマッチングを行っても一致度が低くて、30点以下の場合は、候補該当文字無しとする。
【0074】
このように処理を行うことにより、手書きジェスチャーを認識することができる。
【0075】
次に、図8のフローチャートに従ってジェスチャー処理を説明する。
【0076】
図3のジェスチャー処理手段3−6、画像処理手段3−7、画像データ3−8に軌跡データを付加する手段に相当する。
【0077】
ステップS8−1において、ジェスチャー処理を開始する。ワーク等の初期化処理を行う。
【0078】
本実施の形態では、ジェスチャー処理は、認識結果が出次第実行する構成にしているが、携帯端末では、レスポンスが重要であるので、ジェスチャーに対応する画像処理に時間が掛かる場合は、入力処理が無いCPUがアイドル状態の時に画像処理自体は行う構成にしても良い。そのためには、画像ファイルと実行するジェスチャーの対応を記憶しておく領域を設ければ可能である。
【0079】
ステップS8−2において、図7に表したジェスチャー処理テーブルを検索する。認識した結果であるジェスチャーコードでテーブルを検索して、そのジェスチャーに対応する画像処理を携帯端末側で実行するか、パソコン側で実行するかの種別を読み込む。例えば、認識結果が画像消去ジェスチャーであれば、ジェスチャーコード01の画像消去ジェスチャーは、図7から、画像消去処理を携帯機器で実行になっているので、そのことを記憶する。
【0080】
ステップS8−3において、前記ステップで記憶した、処理をどの機械で実行するかの種別によって処理を分岐させる。携帯端末で実行の種別であれば、ステップS8−4に進み、パソコン側で実行の種別であればステップS8−5に進む。
【0081】
ステップS8−4において、認識結果のジェスチャーコードに対応した画像処理を携帯端末側で実行する。例えば、認識結果のジェスチャーコードが01であれば、消去ジェスチャーなので、画像ファイルの消去を実行する。又、例えば、認識結果のジェスチャーコードが04であれば、画像をメイルに加工する処理のジェスチャーなので、画像ファイルを通信のための一般的なMIMEエンコード等の方式で変換し、パラメータの認識結果である数字に対応する規定の宛先に対する電子メイルのファイルを作成し、電子メイルの送信バッファに書き出す処理を行う。
【0082】
ステップS8−5において、ジェスチャーの軌跡データを画像ファイルに付加する処理を行う。一般的なJPEG等の画像ファイルには、コメント入力のためのテキスト記憶領域があるので、そこにジェスチャーの軌跡位置座標データ列をアスキーコード化して書き込むようにする。これにより一般の画像ファイルフォーマットのまま扱えるので、もし、ジェスチャー処理をサポートしていないパーソナルコンピュータにこの画像ファイルを送ってしまってもジェスチャー処理が実行されないだけで他に悪影響を及ぼすことがない。
【0083】
ジェスチャーの軌跡位置座標データ列のアスキーコード化は、先ず、XY位置座標を0〜240の範囲に正規化し、微少座標の変化は無視して良いので位置座標の微少変化点は間引く。そして、XYが例えば、00H、F0Hの2バイトの値であれば、それを、“0”、“0”、“F”、“0”の4バイトの文字コードに変換し、1ストロークの区切りのペンアップのコードは、“UP”“UP”とし、1文字の区切りは“EN”“ND”とし、データの終りは“XX”“XX”とする。
【0084】
ステップS8−6において、前記ステップでジェスチャーの軌跡データを付加した画像ファイルをパソコンへの転送領域に記憶しておく。通常携帯端末はパソコンと接続しない状態で使われるので、接続していない状態では転送の予約処理だけを行い、接続した時点で転送するように処理を実行する。
【0085】
次に、図9のフローチャートで、パソコン側に送られた画像ファイルの処理を説明する。
【0086】
ステップS9−1において、手書きジェスチャーの軌跡データが付加されている画像ファイルの処理を開始する。ワーク等の初期化を実行する。
【0087】
ステップS9−2において、画像ファイルに付加されているジェスチャー軌跡データを読み込む処理を行う。ステップS8−5において行った処理の逆の処理を行うわけである。画像ファイルのコメント領域に記憶されているアスキーコード化されたジェスチャーの軌跡位置座標データ列をバイナリー化する。0,0,F,0,……“U、P”“U、P、”EN”“N D”“X、X”“X、X”のアスキーコード列を00H、F0H、…ペンアップコード“F1H、F1H”文字切りコード“FEH、FEH”データ終了コード“FFH、FFH”のバイナリーコードに変換し、一時記憶領域に記憶する。
【0088】
ステップS9−3において、画像ファイルに軌跡データが付加されているかどうかのチェックを行う。前記ステップで変換すべき軌跡データが存在しないときは、通常の画像ファイルなのでステップS9−10に進みこの手書き軌跡データ処理を終了する。軌跡データが存在するときは、ステップS9−4に進み、手書き軌跡データの処理を行う。
【0089】
ステップS9−4において、一時記憶領域に記憶されている1画像ファイルの軌跡データの中から1文字分の軌跡データを取り出し、その軌跡データの軌跡ストロークを10等分する処理を行う。対象ストロークの座標点間の距離を加算して、そのストロークの全長を求め、その全長の10分の1を基準長として、始点から基準長単位でストロークを分割する。
【0090】
ステップS9−5において、分割したストロークを8方向ベクトル化する。前記ステップで、ストロークは分割されているのでその分割ストロークの始点終点で方向角度を求め、その角度を8方向に分類する。0度を1に分類すれば、45度を2、…、315度を8に分類する。例えば、“−”のような横線のストロークは、“1,1,1,1,1,1,1,1,1,1,”にデータ化される。
【0091】
ステップS9−6において、ジェスチャー&数字辞書の8方向ベクトルデータと順次マッチング処理を行い、入力ベクトルデータと辞書ベクトルデータの一致度を計算していく。ここでマッチングを行う辞書は、図1の5のパソコン側に記憶されている辞書である。携帯端末側の辞書は、通常ROM等に記憶されている場合が多いので更新するのが難しいが、パソコン側の辞書は、通常ハードディスク等に記憶されているので、更新ファイル等をネットワーク等で配布すれば、更新は可能である。
【0092】
本実施の形態では、パソコン側の辞書のジェスチャー形状データには、携帯端末に登録されている形状以外のデータも登録されている構成となっている。そのため、もしその形状のジェスチャーを携帯端末で入力した場合は、候補無しの結果になるが、本実施の形態では、その場合、その位置座標データ列は画像ファイルに付加されてパソコン側に送られてきて、このステップでマッチングされ、認識結果のジェスチャーコードを出力できるのである。
【0093】
ステップS9−7において、前記マッチング処理の認識結果の認識候補を一致度が高い順に候補記憶領域に記憶する処理を行う。
【0094】
ステップS9−8において、画像ファイルに付加されてきた軌跡データの全ての認識処理を行ったかのチェックを行う。未だ認識すべき1文字分の軌跡データがあれば、ステップS9−4に進んで認識処理を続行し、もう処理すべきデータが無ければステップS9−9に進む。
【0095】
ステップS9−9において、認識結果のジェスチャーに対応する画像処理を実行する。
【0096】
例えば、認識結果が、ジェスチャーコード“02”の画像印刷ジェスチャーであれば、図1の5のパーソナルコンピュータ上で指定枚数の印刷処理を行う。
【0097】
又、例えば、認識結果が、ジェスチャーコード“03”の画像解像度変換ジェスチャーであれば、図1の5のパーソナルコンピュータ上で、指定解像度に画像を変換する処理を行う。
【0098】
ステップS9−10において、1つの画像ファイルのジェスチャー処理を終了する。携帯端末から送られてきた画像ファイルが複数存在するときは、この処理をその個数だけ繰り返す。
【0099】
又、この認識結果のジェスチャーの種類によっては、認識結果を携帯端末側に戻す構成を追加することも可能である。この構成を追加すれば、携帯端末側で実行するジェスチャー処理種類も追加できる。その場合、特定のジェスチャーがホストコンピュータ側で認識されると、その認識結果のジェスチャーに対応する画像処理の携帯端末側のコマンド列と送られてきた画像ファイルのインデックスを携帯端末側に送り返すプログラムを追加すれば良い。そして携帯端末側は、その画像インデックスによって画像を特定し、その画像に対する処理を送られてきたコマンド列沿って行えば良い。
【0100】
以上説明した構成で携帯端末とパーソナルコンピュータ側のプログラムを作ることにより、より柔軟な、画像ファイルに対するジェスチャー指示処理システムを実現することができる。
【0101】
<実施の形態2>
前記実施の形態1では、画像処理の対象は、表示している1画面全体としてきたが、処理操作としては、対象が画像の一部分であることもある。単純には、選択ジェスチャーを設ければ可能であるが、画像の場合書かれた軌跡の位置座標を選択範囲とするとなかなかユーザにとって使いにくいときがある。プリント用紙の大きさやレイアウトの関係で100*100画素の矩形で切り取りたい等の要求がある場合。手書き軌跡で縦横を100:100にするのは何度か繰り返せば可能であるが、なかなか難しく本来の手軽な操作と相反することになる。そこで、実施の形態1に選択範囲の変更処理操作を付加することにより、微妙な選択を行いたいときの操作を簡単なものにする。
【0102】
図10は本実施の形態の処理構成図である。
【0103】
2−1,3−1,3−2,3−3,3−4,3−5,3−6は図3の処理手段と同じであるため説明を省く。
【0104】
10−1はジェスチャー軌跡の選択範囲を求める手段である。ジェスチャーの認識結果が選択ジェスチャーコードの場合、この手段にジェスチャー軌跡データが送られてくる。その選択ジェスチャーに応じた画像選択範囲の位置座標を出力する。
【0105】
10−2は、ジェスチャー軌跡で入力された画像選択範囲を表示する手段である。10−3は選択範囲を認識指示入力で変更する手段である。
【0106】
10−4は処理時間、バッテリー状態によってジェスチャー処理を実行する時間、機械を選択変更する手段である。10−1,10−2,10−3の手段は実施例では、図2のROM8の中にプログラムとして実現されている。
【0107】
図11〜図14は選択範囲変更処理の入力表示例である。
【0108】
図15はフローチャートである。これは、図10の10−1,10−2,10−3,10−4の処理手段を実現したプログラムのフローチャートである。
【0109】
上記構成で、図15のフローチャートに沿って処理を説明する。
【0110】
本実施の形態では、選択ジェスチャーとして図11のような“O”“X”の2種類を選択ジェスチャーとする。“O”のジェスチャーは丸く囲まれた部分を選択範囲とする。“X”の方はXの軌跡の外接矩形部分を選択範囲とする。
【0111】
ステップS15−1において、画像のジェスチャー選択処理を開始する。ワーク等の初期化処理を行う。
【0112】
ステップS15−2において、選択ジェスチャー入力処理を行う。2−1の座標入力部を使って、ユーザは選択したい画像部分上に選択ジェスチャーを入力する。
【0113】
ステップS15−3において認識処理を実行する。認識処理自体は、実施の形態のフローチャート図6で説明した方法で行い、認識結果が出力される。
【0114】
ステップS15−4において、認識結果のチェックを行う。認識結果が選択ジェスチャーであれば、ステップS15−5に進み、選択ジェスチャー処理を行う。認識結果が選択ジェスチャー以外であれば、他のジェスチャー処理へ進む。
【0115】
ステップS15−5において、選択ジェスチャーの選択範囲の表示を行う。認識結果が“X”選択ジェスチャーであるときは、Xの軌跡の外接矩形部分を選択範囲とし、その外接矩形部分を表示させる。これにより、ユーザは希望の部分が選択されたどうかが確認できる。図11のように“X”が入力され、“X”選択ジェスチャーで、あると認識されると、図12のAのように“X”外接矩形が表示される。選択部分の表示後、次の指示入力待ちになる。又は、“O”ジェスチャーが入力されると、図12のBのように、丸で囲まれた画像が選択範囲となり、強調表示される。
【0116】
ステップS15−6において、画像部分選択表示後の指示入力をチェックする。ユーザは、座標入力部2−1を使って、位置座標軌跡を入力することができる。入力された位置座標をチェックして、入力軌跡の位置座標が画像選択表示の外接矩形上であれば、ステップS15−7からの選択範囲変更処理に進む。入力軌跡の位置座標が外接矩形上でなければ、ステップS15−10に進み、選択範囲に対する画像処理ジェスチャーの処理を行う。図13が外接矩形に選択範囲変更の指示入力がなされたときの表示である。又、この選択表示後の入力処理において、最初のペンダウン時の位置が外接矩形上でペンが一定期間(数秒以上)停止状態が続いたら、従来のマウス等による操作による画像選択エリア変更モードにはいる処理を付け加えても良い。
【0117】
ステップS15−7において、選択境界上の数字認識処理を行う。この認識処理自体は、実施の形態1で説明したものと同じ処理である。フローチャート図5の処理によって、文字切りを行い。フローチャート図6のステップS6−6の処理によって、数字の認識結果が出力される。
【0118】
ステップS15−8において、認識結果の評価処理を行う。認識結果の数字が妥当であるかをチェックし、妥当であればその数値を入力として画像選択範囲を変更する。1以上画像選択最大値以下の値であれば妥当であるとする。例えば図13のように横に“100”縦に“100”と入力され認識されると。元々の選択領域が、87画素×100画素であると100画素×100画素の選択領域に拡張する。
【0119】
ステップS15−9において、選択範囲の表示の変更処理を行う。前ステップS15−8で決定した、100画素×100画素を選択範囲として、100画素×100画素の矩形を破線で図14のように表示する処理を行う。そして、ステップS15−6に進み入力待ちとなる。
【0120】
ステップS15−10において、選択範囲に対するジェスチャーの認識処理を行う。ジェスチャーの認識処理自体は、ステップS15−3と同様なものである、ここで入力された軌跡を認識し、認識結果のジェスチャーコードを出力する。例えば、ここで“C”のジェスチャーが入力されていれば、“C”のコピージェスチャーコードが出力される。
【0121】
ステップS15−11において、認識結果のジェスチャー処理を実行する。選択した画像部分に対して、認識結果のジェスチャーに対応する処理を行う。例えば、図14の選択状態で、”C”のコピージェスチャーが入力されたら、図14のC−の矩形で囲まれた領域の画像がコピー用の記憶領域に記憶される。前記処理が終わったらこの選択表示を解除し、選択状態を解除する。
【0122】
以上説明した構成で携帯端末のプログラムを作ることにより、より柔軟な、画像ファイルに対する選択範囲変更指示を実現できる。
【0123】
又、実施の形態1では、ジェスチャー認識後の処理の実施時期は固定であったが、携帯端末のバッテリーの状態やユーザの指定によって変更する構成にするのも可能である。
【0124】
図7のジェスチャーコードに対応する画像処理の処理テーブルの構成図を拡張し、携帯端末のバッテリー電圧が低下しているときは実行を延期する判別データ領域を設ける。
【0125】
例えば、画像消去処理は、バッテリー電圧低下時は、消去予約処理だけを行い。バッテリー電圧が回復したときに実際の消去動作を行うようにする。それにより、バッテリー電圧低下時は、消去動作等のユーザデータに危険を及ぼすような動作を禁止した安全な携帯端末を提供できる。
【0126】
図7のジェスチャーコードに対応する画像処理テーブルの画像処理実行機械の判別データを書き換えるユーザ設定プログラムを組み込めば、ユーザの好みにより、画像処理の時間が掛かっても携帯端末側で実行する携帯端末を提供することができる。
【0127】
【発明の効果】
以上の説明で明らかなように、本発明によれば、画像処理を必要とする画像上に手書き軌跡を入力する手段と画像処理操作種類に対応する形状と画像処理のパラメータの数値に対応する数字を認識する手段を設けることにより、画像上に書かれた軌跡を認識し、認識結果に対応した種類の画像処理を認識結果の数値をパラメータとして実行する情報処理を実現できる。これにより、簡単な操作で画像処理を行うことができる携帯端末を実現できる。そして、入力した軌跡の種類によっては、画像データに軌跡データを付加してホストコンピュータに送る手段を設けることにより、ホストコンピュータ側で認識ジェスチャー種類を増やすこともできる携帯端末実現することができる。
【0128】
又、選択範囲ジェスチャー入力時に画像選択範囲認識手段、画像選択範囲表示手段、画像選択範囲変更認識手段を設けることにより、画像選択範囲を自由に簡単に変更できる携帯端末を提供することができる。
【図面の簡単な説明】
【図1】本発明の実際の使用形態を表す図である。
【図2】本発明の携帯情報機器のブロック図である。
【図3】本発明の実施の形態の処理構成図である。
【図4】ジェスチャー辞書のデーター構造図である。
【図5】本発明の実施の形態のフローチャートである。
【図6】本発明の実施の形態のフローチャートである。
【図7】本発明の実施の形態のフローチャートである。
【図8】本発明の実施の形態のフローチャートである。
【図9】本発明の実施の形態のフローチャートである。
【図10】本発明の実施の形態2の処理構成図である。
【図11】ジェスチャー入力表示例を示す図である。
【図12】ジェスチャー入力表示例を示す図である。
【図13】ジェスチャー入力表示例を示す図である。
【図14】ジェスチャー入力表示例を示す図である。
【図15】本発明の実施の形態2のフローチャートである。
【符号の説明】
1 携帯情報端末
2−1 位置座標入力部
2−2 画像表示部
3 ペン
4 カメラ部
5 パソコン
6 CPU
7 RAM
8 ROM
9 画像メディアインターフェイス
10 USBインターフェイス
11 システムバス
Claims (5)
- 画像データを表示する手段と、画像データ上に手書き軌跡情報を入力する手段と、入力された手書き軌跡データを画像データに付加して記憶する手段と、前記記憶した手書き軌跡データが付加された画像データを他の機械に送信する手段を持つ情報処理装置と、前記情報処理装置から送られてくる手書き軌跡データが付加された画像データを受信する手段と、受信した手書き軌跡データを認識する手段と前記認識した形状に対応する処理を画像データに対して行うことを特徴とするペン入力情報処理方法。
- 前記認識手段は、複数の画像処理に対応する形状と、画像処理のパラメータに対応する文字を認識することを特徴とする請求項1記載のペン入力情報処理方法。
- 画像データを表示する手段と、画像データ上に手書き軌跡情報を入力する手段と、入力された手書き軌跡データを画像データに付加して記憶する手段と、前記記憶した手書き軌跡データを形状によって認識する手段と、前記認識した形状の種類に応じた処理種類によって前記記憶した手書き軌跡データが付加された画像データを他の機械に送信するか、前記画像データに対する処理を行うかを決定する手段と前記画像データに対する処理を行う手段と前記記憶した手書き軌跡データが付加された画像データを他の機械に送信する手段を持つ情報処理装置と、前記情報処理装置から送られてくる手書き軌跡データが付加された画像データを受信する手段と、受信した手書き軌跡データを認識する手段と前記認識した形状に対応する処理を画像データに対して行うことを特徴とするペン入力情報処理方法。
- 画像データの一部を選択指示する手書き軌跡入力手段と選択指示手書き軌跡認識手段と画像選択範囲表示手段と画像選択範囲認識手段と画像選択範囲変更認識手段を設けたことを特徴とする請求項3記載のペン入力情報処理方法。
- 前記画像選択範囲変更認識手段は、選択表示上に入力された文字軌跡データを認識した結果を元に画像選択領域を変更する手段であることを特徴とする請求項4記載のペン入力情報処理方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003001979A JP2004213521A (ja) | 2003-01-08 | 2003-01-08 | ペン入力情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003001979A JP2004213521A (ja) | 2003-01-08 | 2003-01-08 | ペン入力情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004213521A true JP2004213521A (ja) | 2004-07-29 |
Family
ID=32819853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003001979A Withdrawn JP2004213521A (ja) | 2003-01-08 | 2003-01-08 | ペン入力情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004213521A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007317159A (ja) * | 2006-05-26 | 2007-12-06 | Uniwill Computer Corp | 電子装置の入力装置およびその入力方法 |
JP2008186120A (ja) * | 2007-01-29 | 2008-08-14 | Seiko Epson Corp | ユーザの指示に従って処理を実行するための処理装置、処理方法、および、プログラム |
JP2009053834A (ja) * | 2007-08-24 | 2009-03-12 | Sharp Corp | 情報表示装置 |
JP2010157078A (ja) * | 2008-12-26 | 2010-07-15 | Canon Inc | 情報処理装置及び軌跡データ認識方法 |
JP4796131B2 (ja) * | 2005-04-18 | 2011-10-19 | ソニー エリクソン モバイル コミュニケーションズ, エービー | 筆記による及び/又は可聴音によるユーザ指示に応える、電子デバイス内のデータ管理のための、方法、電子デバイス、及びコンピュータ読み取り可能な記録媒体 |
JP2012502364A (ja) * | 2008-09-03 | 2012-01-26 | オブロング・インダストリーズ・インコーポレーテッド | データ空間の主要次元をナビゲートするための制御システム |
JP2013047978A (ja) * | 2005-02-08 | 2013-03-07 | Oblong Industries Inc | ジェスチャベースの制御システムのためのシステムおよび方法 |
JP2015084215A (ja) * | 2013-09-17 | 2015-04-30 | ブラザー工業株式会社 | 紙媒体及び入力装置 |
JP2015165346A (ja) * | 2014-02-28 | 2015-09-17 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
WO2017208931A1 (ja) * | 2016-05-31 | 2017-12-07 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置 |
JP2018097280A (ja) * | 2016-12-16 | 2018-06-21 | カシオ計算機株式会社 | 表示装置、表示方法及びプログラム |
-
2003
- 2003-01-08 JP JP2003001979A patent/JP2004213521A/ja not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013047978A (ja) * | 2005-02-08 | 2013-03-07 | Oblong Industries Inc | ジェスチャベースの制御システムのためのシステムおよび方法 |
JP4796131B2 (ja) * | 2005-04-18 | 2011-10-19 | ソニー エリクソン モバイル コミュニケーションズ, エービー | 筆記による及び/又は可聴音によるユーザ指示に応える、電子デバイス内のデータ管理のための、方法、電子デバイス、及びコンピュータ読み取り可能な記録媒体 |
JP2007317159A (ja) * | 2006-05-26 | 2007-12-06 | Uniwill Computer Corp | 電子装置の入力装置およびその入力方法 |
JP2008186120A (ja) * | 2007-01-29 | 2008-08-14 | Seiko Epson Corp | ユーザの指示に従って処理を実行するための処理装置、処理方法、および、プログラム |
JP2009053834A (ja) * | 2007-08-24 | 2009-03-12 | Sharp Corp | 情報表示装置 |
JP2012502364A (ja) * | 2008-09-03 | 2012-01-26 | オブロング・インダストリーズ・インコーポレーテッド | データ空間の主要次元をナビゲートするための制御システム |
JP2010157078A (ja) * | 2008-12-26 | 2010-07-15 | Canon Inc | 情報処理装置及び軌跡データ認識方法 |
US8644612B2 (en) | 2008-12-26 | 2014-02-04 | Canon Kabushiki Kaisha | Information processing apparatus and locus data recognition method |
JP2015084215A (ja) * | 2013-09-17 | 2015-04-30 | ブラザー工業株式会社 | 紙媒体及び入力装置 |
JP2015165346A (ja) * | 2014-02-28 | 2015-09-17 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
WO2017208931A1 (ja) * | 2016-05-31 | 2017-12-07 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置 |
JPWO2017208931A1 (ja) * | 2016-05-31 | 2019-03-28 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置 |
JP2018097280A (ja) * | 2016-12-16 | 2018-06-21 | カシオ計算機株式会社 | 表示装置、表示方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4637455B2 (ja) | ユーザインタフェースの利用方法並びにコンピュータで使用可能な媒体を含む製品 | |
US5220649A (en) | Script/binary-encoded-character processing method and system with moving space insertion mode | |
US5481278A (en) | Information processing apparatus | |
US6442578B1 (en) | Script character processing method for compression encoding and smoothing of ink strokes | |
US5231698A (en) | Script/binary-encoded-character processing method and system | |
US7929770B2 (en) | Handwriting processing apparatus and method | |
TWI291114B (en) | Overlaying electronic ink | |
Saund et al. | Perceptually-supported image editing of text and graphics | |
US7093202B2 (en) | Method and system for interpreting imprecise object selection paths | |
JP2003298837A (ja) | 電子画像を作成し操作するための図形入力及び表示システム、表示装置に入力されたソース電子画像を意味のある画像オブジェクトに編成するための方法、及びコンピュータ読取り可能プログラムコードが組み込まれたコンピュータ使用可能媒体を含む製品 | |
JP2004252843A (ja) | 画像処理方法 | |
JP2004213521A (ja) | ペン入力情報処理方法 | |
KR101679744B1 (ko) | 단말기에서 데이터 처리 방법 및 그를 수행하는 장치 | |
CN114365075B (zh) | 用于选择图形对象的方法和对应装置 | |
US6730862B1 (en) | Erase feature in pen-based computing | |
JPH1020995A (ja) | 手書き文字認識装置及び方法 | |
US5751849A (en) | Method and apparatus for processing a document | |
US20040095589A1 (en) | Image processing method | |
JP2005275652A (ja) | 入力軌跡処理装置および入力軌跡処理方法 | |
CN112805664A (zh) | 输入装置、输入方法、程序和输入系统 | |
JP2007213416A (ja) | 手書き文字列検索装置、手書き文字列検索方法及びプログラム | |
JP2001034260A (ja) | 電子ノート | |
JP2007072691A (ja) | 手書き文字認識装置及び手書き文字認識方法 | |
JP3153704B2 (ja) | 文字認識装置 | |
JP2016197362A (ja) | 範囲指定プログラム、範囲指定方法および範囲指定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060201 |
|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060404 |