JP3857328B2 - ディスプレイ編集システム - Google Patents

ディスプレイ編集システム Download PDF

Info

Publication number
JP3857328B2
JP3857328B2 JP17527994A JP17527994A JP3857328B2 JP 3857328 B2 JP3857328 B2 JP 3857328B2 JP 17527994 A JP17527994 A JP 17527994A JP 17527994 A JP17527994 A JP 17527994A JP 3857328 B2 JP3857328 B2 JP 3857328B2
Authority
JP
Japan
Prior art keywords
gesture
image
objects
selection
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP17527994A
Other languages
English (en)
Other versions
JPH0764756A (ja
Inventor
サウンド エリック
パトリック モラン トマス
デイヴィス ベッカー クレイグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JPH0764756A publication Critical patent/JPH0764756A/ja
Application granted granted Critical
Publication of JP3857328B2 publication Critical patent/JP3857328B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、ユーザが、画像、特にテキスト、グラフィック図形、及び手描き図面を編集するのを可能とするコンピュータプログラムに関する。一般に、編集される画像はコンピュータスクリーン又は他の画像形成デバイス上でユーザへディスプレイされ、且つユーザは、キーボードでストロークをタイプしたり及び/又はマウス又はスタイラスのような一つ又はそれより多くのポインティングデバイスを用いてジェスチュアをしたり又はボタンを押したりすることによって動作を実行する。
【0002】
【従来の技術】
最も重要なユーザ動作の中には、ユーザが、オブジェクト移動、オブジェクト消去、及びオブジェクトサイズの変更その他のさらなる動作が引き続いて用いられる画像内の一つのオブジェクト又は複数のオブジェクトを選択するのを可能とする動作がある。選択可能なオブジェクト(単数又は複数)は以下の単一文字、単一単語、テキストのページの画像内で見られるような英数字の行又は段落、グラフィックシンボル、矢印、及びグラフィック図面で見られる線、円、及び矩形を含む幾何学形状、並びに隣接した孤立ストローク、複数のかど(コーナ)によって境界付けされたストローク断片、及び手描きのスケッチに見られるような結合によって境界付けられたストローク断片など、のあらゆる組合せを含んでいてもよい。画像内のいづれの可視項目が選択可能な画像オブジェクトとして利用可能とされてもよいかを決定する問題が米国特許出願番号08/101,646号の同時係属出願の主題である。この場合、グラフィック編集アプリケーションプログラムは、画像編集セッションの工程中、一組の選択可能画像オブジェクトを維持する。本発明はユーザが常に一つ又はそれより多くのこれらのオブジェクトを出来るだけ合理的にさらに処理するのを可能とすることに関する。
【0003】
あらゆるユーザ対話型画像編集ツールが直面する重要な問題は、画像中のどの一つのオブジェクト又は複数のオブジェクトが所与のセットのキーストローク及び/又はスタイラスジェスチュアコマンドによって示されるようにユーザによって意図されるかの決定である。キーストロークはシンボリックラベル又は同一性を明瞭に指定することが可能であるが、これらはディスプレイされた画像内に含まれる固有に空間的な情報に対してぎこちなく且つ不自然なインタフェースである。これに対して、ポインティングデバイスによって行われるジェスチュアは、空間的な情報を画像形成面上の位置の形状において指定するためには好適であるが、いくつかのオブジェクトが画像の同じ領域を占める時にユーザが選択しようとする(単数又は複数の)オブジェクトの不明瞭な特定が行われてしまう可能性がある。例えば、スタイラスベースの選択は以下の手段によってのみ実行されることができる。
(1)画像内の単一ポイントにおいてユーザにスタイラスをタッチさせるか又はマウスボタンを押させた後、プログラムが当該オブジェクトの位置パラメータがそのポイントの位置又はその近隣にある一つのオブジェクト又は複数のオブジェクトを選択することと、(2)画像内のポイントにおいてユーザにスタイラスをタッチさせるか又はマウスボタンを押させた後で、プログラムは空間的な拡がりが指定された位置へ最も近くにアプローチするオブジェクト(単数又は複数)を選択することと、(3)ユーザに閉鎖した又はほぼ閉鎖した曲線を描写させた後で、閉鎖した曲線によって、充分に取り囲まれた全てのオブジェクトか、又はその位置パラメータが取り囲まれた全てのオブジェクトのいづれかを選択する。
【0004】
最初の二つの方法は、非常に重要な位置において、即ちそれらの中からユーザが選択したいとするオブジェクトのセットが画像内のマークのレベルにおいてオーバーラップサポート(支援)を共用する時、オブジェクトのユーザ選択のサポートに失敗する。ここで、ユーザは垂直なラインだけ、水平なラインだけ、又は全体のコーナの形状を選択したいとするかもしれない。これらのラインの内の一つの上の単一点を指定することはそれらに代わるものと識別するために充分な情報を提供しない。さらに、(意図されたオブジェクトを取り囲む)第3の方法は追加のオブジェクトが所望オブジェクトを取り囲む領域内に見つけられた時は受容不可能となる。
【0005】
【発明が解決しようとする課題】
【0006】
本発明の目的は、ユーザが選択しようとする画像内のオブジェクト(複数又は単数)を識別するためにユーザの単純且つ自然なジェスチュアを変換する方法及び装置を提供することにある。
【0007】
【課題を解決するための手段】
本発明によれば、上記の目的はコンピュータビジョンのフィールドからのコンセプト(概念)とユーザインタフェース設計テクノロジーとの新規の組合せによって達成される。
【0008】
本発明の一つの態様によれば、二つのキーコンセプトを共に結合する。第1に、画像内のオブジェクトの大体の位置、サイズ、及び形状がオブジェクト毎に演算されるパラメトリックな「ポーズ」を表わす第1の特性記述子によって要約される。次いで、第2の特性記述子即ち「ジェスチュア整合」機能がユーザ選択ジェスチュアと最良に適合する単一のオブジェクト又は複数のオブジェクトのセットを選択するために提供される。最も密接に整合した時、これらのキー特性記述子は、共に空間的にオーバーラップするかもしれない大きなセットのグラフィックオブジェクトの間で識別するために単純で且つ自然なユーザジェスチュアを許容する。ユーザジェスチュアはオブジェクトを介した単純なスラッシュであってもよいし、又はオブジェクトの形状の迅速で大まかな近似であってもよい。
【0009】
オブジェクトの部分を選択するための本発明のさらなる態様によれば、交差、結合、又は鋭コーナのない基本曲線又は線セグメントが経路を定義するために端末間でほぼ結合される。これらの経路は最も密接に選択ジェスチュア曲線を近似する経路の選択を可能にするため、それらと選択ジェスチュア曲線の類似性を推定するために評価される。
【0010】
本発明は、編集のために複数の画像オブジェクトから少なくとも一つの画像オブジェクトを選択するためのディスプレイ編集システムであって、ディスプレイ面上へ複数の画像オブジェクトを入力するための第1の手段と、各入力されたオブジェクトに応答して前記オブジェクトを表わす第1の特性記述子を作成し且つ記憶するための第2の手段と、前記オブジェクトの内の少なくとも一つを選択するために選択ジェスチュアを入力するための第3の手段と、前記選択ジェスチュアに応答して前記選択ジェスチュアを表わす第2の特性記述子を作成し且つ記憶するための第4の手段と、前記第2の特性記述子と最も密接に対応する前記第1の特性記述子の内の少なくとも一つを選択するための第5の手段と、を備え、これによって少なくとも一つの画像オブジェクトを選択することよりなるディスプレイ編集システムである。
【0011】
【実施例】
【0012】
本発明の主題であるディスプレイ編集システムの一つの実施例が図1に一般的に示されており、入力/ディスプレイコンポーネント10がデータ入力デバイス12と共に図示されている。入力/ディスプレイコンポーネントは入力デバイスと組み合わされた組合せディスプレイデバイスである。従って入力デバイス12によて入力される入力データは入力された時にディスプレイ上に示される。入力デバイス12はあらゆる形態のスタイラス、マウス、若しくは適切な近接によって感知されるオペレータの手、或いは他の形態のセンシング(感知)デバイスのようなポインタ又はポインティングデバイスである。走査されたハードコピーのような他の形態の入力も使用可能である。従って、入力デバイス12によってスクリーン10へ入力され且つそのスクリーン上にディスプレイされたデータはディジタイザ14によって入力され、このディジタイザ14はまた、データが入力される時にリアルタイムで画像をスクリーン上に形成するためにディスプレイドライバ16を駆動する。ディジタイザ14によってディジタル化されたデータはCPU18へ送られて、プログラムメモリ20内に記憶されたプログラムの制御下で処理されて、その結果がデータメモリ22内に記憶される。ディスプレイスクリーン10は、入力デバイス12を介して、メニュー選択24によって所望される編集又はドラフティング(ドラフト)ファンクション(機能)を実行するために用いられることができ、且つメニュー選択24はエリア24に沿ってディスプレイスクリーン10上に直接ディスプレイされる。
【0013】
上記のディジタイザ入力及びディスプレイ技術は、画像オブジェクトの入力及びディスプレイのための複数のデバイスのいづれかを表わしており、その例は従来の技術において容易に理解される。
【0014】
図8は、画像オブジェクトを選択するために本発明によって用いられる手順、即ち所与のユーザ入力選択ジェスチュアによって最も良好に示される画像内の一つのオブジェクト又は複数のオブジェクトの選択、を一般に示している。これを達成するため、図8に示されている全体的なジェスチュア(身振り)整合ファンクションは、1グループの独立したサブファンクション(副機能)の出力の中から選択する。各サブファンクションはユーザ選択ジェスチュアの特徴的なスタイル又はフォーマットを提供する。例えば、あるサブファンクションは一組のオブジェクトの選択をオブジェクトを、それらを取り囲むことによって提供してもよいが、他のサブファンクションはオブジェクトを介してスラッシュを描くことによってユーザに単一オブジェクトを選択させてもよい。
【0015】
各サブファンクションは整合基準のそれ自体のセットの下でオブジェクトジェスチュア整合を実行し、且つそのサブファンクションは二つの項目を計算する。第1の項目は、そのサブファンクションの基準下で、選択ジェスチュアと最も好ましく整合する単一オブジェクトか又は複数オブジェクトのセットである。第2の項目は、ユーザによって意図されるジェスチュア選択フォーマットとしてこのサブファンクションの「信頼率」又は「確度」を推定するサブファンクション信頼スコアである。この全体的なジェスチュア整合ファンクションはサブファンクション信頼スコアをジェスチュア整合サブファンクションと比較し、且つ(スコアが閾値より上にある場合)最高スコアのサブファンクションによって選択されたオブジェクトをリターンする。図8に示されているように、ユーザ選択ジェスチュア96とプリコンパイルされた又は現在構築された選択可能グラフィカルオブジェクト98は一連の選択サブファンクション動作102を介してそれぞれ処理される。各選択サブファンクションの出力は、選択されたオブジェクト104、及びこれらのオブジェクトの各々を表わすそれぞれの信頼スコア106である。以下に詳細に記述されている2ステップ処理において、オブジェクトスコアのシリーズは次いで、最終分析108においてジェスチュアに対するオブジェクトの最良整合を生成するためにゲートされる。
【0016】
この全体的なジェスチュア整合ファンクションのアーキテクチュアは、本発明がオブジェクト選択技術の拡張可能なセットを組み込むのを可能にする。ユーザは選択ジェスチュアを単純に実行し且つシステムはサブファンクション信頼スコアを利用可能なオブジェクト選択サブファンクションと比較することによってユーザの意図を推論する。サブファンクション信頼スコアが有意義な方法でサブファンクションと比較されるようにするため、これらのスコアは設計上、共通の標準まで較正されなければならない。好ましい標準下においては、各スコアは0と1の間の範囲内にあり、0はサブファンクションがリターンするオブジェクトがユーザの意図に対応していることに信頼性が全くないことを示すが、1は絶対的な確実性を示す。例えば、「取り囲み(encircling)」ジェスチュアに対する信頼スコアの極めて単純な測度は、1−(曲線のエンドポイント間の距離と曲線の長さの重み付けされた比率)として表現されてもよい。
【0017】
上記のアーキテクチュア内で選択されたオブジェクト104を生成するために選択サブファンクション102として使用されることができる二つの選択サブファンクションが本明細書中に開示されている。しかしながら、本発明がこれら二つの実施例に限定されないことは明白である。第1に、「ポーズ整合(pose-matching )」ルーチンは、ユーザ選択ジェスチュアの位置、配向、サイズ、及び形状に最も類似している(わずかに異なる)単一オブジェクトの選択を生じる。このルーチンは、多くの他の偽オブジェクトへ接近又はオーバーラップする近接において見つけられたオブジェクトを選抜するために特に有用である。第2に、「パス(経路)整合」ルーチンは、選択ジェスチュアの経路に最良に対応する画像内の一組のオブジェクトを選択し且つ計算する。このルーチンは曲線形経路に沿って存在するいくつかのオブジェクトを迅速に選択するのに特に有用である。他の技術が代わりに使用されてもよいことは当然のことながら明白である。
【0018】
ポーズ整合選択
図2の(a)乃至(e)の各々は本発明の一つの態様を示しており、ここで図2の(a)は線描画グラフィック画像又は構造グラフィック画像の手描きの実施例である。図2の(b)乃至(e)は、ユーザが画像から選択したいとするであろう、実線で示されたオブジェクトをそれぞれ示している。
【0019】
図3に関しては、ディスプレイスクリーン上で描写された複数のオーバーラップする画像オブジェクトが示されている。従来の空間的位置によるオブジェクトの選択は、この図における矩形、円形、及び三角形のように、複数のオブジェクトが画像形成面のほぼ同一の位置内に置かれた時、失敗する。
【0020】
図4の(a)及び(b)に関しては、オブジェクト上のポイントを指し示すことによる選択はオブジェクトがサポートを共用する時、失敗する。従って、図4の(a)においては、三つの選択可能なオブジェクトが二つのラインセグメントから構築される。水平セグメントの従来の選択は、水平セグメントのみの選択を”L”の選択から区別しない。図4の(b)においては、従来の「取り囲み」ジェスチュアは、偽オブジェクトがターゲット選択されたオブジェクトによって囲繞された領域内にある時、失敗する。
【0021】
図5の(a)乃至(f)に関しては、複数のオーバーラップする画像オブジェクトの内の一つの選択はジェスチュアをオブジェクトへ適切に結合することによって行われる。従って、図5の(a)においては、ジェスチュア30によって選択されるオブジェクトは矩形オブジェクト32である。図5の(b)においては、囲みジェスチュア34は円形オブジェクト36を選択する。図5の(c)においては、ラインジェスチュア38は三角形オブジェクト40を選択する。図5の(d)においては、ジェスチュア41は短いラインセグメント42を選択する。図5の(e)においては、ジェスチュア44はボックス48を通過する長いラインセグメント46を選択する。図5の(f)においては、囲みジェスチュア50はボックス52を選択する。図5の(c)においては、ジェスチュア38は、選択されたオブジェクトと密接に類似している必要はなく、ターゲットオブジェクトの位置、配向、及びサイズの簡単な提示であるにすぎないことに注意されたい。同様に、水平のジェスチュアは図5の(a)において矩形を選択するために使用されることができる。
【0022】
図6に関しては、一般的なグラフィックオブジェクトに対して、及びポインティングデバイスによって行われる選択ジェスチュアの形状に対して、ポーズの有効なパラメトリック記述即ちオブジェクト又はジェスチュア60のおおよその位置、配向、サイズ、及び形状が、以下の5個のパラメータ、即ち横座標上のx位置(x)62、縦座標上のy位置(y)64、配向(角度)(e)66、長さ68及び/又は幅69のようなスケールファクタ、並びに(固定されたグローバル座標システムに相対する)オブジェクトと対応する配向された境界ボックス70のアスペクト(縦横)比(r)パラメータからなる。
【0023】
x−y位置はオブジェクトの「オン」状態の画素の重心として計算されてもよい。配向パラメータは重心を通る慣性(イナーシャ)の主軸の向きとして得られてもよい。スケールパラメータはオブジェクトの長さのロガリズム(対数)の線形関数として計算されてもよい(慣性の主軸に沿った線形の拡がり)。アクペクト比は、固定された最小値、及びオブジェクトの幅(慣性の主軸に垂直な軸に沿った線形の拡がり)と長さの比率の最大値として得られてもよい。ポーズ記述ベクトルは拡張可能であり且つより多くの識別情報を提供するために上記にネーミングされた5個より多くのパラメータが吹き込まれてもよい。図7に示されているように、データ入力80は、オブジェクト又はジェスチュアを表わす特性記述であるポーズ記述ベクトル92を定義するため、x−y位置82、配向84、アスペクト比88、及びあらゆる追加パラメータ90を導出するために用いられる。例えば、追加のパラメータはより高位の幾何学モーメント、角度の閉止(状態)、及び外形(輪郭)テクスチュア計測を含むことができる。このポーズ記述ベクトルは位置94内に記憶される第1の特性記述子を画像オブジェクト毎に定義する。このベクトルはまた、ユーザ選択ジェスチュア毎に、位置96内に記憶される第2の特性記述子を定義する。比較及び分析機能98は、ユーザ選択ジェスチュアに最良に整合するオブジェクトを決定するための信頼レベルを決定するため、定義されたグラフィカルオブジェクトとユーザ選択ジェスチュアの間で実行される。得られる選択されたオブジェクト100が次いで定義される。信頼レベルと選択処理は図8に関してより詳細に記述されている。
【0024】
2.1 ポーズ整合ルーチン
二つのポーズの類似性及び/又は違いを評価するためのポーズ整合ルーチン(図9)は、位置、配向、スケール、及びアスペクト比のパラメータの相関重要度を高度な非線形方法で共に考慮に入れなければならない。単純なユークリッド距離計測は不適切である。例えば、ポーズの配向パラメータにおける違いは、両オブジェクトのアスペクト比が相対的に高い(0に近い)時は有効であるが、いづれかのオブジェクトが低アクペスト比(1に近い)を表示する時は非有効となる。本発明の実施の目的のため、以下の論理式は二つのポーズの間のポーズ違いDを表す式である。
【0025】
【数1】
Figure 0003857328
【0026】
定数パラメータには以下の値、
ρ1 =0.75;ρ2 =0.2;ρ3 =0.693
が割り当てられる。
【0027】
違いの式は、上記の同時係属出願、米国特許出願番号08/101,646号に記述されている空間的に及びスケールインデックス付けされたデータストラクチュアを用いて空間的位置に基づいて候補オブジェクトを前もって遮蔽すること(プリスクリーニング)によってポーズ整合ルーチン内に組み込まれる。選択ジェスチュアとこれらの前もって選択されたオブジェクトの各々のポーズ違いが順に演算され、且つ最も類似しているオブジェクトがリターンされる。上記のポーズ整合距離Dは0(完全整合)乃至1(非整合)の範囲内にあるので、サブファンクション信頼スコアは単純に1−Dとして計算されてもよい。
【0028】
図9に記述されている全体的な整合動作は、ブロック120において、システムへ適用される入力ジェスチュアを最初に示している。次いで、ブロック122において、システムは、入力ジェスチュアに対するポーズパラメータを作成する。次いで、ブロック124において、データストラクチュア内に記憶されたオブジェクトの集合から、ブロック126において、候補オブジェクトは入力ジェスチュアへの近似に基づいて候補オブジェクトが選択される。次いで、ブロック128において、システムは候補オブジェクトに対するポーズパラメータのためのルックアップを行う。次いで、ブロック130において、システムは入力ジェスチュアに対するポーズパラメータのセットを候補オブジェクトのそれらと比較し、且つ最も類似したオブジェクトを選択する。
【0029】
経路整合選択
図9に示されているような経路整合動作を実行するため、本発明は、選択ジェスチュア曲線の経路を最も良く説明している画像オブジェクトのセットを集める経路整合選択サブファンクションを提供する。このサブファンクションは、まず、経路が端末間でほぼ連結されるプリミティブ(基本要素)曲線セグメント(交違い、結合、又は鋭コーナを含まない曲線セグメント)のシーケンスとなるように経路を定義する。次いで、このサブファンクションは、経路と選択ジェスチュア曲線の類似性を推定する経路品質計測を定義する。より詳細には、あらゆる経路に対する経路品質計測があるルーチンにおける一組のステップによって以下のように計算される。
【0030】
1. 経路シーケンスの始まりであると考えられる曲線セグメントから開始せよ。これを「左端(leftmost)」セグメントと称せよ。このセグメントの「左端」エンドを図10に示されているように選択ジェスチュア曲線へ投影せよ。
【0031】
1a. 可変の現在セグメントが左端セグメントとなるように初期化せよ。
【0032】
1b. 可変の最終投影比率を投影ポイントの左に対する選択ジェスチュア曲線の比率となるように初期化せよ。
【0033】
1c. 可変の最良可能スコアsb を投影ポイントの右に対する選択ジェスチュア曲線の比率となるように初期化せよ。
【0034】
1d. 可変の実際スコアsa をゼロ(0)へ初期化せよ。
【0035】
2. 以下のように、現在セグメントに対する適合品質係数、fqと呼ばれる変数を計算せよ。
【0036】
【数2】
Figure 0003857328
【0037】
ここで、p4 は0.5の値が満足すべき調整可能なパラメータであり、dm は現在セグメント上の点と選択ジェスチュア曲線の間の最大距離であり、且つ1は現在セグメントの長さ(レングス)である。
【0038】
3. 可変の次投影比率、pn が、選択ジェスチュア曲線への曲線セグメントの「右」端の投影の左に対する選択ジェスチュア曲線の比率となるようにセットせよ。
【0039】
4. このセグメント選択曲線アレイ・フラクション(少数部)と呼ばれる変数fr を、次投影比率と最終投影比率の違いとなるようにセットせよ。
【0040】
5. このセグメント投影レングスと呼ばれる変数、p1 を現在セグメントの左右の端の投影の間の選択ジェスチュア曲線に沿った曲線距離となるようにセットせよ。
【0041】
6. 超過セグメント・レングス・コストと呼ばれる変数、celを、以下の値、
【0042】
【数3】
Figure 0003857328
【0043】
へセットせよ。
【0044】
ここで、p5 は値0.25が満足すべき調整可能パラメータである。
【0045】
7. 可変の実際のスコア、
【0046】
【数4】
Figure 0003857328
【0047】
を更新せよ。
【0048】
8. 可変の最良可能スコア、
【0049】
【数5】
Figure 0003857328
【0050】
を更新せよ。
【0051】
9. 左端セグメントを経路シーケンス内の次のセグメントとなるようにセットし、次いでステップ2へ進め。
【0052】
アルゴリズムの本体に関しては、それらの実際のスコアsa とそれらの最良可能スコアsb と共に経路のリストを含む経路リストと呼ばれるデータストラクチュアを保持せよ。
【0053】
1. 選択ジェスチュア経路の「左端」エンドポイントの閾値距離内にあるエンドポイントを所有する曲線セグメントのセットによって経路リストを初期化せよ。
【0054】
2. 可変の現在実際スコアsa を経路リスト内の経路にわたる最大実際スコアsa となるように初期化せよ。
【0055】
3. 可変の現在最良可能スコアsb を経路リスト内の経路に対する最大最良可能スコアsb となるように初期化せよ。
【0056】
4. 最大の最良可能スコアを有する経路リスト内の経路となるように可変最良可能経路をセットせよ。
【0057】
5. 最良可能経路上で拡張動作を実行せよ。これはエンドポイントの内の一つが経路内の右端セグメントの最右端の閾値距離内にある全ての曲線セグメントを有する経路を拡張することからなる。この演算の結果は、このような拡張セグメント毎に一つ見つけられる新しい経路のリストである。この結果を現在拡張経路リストと称せよ。
【0058】
6. 経路リスト内の各経路を現在拡張経路リスト内の各経路と比較し、且つ右端曲線セグメントが曲線セグメントを殆ど含まないあらゆる他の経路の右端曲線セグメントと同じである、あらゆる経路を取り去れ。
【0059】
7. 経路リストと拡張経路リストの合併集合(ユニオン)となるように可変の経路リストを更新せよ。
【0060】
8. 経路リスト内の各経路を検査せよ。可変現在実際スコアsa が中でも最良の実際のスコアとなるように更新し、且つ可変の最良実際経路が対応経路となるようにセットせよ。
【0061】
9. 最良可能スコアsb が現在実際のスコアsa より下のあらゆる経路を、経路リストから除去せよ。
【0062】
10. すでに拡張され且つその実際スコアsa が現在の実際のスコアsa より下のあらゆる経路を、経路リストから除去せよ。
【0063】
11. 唯一の経路が残った場合、それを最良適合経路として出力し且つその実際のスコアsa を信頼値として出力せよ。一つより多くの経路が残った場合、ステップ5へ進め。
【0064】
本明細書中に開示されている本発明の実施例のいくつかの変更又は訂正は当技術における当業者に容易に理解されよう。さらに、本発明がディジタイザシステムにおける座標決定以外に使用され得ることも当業者に容易に理解されよう。
【0065】
【発明の効果】
本発明は、ユーザが選択しようとする画像内のオブジェクト(複数又は単数)を識別するためにユーザの単純且つ自然なジェスチュアを変換する方法及び装置を提供する。
【図面の簡単な説明】
【図1】本発明によるディスプレイ編集システムを示す図である。
【図2】(a)複数の入力された画像オブジェクトを示す図である。
(b)複数の入力された画像オブジェクトを示す図である。
(c)複数の入力された画像オブジェクトを示す図である。
(d)複数の入力された画像オブジェクトを示す図である。
(e)複数の入力された画像オブジェクトを示す図である。
【図3】複数のオーバーラップする画像オブジェクトを示す図である。
【図4】(a)は複数の選択可能オブジェクトを示す図である。
(b)は複数の選択可能オブジェクトを示す図である。
【図5】(a)ジェスチュアとオブジェクトの関係を示す図である。
(b)ジェスチュアとオブジェクトの関係を示す図である。
(c)ジェスチュアとオブジェクトの関係を示す図である。
(d)ジェスチュアとオブジェクトの関係を示す図である。
(e)ジェスチュアとオブジェクトの関係を示す図である。
(f)ジェスチュアとオブジェクトの関係を示す図である。
【図6】画像オブジェクトを分析するときに使用されるファクタを示す図である。
【図7】ジェスチュア上のオブジェクトのポーズ記述ベクトルを示すフローチャートである。
【図8】選択機能を概略的に示す図である。
【図9】選択ルーチンの全体的なフローチャートを示す図である。
【図10】本発明による選択の様相を示す図である。
【符号の説明】
10 ディスプレイスクリーン
12 データ入力デバイス
14 ディジタイザ
18 CPU
20 プログラムメモリ
22 データメモリ
24 エリア

Claims (2)

  1. 編集のために複数の画像オブジェクトから少なくとも一つの画像オブジェクトを選択するためのディスプレイ編集システムであって、
    ディスプレイ面上へ複数の画像オブジェクトを入力するための第1の手段と、
    各入力された画像オブジェクトに応答して前記画像オブジェクトを表わす第1の特性記述子を作成し且つ記憶するための第2の手段と、
    複数の画像オブジェクトの内の少なくとも一つを選択するために選択ジェスチュアを入力するための第3の手段と、
    前記選択ジェスチュアに応答して前記選択ジェスチュアを表わす第2の特性記述子を作成し且つ記憶するための第4の手段と、
    前記第2の特性記述子と最も密接に対応する、第1の特性記述子の内の一つを選択するための第5の手段と、
    を備え、
    前記第1の特性記述子は、画像オブジェクトのポーズを表すパラメータによって、画像オブジェクトを表し、
    前記第2の特性記述子は、選択ジェスチュアのポーズを表すパラメータによって、選択ジェスチュアを表し、
    画像オブジェクトのポーズを表すパラメータは、画像オブジェクトのディスプレイ面上の位置、サイズ、形状を表し、選択ジェスチュアのポーズを表すパラメータは、選択ジェスチュアのディスプレイ面上の位置、サイズ、形状を表し、
    前記第2の特性記述子と最も密接に対応する第1の特性記述子の内の一つは、画像オブジェクトのポーズを表すパラメータと選択ジェスチュアのポーズを表すパラメータとの違いを計算し該違いに基づき、選択され、
    これによって少なくとも一つの画像オブジェクトを選択することよりなるディスプレイ編集システム。
  2. 画像オブジェクトのポーズを表すパラメータは、画像オブジェクトのディスプレイ面上の配向を更に表し、選択ジェスチュアのポーズを表すパラメータは、選択ジェスチュアのディスプレイ面上の配向を更に表すことを特徴とする、請求項1に記載のディスプレイ編集システム。
JP17527994A 1993-08-04 1994-07-27 ディスプレイ編集システム Expired - Lifetime JP3857328B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US101645 1993-08-04
US08/101,645 US5485565A (en) 1993-08-04 1993-08-04 Gestural indicators for selecting graphic objects

Publications (2)

Publication Number Publication Date
JPH0764756A JPH0764756A (ja) 1995-03-10
JP3857328B2 true JP3857328B2 (ja) 2006-12-13

Family

ID=22285711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17527994A Expired - Lifetime JP3857328B2 (ja) 1993-08-04 1994-07-27 ディスプレイ編集システム

Country Status (4)

Country Link
US (1) US5485565A (ja)
EP (1) EP0637795B1 (ja)
JP (1) JP3857328B2 (ja)
DE (1) DE69427004T2 (ja)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
JPH07160827A (ja) * 1993-12-09 1995-06-23 Matsushita Electric Ind Co Ltd 手書きストローク編集装置及び方法
JP3483333B2 (ja) * 1995-02-23 2004-01-06 キヤノン株式会社 図形処理方法及び装置
US5784061A (en) * 1996-06-26 1998-07-21 Xerox Corporation Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system
SE9803257D0 (sv) 1998-09-25 1998-09-25 Camp Scandinavia Ab Knäortos med sagittal justering
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7391422B1 (en) 1999-12-22 2008-06-24 Adobe Systems Incorporated Method and apparatus for painting groups of objects
US7251775B1 (en) * 2000-06-30 2007-07-31 Nokia Corporation System and method for visual history presentation and management
US6970828B2 (en) * 2000-12-19 2005-11-29 Xerox Corporation Method for mixed human and computer-supported distributed scheduling
JP2003162370A (ja) * 2001-09-14 2003-06-06 Ricoh Co Ltd 画像処理装置、タッチパネル付きディスプレイ装置、画像処理方法、および画像処理方法をコンピュータに実行させるプログラム
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7086013B2 (en) 2002-03-22 2006-08-01 Xerox Corporation Method and system for overloading loop selection commands in a system for selecting and arranging visible material in document images
US7093202B2 (en) 2002-03-22 2006-08-15 Xerox Corporation Method and system for interpreting imprecise object selection paths
US7299424B2 (en) * 2002-05-14 2007-11-20 Microsoft Corporation Lasso select
US7137077B2 (en) * 2002-07-30 2006-11-14 Microsoft Corporation Freeform encounter selection tool
US7065718B2 (en) * 2002-08-08 2006-06-20 International Business Machines Corporation System and method for configuring time related settings using a graphical interface
US7089507B2 (en) * 2002-08-12 2006-08-08 International Business Machines Corporation System and method for display views using a single stroke control
US7505048B2 (en) * 2003-04-25 2009-03-17 Microsoft Corporation Estimation of overlap of polygons
US20060242607A1 (en) * 2003-06-13 2006-10-26 University Of Lancaster User interface
DE10344238A1 (de) * 2003-09-24 2005-04-28 Oce Printing Systems Gmbh Verfahren und Einrichtung zur Korrektur der Papierschrumpfung bei der Generierung einer Bitmap
US7496385B2 (en) * 2003-12-29 2009-02-24 International Business Machines Corporation Method for viewing information underlying lists and other contexts
US7631276B2 (en) 2003-12-29 2009-12-08 International Business Machines Corporation Method for indication and navigating related items
US7895537B2 (en) * 2003-12-29 2011-02-22 International Business Machines Corporation Method and apparatus for setting attributes and initiating actions through gestures
US7707039B2 (en) * 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
JP4213052B2 (ja) * 2004-01-28 2009-01-21 任天堂株式会社 タッチパネル入力を用いたゲームシステム
US20060122983A1 (en) * 2004-12-03 2006-06-08 King Martin T Locating electronic instances of documents based on rendered instances, document fragment digest generation, and digest based document fragment determination
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US20060053097A1 (en) * 2004-04-01 2006-03-09 King Martin T Searching and accessing documents on private networks for use with captures from rendered documents
US20060041484A1 (en) * 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US20060041605A1 (en) * 2004-04-01 2006-02-23 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US7812860B2 (en) * 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
JP4159491B2 (ja) * 2004-02-23 2008-10-01 任天堂株式会社 ゲームプログラムおよびゲーム装置
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US7990556B2 (en) * 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US20060098900A1 (en) * 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9008447B2 (en) * 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) * 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
JP2005346467A (ja) * 2004-06-03 2005-12-15 Nintendo Co Ltd 図形認識プログラム
JP4756876B2 (ja) * 2004-06-09 2011-08-24 キヤノン株式会社 画像表示制御装置、画像表示制御方法、プログラム、及び記憶媒体
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
JP4717489B2 (ja) * 2005-04-07 2011-07-06 任天堂株式会社 ゲームプログラム
US7779362B1 (en) * 2005-09-02 2010-08-17 Adobe Systems Inc. Methods and apparatus for selecting objects by state
US7986298B1 (en) * 2005-12-19 2011-07-26 Adobe Systems Incorporated Identifying changes to an image file
US7982747B1 (en) 2005-12-19 2011-07-19 Adobe Systems Incorporated Displaying generated changes to an image file
KR100698845B1 (ko) * 2005-12-28 2007-03-22 삼성전자주식회사 인물 외형 추출 알고리즘을 이용한 영상 편집 방법 및 그장치
EP2067119A2 (en) * 2006-09-08 2009-06-10 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
EP2067102A2 (en) * 2006-09-15 2009-06-10 Exbiblio B.V. Capture and display of annotations in paper and electronic documents
US8269727B2 (en) * 2007-01-03 2012-09-18 Apple Inc. Irregular input identification
US8014607B2 (en) * 2007-03-23 2011-09-06 Palo Alto Research Center Incorporated Method and apparatus for creating and editing node-link diagrams in pen computing systems
US7907141B2 (en) * 2007-03-23 2011-03-15 Palo Alto Research Center Incorporated Methods and processes for recognition of electronic ink strokes
US20110145068A1 (en) * 2007-09-17 2011-06-16 King Martin T Associating rendered advertisements with digital content
WO2009046272A1 (en) * 2007-10-05 2009-04-09 Kalido, Inc. Gesture based modeling system and method
JP4636141B2 (ja) * 2008-08-28 2011-02-23 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8423916B2 (en) * 2008-11-20 2013-04-16 Canon Kabushiki Kaisha Information processing apparatus, processing method thereof, and computer-readable storage medium
WO2010096193A2 (en) * 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
US8990235B2 (en) * 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US9250788B2 (en) * 2009-03-18 2016-02-02 IdentifyMine, Inc. Gesture handlers of a gesture engine
US9081799B2 (en) * 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) * 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
WO2012147799A1 (ja) * 2011-04-26 2012-11-01 京セラ株式会社 電子機器
US20140317576A1 (en) * 2011-12-06 2014-10-23 Thomson Licensing Method and system for responding to user's selection gesture of object displayed in three dimensions
US9213420B2 (en) 2012-03-20 2015-12-15 A9.Com, Inc. Structured lighting based content interactions
US9304646B2 (en) 2012-03-20 2016-04-05 A9.Com, Inc. Multi-user content interactions
WO2013142625A2 (en) * 2012-03-20 2013-09-26 A9.Com, Inc. Structured lighting-based content interactions in multiple environments
US9373025B2 (en) 2012-03-20 2016-06-21 A9.Com, Inc. Structured lighting-based content interactions in multiple environments
US9367124B2 (en) 2012-03-20 2016-06-14 A9.Com, Inc. Multi-application content interactions
US20140223382A1 (en) * 2013-02-01 2014-08-07 Barnesandnoble.Com Llc Z-shaped gesture for touch sensitive ui undo, delete, and clear functions
WO2014117384A1 (en) * 2013-02-01 2014-08-07 Intel Corporation Techniques for image-based search using touch controls

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5010500A (en) * 1989-01-26 1991-04-23 Xerox Corporation Gesture-modified diagram for retrieval of image resembling diagram, with parts selectable for further interactive retrieval

Also Published As

Publication number Publication date
EP0637795A3 (en) 1996-10-02
EP0637795A2 (en) 1995-02-08
US5485565A (en) 1996-01-16
DE69427004D1 (de) 2001-05-10
JPH0764756A (ja) 1995-03-10
DE69427004T2 (de) 2001-08-02
EP0637795B1 (en) 2001-04-04

Similar Documents

Publication Publication Date Title
JP3857328B2 (ja) ディスプレイ編集システム
US6577330B1 (en) Window display device with a three-dimensional orientation of windows
US6252598B1 (en) Video hand image computer interface
US7312806B2 (en) Dynamic width adjustment for detail-in-context lenses
US6147678A (en) Video hand image-three-dimensional computer interface with multiple degrees of freedom
US8907948B2 (en) Occlusion reduction and magnification for multidimensional data presentations
JP5283088B2 (ja) 画像検索装置および同画像検索装置に適用される画像検索用コンピュータプログラム
US8711183B2 (en) Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US5384909A (en) Precision automatic scrolling for an image display system
JP3392628B2 (ja) 輪郭抽出方法及びシステム
JPH05334383A (ja) 画像図形編集装置
JP3357760B2 (ja) 文字図形入力編集装置
US11430166B1 (en) Facilitating generation of number-bullet objects
JP2906202B2 (ja) 文字図形入力方法
EP0841639A2 (en) Method and apparatus for automatic gap closing in computer aided drawing
US6298155B1 (en) Apparatus and method for generating time-series data, apparatus and method for editing curves and recording medium having program recorded thereon
JPH08194716A (ja) 画像処理方法及びその装置
JP2813722B2 (ja) スケッチによる画像検索方式
JPH1027257A (ja) 情報処理装置
JP3388524B2 (ja) イメージ入力装置
Zhang et al. Visual Screen: Transforming an Ordinary Screen into a Touch Screen.
JP2536948B2 (ja) 3点指定円弧検出方法及び装置
JP3514085B2 (ja) 文字列入力方法及び装置、並びに、文字列入力プログラムを格納した記憶媒体
JPH06333008A (ja) 画像輪郭指定用入力装置
JPH05189139A (ja) コマンド入力方法および情報処理装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20050425

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20050502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060914

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110922

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120922

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120922

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130922

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term