JP2019516170A - インクコマンドによる視覚的ユーザインタフェースコントロールの操作 - Google Patents

インクコマンドによる視覚的ユーザインタフェースコントロールの操作 Download PDF

Info

Publication number
JP2019516170A
JP2019516170A JP2018550357A JP2018550357A JP2019516170A JP 2019516170 A JP2019516170 A JP 2019516170A JP 2018550357 A JP2018550357 A JP 2018550357A JP 2018550357 A JP2018550357 A JP 2018550357A JP 2019516170 A JP2019516170 A JP 2019516170A
Authority
JP
Japan
Prior art keywords
ink
control
container
item
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018550357A
Other languages
English (en)
Other versions
JP2019516170A5 (ja
Inventor
ウォーカー デュホン,デイヴィッド
ウォーカー デュホン,デイヴィッド
サン,イボ
ツー,シアオ
ジョウ,フランシス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2019516170A publication Critical patent/JP2019516170A/ja
Publication of JP2019516170A5 publication Critical patent/JP2019516170A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Inking, Control Or Cleaning Of Printing Machines (AREA)
  • Digital Computer Display Output (AREA)
  • Pens And Brushes (AREA)
  • Inks, Pencil-Leads, Or Crayons (AREA)

Abstract

ユーザがインクコマンドを用いて視覚的ユーザインタフェースコマンドを操作することを可能にする設備を説明する。この設備は、マウス入力で操作可能なコントロールを表示させ、表示されたコントロールに向けられたインクコマンドを受け取る。これに応答して、受け取ったインクコマンドに従って、表示されたコントロールを操作する。例えばラジオボタンの周囲にデジタルインクサークルを実施することにより、ラジオボタンを選択する。

Description

コンピュータの視覚的インタフェース、例えばオペレーティングシステム、アプリケーションプログラム及びウェブページの視覚的インタフェースは、従来的に、マウス及び/又はキーボードを介して受け取られるユーザ入力に作用するように設計されてきた。例えばワードプロセッシング文書では垂直方向にスクロール可能であることが一般的である。このような文書で1ページ下に移動するためには、ユーザはキーボード上のページダウンボタンを押すか又は表示されたスクロールバーのエレベータ部分の下でのマウスクリックすることができる。ページの一部を下に移動させるには、ユーザはキーボードの下矢印ボタンを押すか、マウスを使用してスクロールバーの下矢印部分をクリックすることができる。この例では、スクロールバーは、様々な異なる「視覚的ユーザインタフェースコントロール」の一種であり、本明細書では単に「コントロール」と呼ばれることもある。
この概要は、以下の詳細な説明で更に説明される概念の選択を簡略化した形で紹介するために提供される。 この概要は、特許請求に係る主題の主要な要素又は本質的な特徴を特定するようには意図されておらず、また、特許請求に係る主題の範囲を限定するために使用されるようにも意図されていない。
ユーザがインクコマンドを用いて視覚的ユーザインタフェースコントロールを操作することを可能にする設備(facility)を説明する。この設備は、マウス入力で操作可能なコントロールを表示させ、表示されたコントロールに向けられたインクコマンドを受け取る。それに応答して、設備は、受け取ったインクコマンドに従って、表示されたコントロールを操作する。
設備が作用するコンピュータシステム及び他のデバイスのうちの少なくとも一部に組み込まれ得る、構成要素の一部を示すブロック図である。
一部の例において、インクコマンドで操作されることを可能にする方法でコントロールを管理するために、設備によって実行されるプロセスを示すフロー図である。
サンプルのコマンド記号のインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルのコマンド記号のインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルのスライダーハッシュのインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルのスライダーハッシュのインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルの数値テキストのインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルの数値テキストのインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルの囲み形状のインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルの囲み形状のインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルのアイテム転送インクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルのアイテム転送インクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルのテキストフィルタリングのインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルのテキストフィルタリングのインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルのテキストフィルタリング反転インクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルのテキストフィルタリング反転インクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルのチェック選択コマンドの入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルのチェック選択コマンドの入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルのラインアウト削除コマンドの入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルのラインアウト削除コマンドの入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルのアイテムピッカー(item picker)囲み形状インクコマンド(上記の囲み形状のアイテム選択コマンドと同様)の入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルのアイテムピッカー囲み形状インクコマンド(上記の囲み形状のアイテム選択コマンドと同様)の入力とそれに対する設備の応答を示すディスプレイ図である。
サンプルのアイテムピッカーテキスト日付コマンド(上記の数値テキストのインクコマンドと同様)の入力とそれに対する設備の応答を示すディスプレイ図である。 サンプルのアイテムピッカーテキスト日付コマンド(上記の数値テキストのインクコマンドと同様)の入力とそれに対する設備の応答を示すディスプレイ図である。
コンピュータオペレーティングシステムは、最近では、電子インクのためのサポートを追加している:すなわち、ユーザが手書きをし、描画し又は他の任意の空間的な動きを実行する場合のユーザ入力技術をサポートする。そのようなユーザ入力の結果として、動きの経路に対応する視覚的マークがディスプレイに追加される。例えば手書きの場合、手書きされた単語は、それらがユーザによって実行されたのと同じ手書きスタイルでディスプレイ上に現れる。
場合によっては、ユーザは、ディスプレイデバイスの表面にわたってスタイラス又はユーザ自身の指を動かすことによって、この入力を実行する。そのような場合、電子インクは、一般に、対話が発生した位置でディスプレイ上に現れる。場合によっては、ユーザは、マウス又はタッチパッドのような入力デバイスを使用して、表示された位置ポインタを画面上で動かすことによってインキング入力を実行する。
電子インクが筆跡(handwriting)に対応する場合、様々な筆跡形状認識技術を使用して、筆跡によって表現されるテキストを識別することができ、これを、電子インク筆跡と一緒に又はその代わりにドキュメント内に表示することができる。同様に、電子インクが形状に対応する場合、様々な形状認識技術を使用して、インクによって描かれた形状を識別することができる。
本発明者らは、ユーザが、インクを使用して、拡張可能アプリケーションマークアップ言語(「XAML」(Extensible Application Markup Language))で作成されるもののような従来の視覚的ユーザインタフェースコントロールと対話するための新しい方法を識別した。特に、本発明者らは、インクコマンドを用いて視覚的ユーザインタフェースコントロールを操作するためのソフトウェア及び/又はハードウェア設備(「設備」)を実施することを構想し、軽減させた。様々な例では、ユーザは、特定の方法で、特定のコントロール上で又はその近くで手書き又は描画をすることによりインク入力を生成する。設備は、このインク入力を特定のコントロールに向けられたインクコマンドとして解釈し、インクコマンドに従ってコントロールを動作させることに進む。
例えば背景技術の節で説明したワードプロセッシング文書をスクロールする従来の方法とは対照的に、ユーザは、文書内の対応する場所へジャンプするために、ワードプロセッシングアプリケーション文書ウィンドウの垂直スクロールバーに垂直な線分を、スクロールバーの高さの特定のポイントで描くことができる。あるいは、ユーザは、例えばジャンプするページ番号又は文書を通してジャンプするパーセンテージに対応する番号を、スクロールバー上又はその近くに手書きすることができる。同様の技術を、スライダーやワードプロセッシングフォーマットルーラ等のような他の1次元の値設置コントロールに使用することができる。
様々な追加の例において、ユーザは次のことをすることができる:すなわち、リスト、グリッド又は他のコンテナコントロール内の1つ以上のアイテムを丸で囲み、丸で囲んだアイテムを選択すること;コンテナ内の1つ以上のアイテムの横にチェックマークや星印等の形状を描き、これらのアイテムを選択すること;アイテムを宛先コンテナに転送するために、ソースコンテナ内で選択されたアイテムから宛先コンテナへの矢印を描画すること、あるいはソースコンテナ内で選択されたアイテムから、それらのアイテムに対して実行可能なアクションの視覚的指示へ、例えばアイテムを印刷するためのプリンタの視覚的指示への矢印を描画すること;コンテナからアイテムを削除するために、水平線分、一端にループを有する水平線分又は走り書き(scribble)のような形状をコンテナ内のアイテム上に描くこと;メディアプレーヤの再生ボタンをアクティブにする「>」や、メディアプレーヤの早送りボタンをアクティブにする「<<」のように、ボタンをアクティブにするために、ボタン上の記号の近似物(approximation)を描くこと;コンテナコントロール内に文字シーケンスを書いて、コンテナ内に表示されるアイテムを、その文字シーケンスに一致するテキストを有するもののみにサブセット化するか、かつ/又は一致するテキストを有する最初のアイテム又は全てのアイテムを選択することができる。
一部の例において、設備に応じたインクコマンドの使用は、ユーザが、一部又は全ての視覚的ユーザインタフェースコントロールが隠されているモードで操作することを可能にし、追加の実質的なコンテンツを表示し、より高レベルの拡大/詳細さで実質的なコンテンツを表示し、他の視覚的情報を表示し、小さいディスプレイデバイスを操作すること等を可能にするよう表示空間を保持する。このことは、そうでなければ視覚的ユーザインタフェースコントロールの表示のオンとオフをトグル切り換えするために必要とされることになるユーザの対話を更に節約することができ、ユーザ側の労力と時間を節約することができる。
一部の例において、設備は、可視のユーザインタフェースコントロールと隠れたユーザインタフェースコントロールの双方がない場合に、インクコマンドを単独で受け取る。例えば様々な例において、設備は、仮想現実又は拡張現実ディスプレイ、ゲームディスプレイ、ビデオ再生ディスプレイ等のように可視のユーザインタフェースコントロールのないモードレス表示モードでインクコマンドを受け取り;様々な例において、そのようなインクコマンドは、指、スタイラス又は他の保持物体、レーザポインタ等の移動を介して受け取られる。
発話コマンドと比較して、設備に応じたインクコマンドの使用はより正確であり、いずれかの特定の表示位置に関連しない発話コマンドとは対照的に、インクコマンドが書かれた表示位置によって提供される空間的なコンテキストから利益を得ることができる。
上記の方法の一部または全部を実行することにより、設備は、ユーザが、多くの従来的な視覚的ユーザインタフェースコントロールを、そのコントロール用に元々設計された入力形式を使用するよりも、より迅速かつ/又はより正確に操作することを可能にし、そして、スタイラスをセットすることやマウス又はキーボードを使用して再開する必要があるという中断なしに、そのような操作を行うことを可能にする。一部の例では、設備は更に、インクコマンドが代用されるマウス又はキーボードコマンドを処理する処理リソースを費やす必要性を除去すること、特定のデバイスにマウス及び/又はキーボードを装備する必要性を取り除くこと、一部のデバイスがより小さなディスプレイを採用することを可能にすること等によって、消費される演算リソースのレベルの低減を提供する。
図1は、設備が作用するコンピュータシステム及び他のデバイスの少なくとも一部に組み込まれ得る、構成要素の一部を示すブロック図である。様々な例において、これらのコンピュータシステム及び他のデバイス100は、サーバコンピュータシステム、デスクトップコンピュータシステム、ラップトップコンピュータシステム、タブレットコンピュータシステム、ネットブック、携帯電話、パーソナルデジタルアシスタント、テレビ、カメラ、自動車コンピュータ、電子メディアプレーヤ、電子キオスクデバイス、電子テーブルデバイス、電子ホワイトボードデバイス等を含むことができる。様々な例において、コンピュータシステム及びデバイスは、下記のうち任意の数のものを含んでよい:すなわち、コンピュータプログラムを実行するための中央処理ユニット(「CPU」)101;設備及び関連するデータ、カーネル及びデバイスドライバを含むオペレーティングシステム並びに1つ以上のアプリケーションを含む、プログラム及びデータが使用されている間にこれらのプログラム及びデータを格納するためのコンピュータメモリ102;プログラム及びデータを永続的に格納するためのハードドライブ又はフラッシュドライブ等の永続的ストレージデバイス103;コンピュータ読取媒体上に格納されたプログラム及びデータを読み出すための、フロッピー(登録商標)、CD-ROM又はDVDドライブ等のコンピュータ読取可能媒体ドライブ104;並びに/あるいは、インターネット又は別の有線若しくは無線ネットワークとそのネットワーキングハードウェア、例えばスイッチ、ルータ、リピータ、電気ケーブルと光ファイバ、光エミッタとレシーバ、無線トランスミッタとレシーバ等を介すること等により、コンピュータシステムを他のコンピュータシステム及び/又は他のデバイスに接続してデータを送信及び/又は受信するための通信サブシステム105;のうちの任意の数を含んでよい。
様々な例において、これらのコンピュータシステム及び他のデバイス100は、下記のうち任意の数のものを含んでよい:すなわち、テキスト、画像、アイコン、文書、メニュー等のような視覚的情報を提示するためのディスプレイ106と;1つ以上の指、スタイラス又は他の物体でディスプレイに触れることのような、ディスプレイとの対話を感知するためのタッチスクリーンデジタイザ107;のうちの任意の数を含んでよい。様々な例において、タッチスクリーンデジタイザは、抵抗感知、表面音響波感知、表面静電容量感知、投影静電容量感知、赤外グリッド感知、赤外アクリル投影感知、光イメージング感知、分散信号感知及び音響パルス認識感知のようなディスプレイとの対話を感知するための1つ以上の利用可能な技術を使用する。様々な例では、コンピュータシステム及び他のデバイス100は、キーボード、マウス、スタイラス等(図示せず)のような様々な他のタイプの入力デバイスを含む。
上述のように構成されるコンピュータシステム又は他のデバイスを使用して設備の動作をサポートすることができるが、当業者には、設備は様々なタイプ及び構成のデバイスを使用して実装されてよく、様々な構成要素を有することが認識されよう。
図2は、一部の例において、インクコマンドで操作されることを可能にする方法でコントロールを管理するために、設備によって実行させるプロセスを示すフロー図である。一部の例では、このプロセスは、設備が作用するコンピュータシステム又は他のデバイス上で動作するオペレーティングシステムによって実行される。このプロセスの実施を示す例が図3〜図24に図示され、以下で説明される。
201において、設備は、例えばオペレーティングシステムシェル、アプリケーションプログラム又はウェブページの状況等において、1つ以上の視覚的ユーザインタフェースコントロールを表示する。一部の例では、201で表示される1つ以上のコントロールは、完全に従来の方法で定義される。一部の例では、201で表示される1つ以上のコントロールは、1つ以上のインクコマンドのセットを指定するように定義される。場合によってはインクコマンドで許容可能な特定の範囲の制御操作を含め、各々動作するようにインクコマンドを使用することができる。202において、設備はユーザ入力を受け取り、受け取った入力のタイプに対して分岐する。受け取った入力がキーボード又はマウス入力である場合、設備は203に続き、受け取った入力がインク入力の場合、設備は204に続く。
203において、設備は、201で表示されたコントロールを、受け取ったキーボード又はマウス入力に従って、例えばコントロールについての従来の方法で操作する。動作203の後、設備は202に続き、更なる入力を受け取る。受け取った入力がインク入力であり、204において、受け取ったインク入力でインクコマンドが認識可能である場合、設備は205に続き、そうでなければ、設備は202に続く。205において、設備は、受け取ったインク入力で認識されたインクコマンドに従って、コントロールを操作する。動作205の後、設備は202に続く。
当業者には、図2に図示される動作が様々な方法で変更されてよいことが認識されよう。例えば動作の順序が再配置されてよく;一部の動作が並行に実行されてよく;図示される動作が省略されるか、他の動作が含まれてもよく;図示される動作が副次動作に分割されるか、図示される複数の動作が単一の動作に組み合わされてもよい。
図3及び図4は、サンプルのコマンド記号のインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。図3は、オーディオシーケンスを再生するプロセスで一時停止されたメディアプレーヤウィンドウ300の初期状態を示している。一部の例では、そのようなメディアプレーヤを使用して、オーディオシーケンス、ビデオシーケンス、アニメーション、スライドショー等を含め、様々な時間インデックス化されたメディアタイプを再生することができる。メディアプレーヤウィンドウは、下記を含むコントロールを包含する:すなわち、ユーザが、例えばオーディオファイルの再生を開始するためにマウスを使用してその中をクリックすることによって起動することができる、再生コントロール301;ユーザが、例えばオーディオファイルの再生を後の時間インデックスへ素早く進めるために、マウスを使用してその中をクリックすることによって起動することができる、早送りコントロール302;ユーザが、例えばオーディオファイルの再生をより早い時間インデックスに戻すために、マウスを使用してその中をクリックすることによって起動することができる、巻戻しコントロール303と;ユーザが、例えばマオーディオファイルの再生を終了するために、マウスを使用してその中をクリックすることによって起動することができる停止コントロール304と;ユーザが、例えば現在の再生時間インデックスを対応する再生時間インデックスに変更するために、そのノブ306を新たな水平位置にドラッグすることによって操作することができる再生インデックス時間コントロール305を含む。再生コントロール301の現在の表示は、オーディオファイルの再生が現在一時停止されていることを示している。
ディスプレイは更に、再生記号「>」を形成するインク入力320のユーザによる生成を示している。設備は、インク入力320を「再生」記号インクコマンドとして認識する。
図4は、インク入力320を「再生」インクコマンドとして認識したことに対する設備の応答を示している。多くの場合、コマンド記号のインクコマンドとして認識されるインク入力は、インクコマンドがアクティブになるコントロール内で表示される記号のように、コマンドに関連付けられる記号に視覚的に幾らか似ている。このインクコマンドの効果は、図3に図示される再生コントロール301をアクティブにして、オーディオファイルの再生を再開することであることがわかる。この再生状態は、一時停止コントロール401による図3に図示される再生コントロール301の代替によって反映されている。
再生ボタンをクリックすることに比べて、インクコマンドを使用することは、より素早く、かつより少ない空間視力で行うことができる:この場合、再生ボタンをクリックすることは、再生ボタンの小さなエリア内でのタッチ又はクリックを必要とし、インクコマンドを、画面のはるかに広いエリアに描画することができる。また、インクコマンドは、再生ボタンが表示されていないときに(図示せず)直ぐに行うことが可能であるが、この状況において、再生ボタンを押すためには、ユーザは最初に再生ボタンを表示するための対話を行って、次にその中をタッチ又はクリックしなければならない。
様々な例において、設備は、メディアプレーヤコントロールを操作するための様々な類似のコントロール記号のインクコマンドを認識し、一部の場合には:一時停止コントロール401を操作するための一時停止インクコマンド「||」;早送りコントロール402をアクティブにするための早送りインクコマンド「>>」;巻戻しコントロール403をアクティブにするためのインクコマンド「<<」;停止コントロール404をアクティブにするための停止インクコマンド「□」等を含む。
一部の例では、設備は、読書のために本又は他の刊行物の内容を表示する電子リーダアプリケーションに関連して類似のコマンド記号のインクコマンドを認識する。一部の例は、現在のページから1ページ先にフリップするフリップ・シングルページコマンド「>」;現在のページから3ページ先にフリップするトリプルページ・フリップインクコマンド「>>>」;6ページ先にフリップするためのインクコマンド「6>」等を含む。
当業者であれば、様々な例において、設備が、様々なコンテキストで様々なタイプのコントロールを操作する様々な類似のコマンド記号のインクコマンドを認識することを理解するであろう。
図5及び図6は、サンプルのスライダーハッシュのインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。図5は、オーディオシーケンスを再生するプロセスにあるメディアプレーヤウィンドウ500の初期状態を示す。メディアプレーヤウィンドウは、トラックの長さによって表される許容範囲内の点に再生ボリュームを設定するために、トラック503上の異なる位置に動かすことができるノブ502を有するボリュームスライダー501を含むコントロールを含む。ユーザは、例えばマウスでそのノブ上をクリックし、マウスボタンを離す前にノブをトラック上の新たな水平位置へドラッグすることによって、ボリュームスライダーを操作することができる。
ディスプレイは更に、ボリュームスライダー上の特定の水平位置におおよそ垂直のハッシュマークを形成するインク入力520のユーザによる生成を示す。設備は、インク入力520をスライダーハッシュマークのインクコマンドとして認識する。
図6は、インク入力520をスライダーハッシュのインクコマンドとして認識したことに対する設備の応答を示す。このインクコマンドの効果は、ボリュームスライダーを操作し、そのノブ602を、ハッシュインク入力がボリュームスライダーと交差した点へ動かすことであることがわかる。
様々な例において、設備は、再生時間インデックススライダー603のようなメディアプレーヤコントロールに関連して、様々な類似のスライダーハッシュのインクコマンドを認識する。
様々な例において、設備は、様々なコンテキストで様々なスライダーコントロールを操作する類似のスライダーハッシュのインクコマンドを認識し、同様に、スクロールバー、ルーラー、ラウンドアナログ時計、円グラフコントロール等のように、スライダー以外の1次元位置コントロールを操作する類似のスライダーハッシュのインクコマンドを認識する。
図7及び図8は、サンプルの数値テキストのインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。図7は、オーディオシーケンスを再生するプロセスにあるメディアプレーヤウィンドウ700の初期状態を示す。メディアプレーヤウィンドウは、ノブ702を有する再生時間インデックススライダー701を含むコントロールを含み、スライダー上のノブ702の位置が、オーディオシーケンスの持続時間内の現在の再生時間インデックスの相対位置を示す。メディアプレーヤウィンドウ300はまた、現在の再生時間インデックスの表示703を含み、これは、現在の再生時間インデックスが「00:10」であることを示している。ユーザは、例えばマウスでそのノブ上をクリックし、マウスボタンを離す前に、再生時間インデックススライダー上の新たな水平位置へノブをドラッグすることによって、再生時間インデックススライダーを操作することができる。そのようにすることは、(a)スライダー上のノブを再配置し;(b)現在の再生時間インデックス表示を更新し;(c)新たな再生時間インデックスで再生を再開させる。
ディスプレイは更に、「2:30」というテキストを形成するインク入力720のユーザによる生成を示している。設備は、インク入力720を、絶対時間インデックス「2:30」にジャンプするためのインクコマンドとして認識する。
図8は、インク入力720を絶対再生時間インデックス「2:30」にジャンプするインクコマンドとして認識したことに対する設備の応答を示す。このインクコマンドの効果は、現在の再生時間インデックスの表示803を「2:30」に変更し、スライダーノブ802を再生時間インデックススライダー801上の対応する位置に動かすことであることがわかる。
様々な例において、設備は、ボリュームスライダー804のようなメディアプレーヤコントロールを操作するための様々な類似の数値テキストのインクコマンドを認識する。ユーザは、例えば「25%」又は「85dBA」といった値を書き込むことができる。
様々な例において、設備は、電子リーダアプリケーションのページにページ番号を書き込んで、本の対応するページにジャンプすること、テキスト編集アプリケーション内の垂直スクロールバー上にページ番号を書き込んで、編集中のドキュメントの対応するページにジャンプすること、対応する寸法サイズに形状をスケーリングするために、ドキュメント内の形状に寸法サイズを書き込むこと等のように、様々なコントロールを操作する同様の数値テキストのインクコマンドを認識する。
図9及び図10は、サンプルの囲み形状のアイテム選択コマンドの入力とそれに対する設備の応答を示すディスプレイ図である。図9は、テキストドキュメントアイテム901〜912を含むファイルシステムコンテナコントロールウィンドウ900の初期状態を示す。ユーザは、例えばキーボード上のコントロールキーを押しながら、選択する各アイテムを順番にクリックすることによって、コンテナ内のアイテムを選択することができる。ディスプレイ内でアイテムが選択されると、ユーザはこれらのコマンドの全てを同じコマンドの対象にすることができる。例えばこれらを削除し、これらを開き、これらを異なるコンテナへ移動又はコピーすること等ができる。
ディスプレイは更に、アイテム903、904、908及び912の周囲に囲み形状を形成するインク入力920のユーザによる生成を示している。設備は、インク入力920を囲み形状のアイテム選択コマンドとして認識する。
図10は、インク入力920を囲み形状のアイテム選択インクコマンドとして認識したことに対する設備の応答を示す。場合によっては、設備によって囲み形状のアイテム選択コマンドとして認識されたインク入力は閉形状であるが、一部の例では、設備は、その形状は閉じられていないが1つ以上のアイテムを囲む意図を示すインク入力を、囲み形状のアイテム選択コマンドとして認識する。このインクコマンドの効果は、アイテム1003、1004、1008及び1012を選択すること、例えばこれらの4つのアイテム全てに対して同時に特定のファイルシステム操作を実行すること等であることがわかる。
様々な例において、設備は、様々なタイプのコンテナコントロール内において、あるいはリスト、ツリー、図等のようなアイテムの他の集合内で、様々なタイプのアイテムを選択するための様々な類似の囲み形状のアイテム選択コマンドを認識する。
図11及び図12は、サンプルのアイテム転送インクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。図11は、ファイルシステムコンテナコントロール1100の初期状態を示す。このファイルシステムコンテナコントロール内では、アイテム1103、1104、1108及び1112が選択されていることがわかる。4つの選択したアイテムを異なるコンテナに移動又はコピーするために、ユーザは、例えば選択したアイテムのうちの1つをマウスでクリックし、マウスボタンを離す前にこのアイテムをコンテナにドラッグすることができる。
ディスプレイは更に、選択したアイテムのうちの1つから、異なるファイルシステムコンテナ「folder H」の表現1119までの矢印を形成するインク入力1120のユーザによる生成を示している。設備は、インク入力1120をアイテム転送インクコマンドとして認識する。
図12は、入力1120をアイテム転送インクコマンドとして認識したことに対する設備の応答を示す。一部の場合に、設備によってアイテム転送コマンドとして認識されたインク入力は、影響を受けるアイテムを、ファイルシステムコンテナ及び他のタイプのコンテナを含む様々な宛先に転送すること;転送されたアイテムを印刷するためのプリンタの視覚的表現のように、転送されたアイテムに対するアクションを実行するためのアクションの視覚的表現等を指定する。図12は、宛先「folder H」コンテナに対応する新たなファイルシステムコンテナコントロール1200を示している。アイテム1203、1204、1208及び1212は、例えばこれらのアイテムが元の「text snippets」コンテナに含まれなくなるよう、これらのアイテムを移動させることによって、あるいはこれらのアイテムが元の「text snippets」コンテナに引き続き含まれるよう、これらのアイテムをコピーすることによって、「folder H」コンテナに転送されたことがわかる。
図13及び図14は、サンプルのテキストフィルタリングのインクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。図13は、アイテム1301〜1312を含むファイルシステムコンテナコントロール1300の初期状態を示している。各アイテムは、そのアイテムと関連して表示される異なる名前を有する。
ディスプレイは更に、テキスト文字列「new」を形成するインク入力1320のユーザによる生成を示している。設備は、インク入力1320を、コンテナ内の表示されるアイテムを、名前が文字列「new」を含むものにフィルタすることを指定するテキストフィルタリングのインクコマンドとして認識する。
図14は、インク入力1320をテキストフィルタリングコマンドとして認識したことに対する設備の応答を示している。一部の例では、テキストフィルタリングのインクコマンドは、名前以外のアイテムの属性に基づいて、表示されるアイテムをフィルタする。一部の例では、テキストフィルタリングのインクコマンドは、コンテナ内のアイテムと一緒に表示されないアイテムの属性に基づいて、表示されるコンテナ内のアイテムをフィルタする。このインクコマンドの効果は、図13に図示された、その名前に文字列「new」が含まれていないアイテム1302、1303、1305〜1311を表示することを省略して、名前に文字列「new」を有するアイテム1401、1404及び1412のみをコンテナ1400内に表示することであることがわかる。
様々な例において、設備は、様々なコンテナ内又はリスト、ツリー、図等といったアイテムの他の集合内に表示されるアイテムをフィルタするための様々な類似のテキストフィルタリングのインクコマンドを認識する。
図15及び図16は、サンプルのテキストフィルタリング反転(text filtering reversal)インクコマンドの入力とそれに対する設備の応答を示すディスプレイ図である。図15は、ファイルシステムコンテナ1500の初期状態を示しており、そのディスプレイは、図13及び図14に図示され、上記で検討したように、コンテナによって包含されるアイテムがその名前に文字列「new」を有するアイテムのみ、すなわち、アイテム1501、1504及び1512のみを含むようにフィルタされている。
ディスプレイは更に、「l」という復帰記号(revert symbol)を形成するインク入力1520のユーザによる生成を示している。設備は、インク入力1520をテキストフィルタリング反転コマンドとして認識する。
図16は、インク入力1520をテキストフィルタリング反転インクコマンドとして認識したことに対する設備の応答を示している。一部の例では、設備は、類似のインク入力を、上述したアイテム転送コマンド、下述する削除コマンド等のような様々な他の正(positive)インクコマンドを逆にするインクコマンドとして認識する。このインクコマンドの効果は、ファイルシステムコンテナ1600内のアイテムのフィルタリングを逆にし、コンテナにより含まれるアイテムの全ての表示、すなわちアイテム1601〜1612の表示に復帰することであることがわかる。
図17及び図18は、サンプルのチェック選択コマンドの入力とそれに対する設備の応答を示すディスプレイ図である。図17は、電子メール受信ボックスコンテナコントロール1700の初期状態を示している。コンテナは、少なくとも電子メールアイテム1701〜1709を含む。ユーザは、例えばマウスを使用して、表示された電子メールアイテムのうちの1つ以上の各々の左をクリックすることによって、電子メールアイテムを選択することができる。
ディスプレイは更に、電子メールメッセージアイテム1704、1706及び1707の各々の近くにチェックマークを形成するインク入力1721、1722及び1723のユーザによる生成を示している。設備は、インク入力1721〜1723を1つ以上のチェック選択インクコマンドとして認識する。
図18は、インク入力1721〜1723を1つ以上のチェック選択コマンドとして認識したことに対する設備の応答を示す。このインクコマンドの効果は、電子メールアイテム1804、1806及び1807を選択すること、例えばこれらの電子メールアイテムの3つ全てに対して同時に単一のアクションを実行すること等であることがわかる。
様々な例において、設備は、様々な類似の記号又は他のインク付けアクションを選択インクコマンドとして認識する。様々な例において、設備は、様々なタイプのコンテナコントロール内において、あるいはリスト、ツリー、図等のようなアイテムの他の集合の中で、様々なタイプのアイテムを選択するための様々な類似の選択コマンドを認識する。
一部の例(図示せず)において、設備は、コンテナコントロール内のアイテムをお気に入りとしてマークするためのインクコマンドとして、星印又はアスタリスクといった記号を認識する。加えて、あるアイテムを3つ星のお気に入りとしてマークするために、ユーザは一連の3つの星の記号を描くことができ、あるいは単一の星の後に数字の3を書くことができる。
図19及び図20は、サンプルのラインアウト削除コマンドの入力とそれに対する設備の応答を示すディスプレイ図である。図19は、電子メールアイテム1901〜1909を少なくとも含む受信ボックスの電子メールコンテナコントロール1900の初期状態を示す。表示された電子メールアイテムのうちの1つを削除するためには、ユーザは、例えばその左をクリックしてアイテムを選択し、キーボードの削除キーを押すことができる。
ディスプレイは更に、電子メールアイテム1902の少なくとも一部を通る水平線を形成するインク入力1920のユーザによる生成を示している。設備は、インク入力1920をラインアウト削除インクコマンドとして認識する。一部の例では、設備は、図19に示すものとは異なり、右端のループを省略した水平線;前後する走り書き(back-and-forth scribble)を構成するインク入力形状等といった他のインク入力形状をラインアウト削除インクコマンドとして認識する。
図20は、インク入力1920をラインアウト削除コマンドとして認識したことに対する設備の応答を示している。このインクコマンドの効果は、受信ボックス電子メールコンテナ2000に含まれないものとなるよう、図19に図示される電子メールアイテム1902を削除することであることがわかる。
様々な例において、設備は、様々なタイプのコンテナコントロール内、あるいはリスト、ツリー、図等のようなアイテムの他の集合内の様々なタイプのアイテムを削除するラインアウト削除コマンドを認識する。
図21及び図22は、サンプルのアイテムピッカー囲み形状インクコマンド(上述の囲み形状のアイテム選択コマンドと同様)の入力とそれに対する設備の応答を示すディスプレイ図である。図21は、旅行ウェブサイト上のホテル検索ウェブページ2100を示している。このウェブページは、ホテルの部屋を予約する日付範囲を選択するための日付ピッカーコントロール2101を含む。マウスを使用して、ユーザは、例えば最初に範囲の開始の日付をクリックし、次いで範囲の最後の日付をクリックすることによって、これを行うことができる。
ディスプレイは更に、日付2102(2016年3月9日)と日付2103(2016年3月10日)の周囲にループを形成するインク入力2120のユーザによる生成を示している。設備は、インク入力2120を、アイテムピッカー囲み形状インクコマンドとして認識する。
図22は、インク入力2120をアイテムピッカー囲み形状インクコマンドをとして認識したことに対する設備の応答を示している。このインクコマンドの効果は、日付2202(2016年3月9日)から日付2203(2016年3月10日)までの日付範囲を選択したことであることがわかる。
様々な例において、設備は、アイテムピッカー囲み形状及びコマンドを認識して、様々な種類のアイテムピッカーコントロール内で選択を行う。
図23及び図24は、サンプルのアイテムピッカーテキスト日付コマンド(上述の数字テキストインクコマンドと同様)の入力とそれに対する設備の応答を示すディスプレイ図である。図23は、旅行ウェブサイトのホテル予約ウェブページ2300の初期状態を示している。このウェブページは、ホテルの部屋を予約するためにチェックイン日付とチェックアウト日付を指定するための個別の日付ピッカーコントロール2301及び302を含む。ユーザは、例えばマウスで各々のコントロールをクリックしてキーボードで日付をタイプすることにより;カレンダアイコンをクリックして、その中に図21に図示されるコントロール2101を表示すること等により、これらの日付ピッカーコントロールを操作することができる。
ディスプレイは更に、日付ピッカーコントロールの近くに「March 9-10」のテキストを形成するインク入力2320のユーザによる生成を示す。設備は、インク入力2320をアイテムピッカーテキストインクコマンドとして認識する。
図24は、「March 9-10」という日付範囲を指定するアイテムピッカーテキストインクコマンドとしてインク入力2320を認識したことに対する設備の応答を示している。このインクコマンドの効果は、日付ピッカーコントロール2401内で2016年3月9日というチェックイン日付を選択し、日付ピッカーコントロール2402内で2016年3月10日というチェックアウト日付を選択することであることがわかる。
一部の例において、設備は、テキスト入力フィールドコントロールに関連するインクコマンドを認識することを省略し、かつ/又は任意のタイプのコントロールのフィールド内へ手書きテキストを直接転写することを省略し、かつ/又は認識されたテキストに対して変換を実行した後にのみ、コントロールのフィールド内へ手書きテキストを転写する。
様々な例において、設備は、アイテムピッカーテキストインクコマンドを認識して、様々なタイプのアイテムピッカーにおいて選択を行う。
一部の例において、設備は、プロセッサベースのデバイスを提供する。当該プロセッサベースのデバイスは、プロセッサと、該プロセッサによるオペレーティングシステムの実行に応答して、プロセッサに、マウス及び/又はキーボード入力で操作可能なコントロールを表示させ、表示されたコントロールに近接するインク入力を受け取らせ;受け取ったインク入力をインクコマンドとして解釈させ;解釈されたインクコマンドに従って、表示されたコントロールを操作させるコンテンツを有するメモリとを備える。
一部の例において、設備は、コンピューティングシステムに:マウス入力で操作可能なコントロールを表示させ;表示されたコントロールに向けられたインクコマンドを受け取らせ;受け取ったインクコマンドに従って、表示されたコントロールを操作させるように構成されるコンテンツを有する、コンピュータ読取可能媒体を提供する。
一部の例において、設備は、コンピューティングシステムにおける方法を提供する。当該方法は、マウス入力で操作可能なコントロールを表示させることと;表示されたコントロールに近接するインク入力を受け取ることと;受け取ったインク入力をインクコマンドとして解釈することと;解釈されたインクコマンドに従って、表示されたコントロールを操作することとを含む。
当業者であれば、上記の設備が、様々な方法で直接的に適合又は拡張されてもよいことが理解されよう。前述の説明は特定の例を参照しているが、本発明の範囲は、以下の特許請求の範囲及びその中に記載される要素によってのみ定義される。

Claims (15)

  1. プロセッサベースのデバイスであって:
    プロセッサと;
    前記プロセッサによるオペレーティングシステムの実行に応答して、前記プロセッサに、
    マウス及び/又はキーボード入力で操作可能なコントロールを表示させ、
    前記表示されたコントロールに近接するインク入力を受け取らせ、
    前記受け取ったインク入力をインクコマンドとして解釈させ、
    前記解釈されたインクコマンドに従って前記表示されたコントロールを操作させる、
    コンテンツを有するメモリと;
    を備える、デバイス。
  2. 前記表示されたコントロールは、インデックス値を設定するための1次元値設定コントロールであり、
    前記受け取ったインク入力は、手書きの数字を含み、
    前記解釈されたインクコマンドは、前記手書きの数字に基づくインデックス値を指定する、
    請求項1に記載のデバイス。
  3. 前記表示されたコントロールは、量を設定するためのものであり、コントロール、ハンドル及びトラックを有し、該トラックは、第1端部と第2端部を有し、前記ハンドルは、前記量の異なる値に対応する前記トラック上の異なる点に再配置可能であり、
    前記受け取ったインク入力は、前記コントロールのトラックを、前記トラックの前記第1端部から前記トラックの前記第2端部までの距離の特定のパーセンテージで横切るインクを含み、
    前記解釈されたインクコマンドは、前記パーセンテージに基づく、前記量についての値を指定する、
    請求項1に記載のデバイス。
  4. 前記表示されたコントロールは、視覚的記号を有するボタンであり、
    前記受け取ったインク入力は、前記ボタンが有する前記視覚的記号の近似物を含み、
    前記解釈されたインクコマンドに従って前記表示されたコントロールを操作することは、前記ボタンをアクティブにすることを含む、
    請求項1に記載のデバイス。
  5. 前記表示されたコントロールは、複数の列挙されたテキスト文字列のうちの1つを設定するための列挙テキスト文字列ピッカーコントロールであり、列挙されたテキスト文字列の各々が文字シーケンスで構成され、
    前記受け取ったインク入力は、前記複数の列挙されたテキスト文字列のうちのただ1つの列挙されたテキスト文字列の文字シーケンスの先頭部分に一致している手書きの文字シーケンスであり、
    前記解釈されたインクコマンドに従って前記表示されたコントロールを操作することは、そのシーケンスの先頭部分が前記手書きの文字シーケンスに一致している前記列挙されたテキスト文字列を設定することを含む、
    請求項1に記載のデバイス。
  6. 前記表示されたコントロールは、コンテナ内のアイテムを選択するためのコンテナコントロールであり、該コンテナコントロールは、前記コンテナ内のアイテムの少なくとも一部の各々の視覚的表現を含み、
    前記受け取ったインク入力は、前記アイテムの視覚的表現のうちの1つ以上を囲んでいる囲み形状であり、
    前記解釈されたインク入力に従って前記表示されたコントロールを操作することは、その視覚的表現が前記囲み形状によって囲まれている前記アイテムを選択することを含む、
    請求項1に記載のデバイス。
  7. 前記表示されたコントロールは、ソースコンテナ内のアイテムの少なくとも一部の各々の視覚的表現を含むコンテナコントロールであり、該アイテムの視覚的表現のうちの少なくとも1つは、表現されるアイテムが選択されたことを示し、
    前記受け取ったインク入力は、前記表現されるアイテムが選択されたことを示すアイテムの視覚的表現のうちの1つの近くで始まり、宛先コンテナの視覚的指示の近くで終わる矢印であり、
    前記解釈されたインク入力に従って前記表示されたコントロールを操作することは、前記選択されたアイテムを前記ソースコンテナから前記宛先コンテナに転送することを含む、
    請求項1に記載のデバイス。
  8. 前記表示されたコントロールは、コンテナ内のアイテムの少なくとも一部の各々の視覚的表現を含むコンテナコントロールであり、
    前記受け取ったインク入力は、選択されたアイテムの表現の少なくとも一部の上に描かれた形状を含み、
    前記解釈されたインク入力に従って前記表示されたコントロールを操作することは、前記選択されたアイテムを前記コンテナから削除することを含む、
    請求項1に記載のデバイス。
  9. コンピューティングシステムに:
    マウス入力で操作可能なコントロールを表示させ;
    前記表示されたコントロールに向けられたインクコマンドを受け取らせ;
    前記受け取ったインクコマンドに従って前記表示されたコントロールを操作させる;
    ように構成されるコンテンツを有する、コンピュータ読取可能媒体。
  10. コンピューティングシステムにおける方法であって:
    ディスプレイ領域に対して特定の位置でインク入力を受け取るステップと;
    前記受け取ったインク入力の形状及び位置に基づいて、前記受け取ったインク入力をインクコマンドとして解釈するステップと;
    前記解釈されたインクコマンドを実行するステップと;
    を備える、方法。
  11. 前記表示されたコントロールは、1つ以上の電子ドキュメントリーダのページであり、
    前記受け取ったインク入力は、選択された方向を指す選択された数の手書きのキャレットを含み、
    前記解釈されたインクコマンドに従って前記表示されたコントロールを操作することは、前記選択された方向で前記選択された数のページフリップを実行することを含む、
    請求項1に記載のデバイス。
  12. 前記表示されたコントロールは、日付を設定するための日付ピッカーコントロールであり、該コントロールは、週に各々対応する行に配列された複数の日付を提示し、
    前記受け取ったインク入力は、前記コントロールによって提示される選択された日付を包含する囲み形状又は日付を指示するテキストであり、
    前記解釈されたインクコマンドに従って前記表示されたコントロールを操作することは、前記選択された日付又は前記指示された日付を設定することを含む、
    請求項1に記載のデバイス。
  13. 前記表示されたコントロールは、コンテナ内のアイテムを選択するためのコンテナコントロールであり、該コンテナコントロールは、前記コンテナ内のアイテムの少なくとも一部の各々の視覚的表現を含み、前記コンテナ内の前記アイテムの各々は、当該アイテムに関連付けられるテキスト文字列を有し、
    前記受け取ったインク入力は、文字シーケンスを含む手書きのテキスト文字列であり、
    前記解釈されたインク入力に従って前記表示されたコントロールを操作することは、前記コンテナコントロールが視覚的表現を含んでいるアイテムを、関連付けられるテキスト文字列が前記手書きのテキスト文字列と一致するアイテムのみにサブセット化することを含む、
    請求項1に記載のデバイス。
  14. 前記表示されたコントロールは、ソースコンテナ内のアイテムの少なくとも一部の各々の視覚的表現を含むコンテナコントロールであり、アイテムの視覚的表現のうちの少なくとも1つは、表現されるアイテムが選択されたことを示し、
    前記受け取ったインク入力は、前記表現されるアイテムが選択されたことを示す前記アイテムの視覚的表現のうちの1つの近くで始まり、アイテムに対して実行可能な操作の視覚的指示の近くで終わる矢印であり、
    前記解釈されたインク入力に従って前記表示されたコントロールを操作することは、前記選択されたアイテムを指示された操作の対象にすることを含む、
    請求項1に記載のデバイス。
  15. 前記表示されたコントロールは、コンテナ内のアイテムを選択するためのコンテナコントロールであり、該コンテナコントロールは、前記コンテナ内のアイテムの少なくとも一部の各々の視覚的表現を含み、
    前記受け取ったインク入力は、1つ以上の区別されたアイテムの各々の表現の近くに描かれたチェックマーク、星形又はアスタリスクを含み、
    前記解釈されたインク入力に従って前記表示されたコントロールを操作することは、前記区別されたアイテムを選択することを含む、
    請求項1に記載のデバイス。
JP2018550357A 2016-03-29 2017-03-23 インクコマンドによる視覚的ユーザインタフェースコントロールの操作 Pending JP2019516170A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/084,272 2016-03-29
US15/084,272 US20170285931A1 (en) 2016-03-29 2016-03-29 Operating visual user interface controls with ink commands
PCT/US2017/023697 WO2017184294A1 (en) 2016-03-29 2017-03-23 Operating visual user interface controls with ink commands

Publications (2)

Publication Number Publication Date
JP2019516170A true JP2019516170A (ja) 2019-06-13
JP2019516170A5 JP2019516170A5 (ja) 2020-04-30

Family

ID=58530640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018550357A Pending JP2019516170A (ja) 2016-03-29 2017-03-23 インクコマンドによる視覚的ユーザインタフェースコントロールの操作

Country Status (17)

Country Link
US (2) US20170285931A1 (ja)
EP (1) EP3436915A1 (ja)
JP (1) JP2019516170A (ja)
KR (1) KR20180122732A (ja)
CN (1) CN108885530A (ja)
AU (1) AU2017252170B2 (ja)
BR (1) BR112018016175A2 (ja)
CA (1) CA3014942A1 (ja)
CL (1) CL2018002719A1 (ja)
CO (1) CO2018010521A2 (ja)
IL (1) IL261497B2 (ja)
MX (1) MX2018011574A (ja)
PH (1) PH12018550126A1 (ja)
RU (1) RU2018134170A (ja)
SG (1) SG11201808020SA (ja)
WO (1) WO2017184294A1 (ja)
ZA (1) ZA201805312B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11023661B2 (en) 2018-05-03 2021-06-01 Microsoft Technology Licensing, Llc Visually enhanced digital ink
US10719230B2 (en) * 2018-09-27 2020-07-21 Atlassian Pty Ltd Recognition and processing of gestures in a graphical user interface using machine learning
US11455339B1 (en) 2019-09-06 2022-09-27 Tableau Software, LLC Incremental updates to natural language expressions in a data visualization user interface
US11698933B1 (en) 2020-09-18 2023-07-11 Tableau Software, LLC Using dynamic entity search during entry of natural language commands for visual data analysis
US11301631B1 (en) 2020-10-05 2022-04-12 Tableau Software, LLC Visually correlating individual terms in natural language input to respective structured phrases representing the natural language input

Family Cites Families (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5953735A (en) * 1991-03-20 1999-09-14 Forcier; Mitchell D. Script character processing method and system with bit-mapped document editing
US5583542A (en) * 1992-05-26 1996-12-10 Apple Computer, Incorporated Method for deleting objects on a computer display
JPH09198546A (ja) 1996-01-22 1997-07-31 Toshiba Corp 自動取引装置
US6956562B1 (en) * 2000-05-16 2005-10-18 Palmsource, Inc. Method for controlling a handheld computer by entering commands onto a displayed feature of the handheld computer
US6897851B2 (en) 2001-01-05 2005-05-24 International Business Machines Corporation Methods and apparatus for formatted entry of electronic ink
US7240300B2 (en) * 2001-02-15 2007-07-03 Nbor Corporation Method for creating user-defined computer operations using arrows
US6883145B2 (en) * 2001-02-15 2005-04-19 Denny Jaeger Arrow logic system for creating and operating control systems
US7120299B2 (en) * 2001-12-28 2006-10-10 Intel Corporation Recognizing commands written onto a medium
US6938222B2 (en) 2002-02-08 2005-08-30 Microsoft Corporation Ink gestures
US7036077B2 (en) * 2002-03-22 2006-04-25 Xerox Corporation Method for gestural interpretation in a system for selecting and arranging visible material in document images
US7086013B2 (en) * 2002-03-22 2006-08-01 Xerox Corporation Method and system for overloading loop selection commands in a system for selecting and arranging visible material in document images
US7299424B2 (en) * 2002-05-14 2007-11-20 Microsoft Corporation Lasso select
US20040121298A1 (en) 2002-11-06 2004-06-24 Ctb/Mcgraw-Hill System and method of capturing and processing hand-written responses in the administration of assessments
US7554530B2 (en) * 2002-12-23 2009-06-30 Nokia Corporation Touch screen user interface featuring stroke-based object selection and functional object activation
CA2513762A1 (en) 2003-01-23 2004-08-05 Intergraph Hardware Technologies Company Video analyzer
US20040196313A1 (en) * 2003-02-26 2004-10-07 Microsoft Corporation Ink repurposing
US7793233B1 (en) * 2003-03-12 2010-09-07 Microsoft Corporation System and method for customizing note flags
US8448083B1 (en) * 2004-04-16 2013-05-21 Apple Inc. Gesture control of multimedia editing applications
US20060001656A1 (en) * 2004-07-02 2006-01-05 Laviola Joseph J Jr Electronic ink system
US7454717B2 (en) * 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US8487879B2 (en) 2004-10-29 2013-07-16 Microsoft Corporation Systems and methods for interacting with a computer through handwriting to a screen
US20060136833A1 (en) * 2004-12-15 2006-06-22 International Business Machines Corporation Apparatus and method for chaining objects in a pointer drag path
JP2007145106A (ja) 2005-11-25 2007-06-14 Xanavi Informatics Corp 車載情報端末
US8074175B2 (en) * 2006-01-06 2011-12-06 Microsoft Corporation User interface for an inkable family calendar
JP4762070B2 (ja) * 2006-07-19 2011-08-31 富士通株式会社 手書き入力装置、手書き入力方法、及びコンピュータプログラム
DE202007018940U1 (de) * 2006-08-15 2009-12-10 N-Trig Ltd. Bewegungserkennung für einen Digitalisierer
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US20080104020A1 (en) * 2006-10-27 2008-05-01 Microsoft Corporation Handwritten Query Builder
TW200825881A (en) * 2006-12-04 2008-06-16 Ulead Systems Inc Method and apparatus for selecting digital items
JP2008186120A (ja) 2007-01-29 2008-08-14 Seiko Epson Corp ユーザの指示に従って処理を実行するための処理装置、処理方法、および、プログラム
US7936341B2 (en) * 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
US8423914B2 (en) * 2007-06-08 2013-04-16 Apple Inc. Selection user interface
US8094939B2 (en) * 2007-06-26 2012-01-10 Microsoft Corporation Digital ink-based search
JP4385169B1 (ja) 2008-11-25 2009-12-16 健治 吉田 手書き入出力システム、手書き入力シート、情報入力システム、情報入力補助シート
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8954894B2 (en) * 2008-11-15 2015-02-10 Adobe Systems Incorporated Gesture-initiated symbol entry
US20130014041A1 (en) * 2008-12-09 2013-01-10 Denny Jaeger Using gesture objects to replace menus for computer control
US20100185949A1 (en) * 2008-12-09 2010-07-22 Denny Jaeger Method for using gesture objects for computer control
WO2010071630A1 (en) * 2008-12-15 2010-06-24 Hewlett-Packard Development Company, L.P. Gesture based edit mode
US8341558B2 (en) * 2009-09-16 2012-12-25 Google Inc. Gesture recognition on computing device correlating input to a template
TW201129921A (en) * 2010-02-24 2011-09-01 Mstar Semiconductor Inc Electronic displaying apparatus with touching capability and operating method thereof
US8930360B2 (en) * 2010-05-28 2015-01-06 Yahoo! Inc. System and method for online handwriting recognition in web queries
US8635555B2 (en) * 2010-06-08 2014-01-21 Adobe Systems Incorporated Jump, checkmark, and strikethrough gestures
US8799798B2 (en) * 2010-06-09 2014-08-05 Fujitsu Limited Method and system for handwriting-based launch of an application
US20110307840A1 (en) * 2010-06-10 2011-12-15 Microsoft Corporation Erase, circle, prioritize and application tray gestures
US8555195B2 (en) * 2010-06-29 2013-10-08 Ricoh Co., Ltd. Bookmark function for navigating electronic document pages
US20120030566A1 (en) * 2010-07-28 2012-02-02 Victor B Michael System with touch-based selection of data items
US9021402B1 (en) * 2010-09-24 2015-04-28 Google Inc. Operation of mobile device interface using gestures
US8793624B2 (en) * 2011-05-18 2014-07-29 Google Inc. Control of a device using gestures
CN102855079B (zh) * 2011-05-24 2016-06-08 Lg电子株式会社 移动终端
US9204094B2 (en) * 2011-06-28 2015-12-01 Lifesize Communications, Inc. Adjusting volume of a videoconference using touch-based gestures
US9571622B2 (en) * 2011-11-28 2017-02-14 Kika Tech (Hk) Holdings Co. Limited Method of inputting data entries of a service in one continuous stroke
US9600169B2 (en) * 2012-02-27 2017-03-21 Yahoo! Inc. Customizable gestures for mobile devices
US9304656B2 (en) * 2012-03-30 2016-04-05 Google Inc. Systems and method for object selection on presence sensitive devices
KR101395480B1 (ko) * 2012-06-01 2014-05-14 주식회사 팬택 필기 입력에 기초하여 어플리케이션을 실행하는 방법 및 그 단말
CN102789362A (zh) * 2012-06-29 2012-11-21 鸿富锦精密工业(深圳)有限公司 电子设备及其智能计算控制方法
KR20140008987A (ko) * 2012-07-13 2014-01-22 삼성전자주식회사 필기 이미지 인식을 이용한 어플리케이션 제어 방법 및 장치
US9619037B2 (en) * 2012-07-25 2017-04-11 Facebook, Inc. Custom gestures
KR101929301B1 (ko) * 2012-08-20 2019-03-12 삼성전자 주식회사 필기 제스처 인식을 통한 휴대단말의 기능 실행 제어 방법 및 장치
US9250783B2 (en) * 2012-08-21 2016-02-02 Apple Inc. Toggle gesture during drag gesture
GB201215283D0 (en) * 2012-08-28 2012-10-10 Microsoft Corp Searching at a user device
US8943092B2 (en) * 2013-03-04 2015-01-27 Microsoft Corporation Digital ink based contextual search
US9189149B2 (en) * 2013-03-21 2015-11-17 Sharp Laboratories Of America, Inc. Equivalent gesture and soft button configuration for touch screen enabled device
JP2014215906A (ja) 2013-04-26 2014-11-17 株式会社東芝 文字入力装置、方法、及びプログラム
KR20140132171A (ko) * 2013-05-07 2014-11-17 삼성전자주식회사 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법
US20140337804A1 (en) * 2013-05-10 2014-11-13 Microsoft Corporation Symbol-based digital ink analysis
US9116871B2 (en) 2013-05-20 2015-08-25 Microsoft Technology Licensing, Llc Ink to text representation conversion
KR102162836B1 (ko) * 2013-08-30 2020-10-07 삼성전자주식회사 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법
CN103442244A (zh) * 2013-08-30 2013-12-11 北京京东方光电科技有限公司 3d眼镜、3d显示系统及3d显示方法
US9383910B2 (en) * 2013-10-04 2016-07-05 Microsoft Technology Licensing, Llc Autoscroll regions
WO2015065620A1 (en) * 2013-11-01 2015-05-07 Slide Rule Software Calendar management system
US11334843B2 (en) * 2014-02-28 2022-05-17 Freightmonster.com Inc. Apparatus for temporal scheduling of a load to be transported
US9459794B1 (en) * 2014-03-24 2016-10-04 Amazon Technologies, Inc. Interactions based on multiple stylus inputs
KR20150126494A (ko) * 2014-05-02 2015-11-12 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20160034685A (ko) * 2014-09-22 2016-03-30 삼성전자주식회사 전자장치에서 객체 입력 방법 및 장치
US10037137B2 (en) * 2014-12-23 2018-07-31 Lenovo (Singapore) Pte. Ltd. Directing input of handwriting strokes
US10083163B2 (en) * 2016-08-10 2018-09-25 Adobe Systems Incorporated Completing fields in electronic documents by automatically assigning drawing input

Also Published As

Publication number Publication date
CL2018002719A1 (es) 2019-01-18
MX2018011574A (es) 2019-01-28
BR112018016175A2 (pt) 2018-12-18
US11144196B2 (en) 2021-10-12
EP3436915A1 (en) 2019-02-06
WO2017184294A1 (en) 2017-10-26
RU2018134170A3 (ja) 2020-06-16
CN108885530A (zh) 2018-11-23
PH12018550126A1 (en) 2019-02-27
AU2017252170A1 (en) 2018-08-23
RU2018134170A (ru) 2020-03-30
AU2017252170B2 (en) 2022-02-17
IL261497B2 (en) 2023-06-01
ZA201805312B (en) 2019-10-30
IL261497A (en) 2018-10-31
US20170285931A1 (en) 2017-10-05
US20200125253A1 (en) 2020-04-23
SG11201808020SA (en) 2018-10-30
CA3014942A1 (en) 2017-10-26
CO2018010521A2 (es) 2018-10-10
KR20180122732A (ko) 2018-11-13

Similar Documents

Publication Publication Date Title
JP7377319B2 (ja) タッチ感知式セカンダリディスプレイにおいてユーザインタフェースコントロールを動的に提供するシステム、デバイス、及び方法
US11144196B2 (en) Operating visual user interface controls with ink commands
US9886188B2 (en) Manipulating multiple objects in a graphic user interface
US20240089230A1 (en) Method and system for organizing and interacting with messages on devices
US20130111380A1 (en) Digital whiteboard implementation
JP5922598B2 (ja) マルチタッチ利用、ジェスチャ及び実装
JP5260733B2 (ja) ソースオブジェクトから少なくとも1つの対象オブジェクトに対するアニメーションエフェクトのコピー
US20050015731A1 (en) Handling data across different portions or regions of a desktop
CN107272999A (zh) 提供上下文菜单的方法、设备和计算机可读存储介质
US11250208B2 (en) Dynamic whiteboard templates
US11036806B2 (en) Search exploration using drag and drop
US11249627B2 (en) Dynamic whiteboard regions
CN108885505B (zh) 具有交互式内容元素的直观文档导航
JP5864689B2 (ja) 情報処理装置、情報処理方法および記録媒体
US20120229397A1 (en) Method and apparatus for selecting desired contents on read text in portable terminal
CN107209756B (zh) 在标记语言文档中支持数字墨水
CN107977155B (zh) 一种手写识别方法、装置、设备和存储介质
US9753630B1 (en) Card stack navigation
EP2965181B1 (en) Enhanced canvas environments
US9189150B2 (en) Information processing device, information processing method, and computer-readable medium that determine an area of a display screen to which an input operation belongs
JP6398706B2 (ja) 入力方法、入力装置及びプログラム
CN113901776A (zh) 音频交互方法、介质、装置和计算设备
CN113705178A (zh) 文档处理方法、装置、电子设备及介质
JP2018092418A (ja) プログラム及び表示制御装置
CN113377220A (zh) 信息存储方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210921