JP4772380B2 - ジャストインタイムのユーザ支援を提供する手法 - Google Patents

ジャストインタイムのユーザ支援を提供する手法 Download PDF

Info

Publication number
JP4772380B2
JP4772380B2 JP2005155753A JP2005155753A JP4772380B2 JP 4772380 B2 JP4772380 B2 JP 4772380B2 JP 2005155753 A JP2005155753 A JP 2005155753A JP 2005155753 A JP2005155753 A JP 2005155753A JP 4772380 B2 JP4772380 B2 JP 4772380B2
Authority
JP
Japan
Prior art keywords
user
help
information
user interface
help information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005155753A
Other languages
English (en)
Other versions
JP2005339560A (ja
JP2005339560A5 (ja
Inventor
エー.ロッシ ジュニア ロバート
エム.スワンソン トレント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2005339560A publication Critical patent/JP2005339560A/ja
Publication of JP2005339560A5 publication Critical patent/JP2005339560A5/ja
Application granted granted Critical
Publication of JP4772380B2 publication Critical patent/JP4772380B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems

Description

本発明は、ユーザのコンピュータデバイスとの対話を支援するためにユーザに情報を提供する手法に関する。
ソフトウェア開発者は、通例、開発製品に「ヘルプ」機能を組み込む。このヘルプ機能は、ユーザにヘルプ情報を提供してユーザが製品と対話するのを支援する。そのようなヘルプ情報をユーザに提供する多数の技術が存在する。そのような技術の1つでは、ヘルプ機能は、ユーザが関心のあるトピックに関する検索語を入力するのを可能にする。例えばテキスト編集のソフトウェアアプリケーションの状況で、ユーザは、表のセルをフォーマットする方法を知りたい場合がある。ヘルプ機能は、ユーザが、そのテキスト編集作業に関する検索語を入力できるようにする。別の技術では、ヘルプ機能は、想定されるユーザ入力動作のシミュレーションとその結果行われるソフトウェア製品の振る舞いを提供することにより、一般的なトピックに関するデモンストレーションを提供することができる。典型的なデモンストレーションは、スライドショーを利用したフォーマット、ビデオを利用したフォーマット、動画のフォーマットなどを使用する。ユーザは通常、ソフトウェア製品と対話する前に、このデモンストレーションを見る。いずれの場合も、従来のデスクトップ環境においては、ヘルプ機能は、1つまたは複数のパネル型の表示(例えばワシントン州レドモンドのマイクロソフト社によって製造されるWindows(登録商標)(商標)オペレーティングシステムで提供されるウィンドウ型の表示)の形態でヘルプ情報を表示する。ヘルプ機能は、普通、そうしたパネル型の表示を、ユーザが現在対話している主要アプリケーションの作業スペースの上または近くに提示する。
Peter Walsh, Advanced 3-D Game Programming Using DirectX(登録商標) 8.0, Wordware Publishing, Inc., Plano, Texas, 2002, pp. 441-445
上記のヘルプ機能は、多くの状況で完全に満足の行くものではない。一般に、ソフトウェア製品は、ヘルプ機能と主要アプリケーションと満足の行く形で一体化せず、ユーザがヘルプ機能と主要なアプリケーションとの間を、繰り返し切り替えることが必要とされる。そうした対話は、別個のヘルプ機能と対話するために現在行っている作業からユーザの注意をそらすので、ユーザの気を散らす可能性がある。さらに、ヘルプ機能を起動すると、自身が現在行っている作業に関連するヘルプ情報を見つけるために、ユーザは込み入った煩瑣な動作を行わなければならない場合がある。さらに、このように効果的な一体化がないために、ユーザは、ヘルプ機能で得た知識を行っている作業に応用する際に苦労する可能性がある。
さらに、多くのコンピュータデバイスは、比較的狭い表示画面を用いる。例えば、携帯電話や、携帯情報端末(PDA)、各種のラップトップコンピュータはいずれも、従来のコンピュータワークステーションの表示装置と比べて、表示画面が狭い。そうした狭い表示画面は、しばしば、上記の方式、すなわち別個のヘルプのパネルタイプを表示することによりヘルプ情報を提示するための、表示画面の「面積」をそもそも持たない。
したがって、ヘルプ情報をユーザに伝達する、より効果的な技術を提供する典型的なニーズがある。
例示的な実施によれば、ユーザにヘルプ情報を与える方法が記述される。この方法は、(a)主要アプリケーションによって生成された、少なくとも関連付けられた1つのユーザインターフェース機能を含むアプリケーションインタフェースを提供するステップと、(b)アプリケーションインタフェースの上に重なるヘルプ選択機構を提供し、その機構により、ユーザが、上記で明らかにした少なくとも1つのユーザインターフェース機能に関するヘルプ情報を要求することができるステップと、(c)ヘルプ選択機構を介してユーザからヘルプ要求を受け取るステップと、(d)受け取ったヘルプ要求に応答して、ユーザが主要アプリケーションとの対話を続けることができる方式によりヘルプ情報をユーザに提示するステップと、を備える。
別の例示的な特徴によれば、この方法は、携帯電話デバイス、携帯情報端末デバイス、ラップトップコンピュータデバイス、タブレット型入力装置、着用型コンピュータデバイス、の少なくとも1つを使用して行われる。
別の例示的な特徴によれば、この方法は、コンピュータワークステーションを使用して行われる。
別の例示的な特徴によれば、上記で明らかにしたヘルプの選択機構を提供するステップは、アプリケーションインタフェースの上に重なるシースルーパネルを提供するステップを備える。
別の例示的な特徴によれば、上記で明らかにしたユーザからヘルプ要求を受け取るステップは、ユーザが、ヘルプ選択機構の上で、上記で明らかにした少なくとも1つのユーザインターフェース機能の近くにマーカーを配置したことを示す情報を受け取るステップを備える。
別の例示的な特徴によれば、上記で明らかにしたユーザからヘルプ要求を受け取るステップは、ユーザが、ヘルプ選択機構の上で、マーク付け機構を使用して前記少なくとも1つのユーザインターフェース機能の近くに印を作成したことを示す情報を受け取るステップを備える。
別の例示的な特徴によれば、この方法はさらに、ユーザのヘルプ要求を受け取るのに応答して、ユーザに提示すべきヘルプ情報を判定するステップを備え、ユーザに提示すべきヘルプ情報の判定は、人間のアシスタントにより、ユーザのヘルプ要求に基づいてユーザに伝達するヘルプ情報を手作業で判定するステップを備える。
別の例示的な特徴によれば、上記で明らかにしたユーザにヘルプ情報を提示するステップは、音声のヘルプ情報をユーザに提示するステップを備える。
別の例示的な特徴によれば、上記で明らかにしたユーザにヘルプ情報を提示するステップは、視覚的なヘルプ情報をユーザに提示するステップを備える。
別の例示的な特徴によれば、上記で明らかにしたユーザに視覚的ヘルプ情報を提示するステップは、ヘルプ選択機構の上にヘルプ情報を提示するステップを備える。
別の例示的な特徴によれば、上記で明らかにしたユーザにヘルプ情報を提示するステップは、ユーザが本方法を行うコンピュータデバイスに対してローカルなソースからヘルプ情報を伝達するステップを備える。
別の例示的な特徴によれば、上記で明らかにしたユーザにヘルプ情報を提示するステップは、ユーザが本方法を行うコンピュータデバイスに対してリモートのソースからヘルプ情報を伝達するステップを備える。
この方法に関連する装置、機械読取り可能媒体、およびシステムも記述される。
この他の実施および特性は以下に記述される。
開示と図を通して、同様の構成要素および機能には同じ符号を使用して参照する。一連の100番台の参照符号は、最初に図1に現れる機能を指し、一連の200番台の参照符号は、最初に図2に現れる機能を指し、一連の300番台の参照符号は、最初に図3に現れる機能を参照する。
主要アプリケーションとのユーザの対話にとって過度に邪魔にならない方式によって、ヘルプ情報を提供するヘルプ機能が記述される。このヘルプ機能は、各種の特徴を通じてこの結果を達成する。1つの特徴によれば、ヘルプ機能は、主要アプリケーション自体と完全に一体化されたヘルプ情報を提供する。これにより、ヘルプ機能は、ヘルプ情報を分析して選び出し、主要アプリケーションとユーザの対話の適切な時点にヘルプ情報を伝達することができる。すなわち、このヘルプ機能は、ユーザがそのような情報を必要とするちょうどその時に、関連するヘルプ情報を提供する。すなわち、いわゆる「ジャストインタイム」のヘルプ情報を提供する。この手法は、ユーザがアプリケーション作業を行う前に概略的なチュートリアルを見たり、または、汎用的な検索エンジンと対話して当該の機能について調べたりすることによって、煩瑣なステップを経ることを必要とする従来のアプリケーションと一線を画している。
別の特徴によれば、ヘルプ情報は、主要アプリケーションからユーザの注意力を過度にそらさない方式によって提示される。すなわち、ヘルプ機能は、主要アプリケーションの「上に」、一体的にヘルプ情報を重ねる各種技術を提供する。この機能を実施する技術の1つは、ユーザが現在行っているアプリケーション作業に関連する音声のヘルプ情報を提供する。この機能を実施する別の技術は、主要アプリケーションの上に重ねられるシースルーパネルを提供するものであり、その場合は、シースルーパネルを介してヘルプ情報が要求され、シースルーパネルの上にヘルプ情報が提示されることができる。この機能を実施する別の技術は、主要アプリケーションにより提供されるアプリケーションインタフェースの中に提供された、表示フィールドと表示フィールドの間にヘルプ情報を挿入し、それにより、ある意味では、それらのフィールドを一時的に引き離してヘルプ情報のための空間を作る。上記のいずれの場合も、ヘルプ機能は、中央の支援センターからヘルプ情報を提供することも、コンピュータデバイスにとってローカルなソース(例えばローカルストレージ)から、(または中央とローカル両方のソースから)ヘルプ情報を提供することもできる。
さらに他の特徴とそれに伴う利益は、以下の説明において述べる。
ヘルプ機能は、ソフトウェアおよび/またはファームウェア(固定された論理回路など)を使用して実施することができる。本明細書で使用される用語「機能」、「ロジック」、「モジュール」は、一般に、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアの組み合わせを表す。例えば、ソフトウェアによる実施の場合、用語「機能」、「ロジック」、または「モジュール」は、処理装置またはデバイス(CPUなど)で実行された時に指定されたタスクを行うプログラムコードを表す。プログラムコードは、1つまたは複数のコンピュータ読取り可能のメモリデバイスに記憶することができる。本明細書で述べられる別個のものとしての機能、ロジック、およびモジュールの区分は、そのようなソフトウェアおよび/またはハードウェアの実際の物理的なグループ化と割り振りを表すことができ、あるいは、1つのソフトウェアプログラムおよび/またはハードウェア装置によって行われる種々のタスクの概念的な割り振りに対応することができる。ここに述べられる機能、ロジック、およびモジュールは、1つの場所に配置しても(1つの処理装置によって実施される場合など)、複数の場所に分散してもよい。
用語「ヘルプ情報」は、コンピュータデバイスで作業を行う際にユーザを支援するように意図された任意タイプの情報を指す。ヘルプ情報は、テキスト情報、絵/グラフィックの情報、記号的な情報、音声情報、触覚的な情報など、またそのような形態の情報の各種の組み合わせからなることができる。
本明細書で使用される用語「主要アプリケーション」は、ヘルプ情報が関連するいずれのソフトウェア機能またはハードウェア機能をも指す。例えば、主要アプリケーションは、任意種のオペレーティングシステムで提供される機能に関することが可能である。あるいは、主要アプリケーションは、基礎となるオペレーティングシステムのサービスを使用して動作する任意種のユーザアプリケーションに関する場合もある。さらに、これに代えて、主要アプリケーションは、ユーザが装置と対話する際の助けとなる、その装置と一体化されたヘルプ機能を提供する任意種の機械的な装置または電気的な装置を指すこともできる。いずれの場合も、主要アプリケーションがユーザとのインターフェースをとるために使用するユーザインターフェースの提示を、「アプリケーションインタフェース」と称する。
コンピューティング環境では、ヘルプ機能を使用して、任意種の主要アプリケーションを実施する任意種のコンピュータデバイスとユーザが対話するのを支援するヘルプ情報を提供することができる。このヘルプ機能は、目障りにならない方式によって支援を提供することができるので、携帯電話、各種の着用型コンピューティングデバイス、携帯情報端末(PDA)デバイス、タブレットタイプの携帯デバイス、ラップトップコンピュータなどの表示画面が狭いコンピュータデバイスに適用される場合に特に有用である。しかし、このヘルプ機能は、従来型のワークステーションコンピューティング環境など、従来型のコンピューティング環境にも適用することができる。
この開示は、次のセクションを含む。セクションAは、ヘルプ機能を実施する例示的システムについて記述する。セクションBは、セクションAのシステムと対話する例示的方法について記述する。
A.例示的システム
A.1. システムの概要
図1は、ユーザ102より、一般的には複数のユーザ(図示せず)にヘルプ情報を提供する例示的システム100を示す。ヘルプ情報は、ユーザデバイス104を介してユーザ102に伝達される。1つのモードでは、ヘルプ情報は、ユーザデバイス104のローカルストレージから供給されることができる。別のモードでは、ヘルプ情報は、リモートにある支援センター106から供給されることができる。システム100の上記の主要な構成要素(すなわちユーザデバイス104と支援センター106)それぞれについて下記で説明する。
ユーザデバイス104は、任意種の主要アプリケーションを実行する任意タイプのコンピューティングデバイスからなることができる。コンピューティングデバイスの詳細なタイプには、任意種の携帯/モバイルデバイス(携帯電話、PDA、タブレット型入力装置、着用型コンピュータなど)、任意種のラップトップコンピュータデバイス、任意種の特定用途デバイス(ゲームコンソールなど)、任意種の据え置き型汎用コンピュータデバイス(コンピュータワークステーションなど)が含まれる。この多様性を表すために、図1では、システム100が、種々のユーザデバイスの中でも特に、典型的な携帯電話108、典型的なラップトップコンピュータ110、典型的なPDA112、典型的なタブレット型入力装置114、および典型的なコンピュータワークステーション116を含む他のユーザデバイスと対話できるものとする。
典型的なユーザデバイス104は、1つもしくは複数のプロセッサ118、コンピュータ可読命令および他のデータを記憶するROMメモリ120およびRAMメモリ122、各種のローカル記憶媒体126(各種の磁気媒体、光学媒体、固体媒体など)と対話するメディアインターフェースとそれに関連付けられたメディアドライブ124を含むことができる。一実施では、RAMメモリ122は、オペレーティングシステムとそのオペレーティングシステムの上で実行される各種のユーザアプリケーションなどの主要アプリケーションの機能を定義する機械可読命令を受け取ることができる。RAMメモリ122は、ヘルプ機能128の動作を定義する機械可読命令も受け取ることができる。主要アプリケーションとヘルプ機能128は、プロセッサ118がRAM122に記憶された命令を実行すると、ユーザ102に提供される。しかし、主要アプリケーションおよび/またはヘルプ機能128によって行われる1つまたは複数の動作は、すべてもしくは一部分を、プログラムすることができない(ハードワイヤードなど)論理回路によって実施することもできる。さらに、主要アプリケーションおよび/またはヘルプ機能128によって行われる1つまたは複数の動作は、リモートの支援センター106(下記で説明する)など別の処理デバイスに割り当てることができる。(ヘルプ機能128で実施されるジオメトリ処理機能、すなわちGPF164については、下記のセクションA.2.iiiで説明する)。
ユーザデバイス104は、1つまたは複数の入力装置から入力を受け取り、1つまたは複数の出力装置に出力を提供する入出力インターフェース130も含むことができる。そのような入力装置は、従来のキーボードやキーパッドなど、任種のキー入力装置132を含むことができる。出力装置は、任意種のスピーカ装置など任意種の音声出力装置134を含むことができる。音声出力装置134を使用して、音声によるヘルプ情報をユーザ102に与えることができる。上記の入力装置および出力装置は例示的なものであり、限定的なものではない。図1では、システム100は、各種のジョイスティック、トラックボール、データグローブなどを含む各種の他の入力装置および出力装置136を含むことができるものと示す。
ユーザデバイス104は、表示装置140を介して視覚的情報をユーザ102に提示する表示ロジック138も含むことができる。表示装置140には、主要アプリケーションおよびヘルプ機能128に関連付けられた情報を表示する任意タイプのデバイスが含まれる。典型的な携帯電話108、典型的なPDA112、典型的なタブレット型デバイス114などの場合などの場合には、表示装置140をユーザデバイス104自体の筐体の中に組み込むことができる。他の場合には、典型的なワークステーション116の場合など、表示装置140は、別個の表示モニタやテレビなどからなることができる。いずれの場合も、ユーザデバイス104は、表示装置140にグラフィカルユーザインターフェースの提示142を表示することができる。そのようなグラフィカルユーザインターフェースの提示142は、主要アプリケーションから提供されるアプリケーションインタフェースと、ヘルプ機能128から提供されるヘルプ情報を提示することができる。下記で説明する図2は、ユーザデバイス104によって提示することができるグラフィカルユーザインターフェース表示142の一例を示す。あるいは、表示装置140は、テキスト情報などグラフィックによらない提示を提供することもできる。
ユーザデバイス104は、任意種の外部エンティティと対話するためのネットワークインターフェース144も含むことができる。ネットワークインターフェース144は、ブロードバンド結合デバイス、DSL結合デバイス、モデム方式の結合デバイス、2地点間結合デバイスなど、任意種の結合デバイスからなることができる。
上記のユーザデバイス104の構成要素は、例示的なものであり、限定的なものではない。まとめて「その他のモジュール」と表記した機能146により表されるように、ユーザデバイス104は、各種の他のモジュールを含むことができる。ユーザデバイス104は、図1に示すモジュールの1つまたは複数を省略してもよい。いずれの場合も、1つまたは複数のバス148が、上記のすべての構成要素をともに結合する。
ユーザデバイス104は、独立型モードでヘルプ情報を提供することができる。このモードでは、ユーザデバイス104によって提供されるヘルプ機能128は、ローカル記憶媒体126にローカルに記憶されたヘルプ情報を提供することができる。この場合、ユーザデバイス104は、諸機能を行うために外部のエンティティと通信する必要がない。
しかし、別の実施では、ユーザデバイス104は、リモートの支援センター106との協同的な関与を通じて、ヘルプ情報を提供することができる。支援センター106は、複数のユーザデバイス(デバイス104、108、110、112、114、116...)と対話する任意種のヘッドエンドインフラストラクチャを表すことができる。図1では、そのようなインフラストラクチャを概略的に「処理機能」150と示す。ある場合には、処理機能150は、サーバファームとしてともに結合された1つまたは複数のコンピュータサーバなど、1つまたは複数の処理デバイスを用いることができる。図示しないが、各サーバは、1つまたは複数の処理デバイス(CPUなど)、ROM、RAM、メディアインターフェースとそれに関連付けられたドライブ、各種の入出力装置、ネットワークインターフェースなど、ユーザデバイス104と同じ種類の構成要素を含むことができる。各サーバは、サーバがそれに帰されたサーバ関連タスクを行うことを可能にするソフトウェアも含むことができる。
処理機能150は、1つまたは複数のデータベース152(以下では便宜上単数とする)に結合することができる。データベース152は、任意種の磁気媒体、光学媒体、固体素子媒体、または他の種類の媒体を使用して実施することができる。さらに、支援センター106は、データベース152を管理するために任意の種のデータベース技術を用いることができる。データベース152を使用して、ローカルの記憶媒体126から提供されるヘルプ情報に代えて、あるいはその補助として、ユーザデバイス104に与えるヘルプ情報を記憶することができる。
処理機能150は、1つの場所に置くことができる。あるいは、処理機能150は、複数の場所に分散することもできる。同様に、データベース152も1つの場所に記憶しても、複数の場所に分散してもよい。
支援センター106の処理機能150は、ユーザ102に自動的にヘルプ情報を提供する自動支援モジュール154を提供することができる。例えば、自動支援モジュール154は、ユーザ102からの明示的な要求があると、または、ユーザ102が主要アプリケーションと対話した結果、ユーザ102に自動的にヘルプ情報を供給することができる。これに代えて、またはこれに加えて、処理機能150は、1人または複数の人間のアシスタント158がユーザ102にヘルプ情報を提供するための手動支援モジュール156を提供することができる。これらの機能(154、156)は、上記のタスクを行うように適切に構成された1つまたは複数のコンピュータデバイスなど、上記で明らかにしたそれに帰されたタスクを行う任意種のソフトウェアおよびハードウェアを含むことができる。それらのモジュール(154、156)は、ユーザデバイス104によって提供されるローカルのヘルプ機能128に加えてユーザ102にヘルプ情報を提供する役割を果たすので、図1では、自動支援モジュール154と手動支援モジュール156をまとめてヘルプ機能128としている。
処理機能150はさらに、結合機構162を介してユーザデバイス104(または他のユーザデバイス)と対話するためのインターフェース機能160を含む。結合機構162は、TCP/IPネットワーク(インターネットやイントラネットなど)、任意種の無線ネットワーク、LANネットワーク、イーサネット(登録商標)ネットワークなど(またはそれらのネットワークの組み合わせ)など、任意種のネットワークを含むことができる。インターネットによる実施の場合、結合機構162は、各種の有線リンクおよび/または無線リンク、各種のルータ、各種のゲートウェイ、各種のネームサーバなど(図示せず)を含むことができる。あるいは、結合機構162は、支援センター106とユーザデバイス104間の2地点間の結合を表すこともできる。
要約すると、用語「ヘルプ機能」128は、ローカルのヘルプ機能128(ユーザデバイス104によって提供される)および/またはリモートのヘルプ機能128(自動支援モジュール154および/または手動支援モジュール156を含む)によって提供されるサービスの組み合わせを指すことができる。呼び出される特定のヘルプ機能128は、開発者が下記で述べる動作を実施することを選択する方式によって決まる。あるいは、システム100は、数個の異なるヘルプモード(例えばローカルのヘルプモードとリモートのヘルプモード)で動作することができ、ユーザ102がそれらのモードの1つを選択することができる。
A.2. ヘルプ機能
ヘルプ機能128は、ユーザ102が現在行っている特定のアプリケーション作業を判定し、そして、目障りにならない方式で、特にその作業に合わせられたヘルプ情報を提示することができる。ユーザ102がその情報を必要とするちょうど時に適切なヘルプ情報が自動的に提示され、主要アプリケーションとのユーザ102の対話を過度に妨げないので、この機能は、上記のジャストインタイムのヘルプ情報の伝達を可能にする。図2〜図5を参照して、ジャストインタイムのヘルプ機能128の2つの態様について述べる。第1の態様は、ヘルプ機能128が、ユーザ102の主要アプリケーションとの対話の様々な時点にユーザ102に与えるヘルプ情報を判定する方式に関する。第2の態様は、ヘルプ機能128が、そのようにして判定されたヘルプ情報をユーザ102に提示する方式に関する。
A.2.i. 関連するヘルプ情報の識別
第1の態様に関して、ヘルプ機能128は、種々の技術を使用して、ユーザ102に提示すべきヘルプ情報を判定することができる。図2は、アプリケーションインタフェース204の上に提示されるシースルーパネル202からなるユーザインターフェース表示142を用いるそのような技術の1つを示す。
アプリケーションインタフェース204は、主要アプリケーションによって提供されるユーザインターフェースの提示を指す。すなわち、アプリケーションインタフェース204は、サービスをユーザ102に伝達するために主要アプリケーションによって提供される通常の一連のページを指す。説明のために、アプリケーションインタフェース204が、ユーザ102が商品またはサービスを注文することができる、例示的なアプリケーションに関連しているものとする。アプリケーションインタフェース204は、ユーザインターフェース機能の任意の組み合わせを含むことができる。図2には、一連のドロップダウンメニュー206を含むアプリケーションインタフェース204の1ページを示す。1つのドロップダウンメニュー208が展開され、その例示的な内容を示している。アプリケーションインタフェース204は、タブのついた複数のフォルダ210、複数のいわゆるラジオボタン212、複数のコマンドボタン(214、216)、1つまたは複数のテキスト入力フィールド218なども含むことができる。図2に示すこれらのユーザインターフェース機能(206〜218)の選択および位置の配置は、例示的なものに過ぎない。
シースルーパネル202は、アプリケーションインタフェース204の上に置かれる。シースルーパネル202は、ユーザ102がそれを通して、アプリケーションインタフェース204に提示された情報を見ることができるプロパティを有する。シースルーパネル202は、完全に透明なパネルの外観(透き通ったウィンドウにあるかのような)であっても、半透明のパネルの外観(下にあるアプリケーションインタフェース204の内容を明らかにするが、何らかの形によって内容の外観を変化させる何らかの種のウィンドウなど)であってもよい。いずれにせよ、シースルーパネル202は、ユーザ102が、下にあるアプリケーションインタフェース204とパネル202を区別できるような何らかの視覚的属性を備えることが好ましい。ある場合には、シースルーパネル202は、例えば表面にガラスの筋模様が模されたガラス板に似たものにすることができる。これに加えて、またはこれに代えて、シースルーパネル202は、下にあるアプリケーションインタフェース204と区別ができるよう、色づけ(灰色など)を持つこともできる。これに加えて、またはこれに代えて、シースルーパネル202は、アプリケーションインタフェース204の少し上に物理的なシースルーパネルを配置した様子を模した影付き効果を持つこともできる。さらに視覚的効果を使用して、アプリケーションインタフェース204の上に透明なものが重ね置かれた印象を作り出すことができる。ある場合には、アプリケーションインタフェース204を構成する1つまたは複数のウィンドウ型パネルの上に配置され、それらのパネルを包含する透明なプロパティを有するウィンドウ型のパネルとして、シースルーパネル202を概念化し、実施することができる。シースルーパネル202を実施するために使用することができる例示的な機構に関するさらなる情報は、下記のセクションA.2.iiiにおいて提示される。
一実施においては、主要アプリケーションはアプリケーションインタフェース204に情報を提示し、ヘルプ機能128はシースルーパネル202に情報を提示する。図2では、例えば、ヘルプ機能128が、シースルーパネル202の上に移動可能なポインタ220を提示している。ユーザ102は、ポインタ220を動かして、ユーザ102がヘルプ情報を得たいアプリケーションインタフェース204中のユーザインターフェース機能をポイントすることができる。例えば、ユーザ102が、コマンドボタン214によって行われる機能について分からない点があるとする。その機能について知るために、ユーザ102は、下にあるアプリケーションインタフェース214のコマンドボタン214を指すように(またはボタン214から所定の近さとなるように)ポインタ220をシースルーパネル202の上に配置することができる。ユーザ102は、キーボード入力装置、ジョイスティック入力装置、トラックボール入力装置、マウスタイプの入力装置など、任意の種類の入力装置を使用して、ポインタ220を動かすことができる。
上記のようにユーザ102がポインタ220の位置を合わせるのに応答して、ヘルプ機能128は、ユーザ102が関心を持つアプリケーションインタフェース204機能を判定することができる。この判定は、各種の方式によって実行することができる。ある場合には、ヘルプ機能128は、ポインタ220が下にあるアプリケーションインタフェース204機能から特定のX−Y方向の距離にあるかどうかを、判定することができる。アプリケーションインタフェース102に表示されている内容に関する情報は、アプリケーションインタフェース204を表示するために使用されるコードから情報を抽出し、または、現在アプリケーションインタフェース204に提示されている機能に関する情報を提供するアクセシビリティインターフェースに照会するなどの各種の方式によって、判断することができる。ユーザ102が対象とするアプリケーションインタフェース204の機能を判定すると、ヘルプ機能128は、その機能に関連付けられたヘルプ情報を(以下説明する方式によって)提供する。
ヘルプ機能128は、アプリケーションインタフェース204内の機能を指定する他のマーキング技術に依ることができる。例えば、ヘルプ機能128は、ユーザ102がスタイラスを使用して関心のある機能に手動で印をつけられるようにすることができる。そのマークはシースルーパネル202上に追加され、下にあるユーザインターフェース機能を指定することができる。例えば、図2では、ユーザ102がスタイラスを使用してメニューリスト208の中において、一つのメニュー項目の周りに円222を描き、テキスト入力ボックス218の隣に疑問符マーク224を置いている。ヘルプ機能128は、シースルーパネル202に描かれたこのようなユーザの状況を示唆する疑問を表している形状を検出することができる、自動化されたテキスト/形状認識機能を含み、その認識結果に応じて反応することができる。
ユーザ102がアプリケーションインタフェース204中の種々の機能をポイントすることができる、さらに他の技術を使用することができる。例えば、代替的な実施においては、ヘルプ機能128は、ユーザ102が、アプリケーションインタフェース204自体(すなわちシースルーパネル202を提供しない)の中において、ポインタ(または他のマーク)を移動できるようにすることができる。さらに別の場合、ヘルプ機能128は、ユーザ102が、例えば入力装置を起動するのに応答してアプリケーションインタフェース204内を移動ことにより、種々のアプリケーションインタフェース機能を連続して強調表示できるようにすることができる。それに応答して、ヘルプ機能128は、現在強調表示されているアプリケーションインタフェース機能に関するヘルプ情報を提供するように構成することができる。ヘルプ機能128は、ユーザ102がアプリケーションインタフェース204内の機能をポイントすることを可能にする、さらに追加的な技術を提供することができる。
上記のすべての実施においては、ユーザ102は、何らかの選択機構を使用してアプリケーションインタフェース204の機能をポイントしてその機能に関するヘルプ情報を受け取るのと同時に、下にあるアプリケーションインタフェース204と通常の方式によって、対話をすることができる。例えば、図2の場合、ユーザ102は入力装置を使用してシースルーパネル202の上でポインタ220を動かすことができ、また、同じく入力装置を使用して下にあるアプリケーションインタフェース204のコマンドボタン214を起動することもできる。ヘルプ機能128は、この二重の制御機能を様々な方式によって可能とすることができる。1つの技術によれば、ヘルプ機能128は、ユーザ102が、操作したいユーザインターフェース表示142の部分を指定できるようにすることができる。すなわち、ヘルプ機能128は、ユーザ102が、入力動作の対象が、シースルーパネル202に関するのか、下にあるアプリケーションインタフェース204に関するのかを指定できるようにすることができる。これは、ユーザ102がシースルーパネル202を制御することに関心があるのか、下にあるアプリケーションインタフェース204を制御することに関心があるのかを指定するためのフォーカス制御機構(トグルスイッチなど)を備えることによって実施することができる。ユーザインターフェース表示142は、ユーザ102が現在注目しているユーザインターフェース表示142部分を反映する何らかの種の視覚的属性を表示することにより(その部分が選択されていることを示す強調表示状態でその部分を表示するなど)、その選択に応答するように構成することができる。シースルーパネル202または下にあるアプリケーションインタフェース204が選択されると、その後行われる入力動作は、選択された部分(すなわちシースルーパネル202、または下にあるアプリケーションインタフェース204)に向けられ、選択された部分に影響を及ぼす。代替的な実施においては、ヘルプ機能128は、2つの独立した入力制御機構を提供することができ、第1の入力制御機構は、単にシースルーパネル202のポインタ220を制御し、第2の制御機構は、下にあるアプリケーションインタフェース204の機能をコントロールする。これに代えて、またはこれに加えて、視覚フィールド自体に情報を加え、そのフィールドを対象とするユーザ動作が、上にあるシースルーパネル202に影響するのか、もしくは、下にあるアプリケーションインタフェース204に影響するのかを指示することもできる。例えば、その入力動作が明確にポインタ220を対象とするのでなければ、ユーザインターフェース表示142を対象とするユーザの入力動作(マウスのクリックなど)は、シースルーパネル202を「突き抜けて」下にあるアプリケーションインタフェース204をコントロールするように、シースルーパネル202に表示プロパティを割り当てることができる。
ヘルプ機能128は、ユーザ102が関心を持つ可能性のあるアプリケーションインタフェース204機能を判定するさらなる技術を提供することができる。代替的な技術の1つでは、ヘルプ機能128は、ユーザ102がアプリケーションインタフェース204内の機能を明確にポイントすることを必要としない場合がある。その技術では、ヘルプ機能128は、ユーザ102が以前に主要アプリケーションと対話する際に行った入力動作のみに基づいて、ユーザ102が特定のトピックに関心を持っていることを推測することができる。ユーザ102は、ユーザ102が戸惑っているか、あるいは、経験が浅いことを示唆する形で、主要アプリケーションと対話をする場合がある。例えば、ユーザ102は、誤った情報を繰り返し入力する、もしくは、予期される時間内に何も情報を入力しないなど、ユーザ102がヘルプを必要としていることを表す入力パターンを表す連続した入力動作を行う場合がある。別の例では、ユーザ102は、特定商品のオンライン購入など、特定タイプのトランザクションを行っている過程にあることを総合的に示唆する連続した入力動作を行っている場合がある(この場合、ユーザ102はその動作を行う際に誤りをしている場合も、そうでない場合もある)。その分析に基づいて、ヘルプ機能128は、ユーザ102が現在対話をしている、または、間もなく対話をするであろうアプリケーションインタフェース204のある一面に的を絞ったヘルプメッセージを引き出すことができる。この方式は、ユーザ102が現在問題を抱えている、または間もなく問題を抱えると思われるアプリケーションインタフェース204の側面をインテリジェントに判断することに基づいて、ユーザ102にジャストインタイムの支援を提供する。別の実施では、自動的にヘルプトピックを推測するこの能力を、上記の明示的にポイントする方式と組み合わせることができる。その実施では、ヘルプ機能128は、ユーザ102が現在ポイントしているアプリケーションインタフェース機能に対応するヘルプ情報と、以前にユーザ102が行った動作に基づいて、ヘルプ機能128が行う状況分析を提供することができる。
ユーザ102が対象としているアプリケーションインタフェース204の機能を判定すると、ヘルプ機能128は、対象とされる機能に関連付けられたヘルプ情報を取り出す。これは様々な方式で行うことができる。1つの場合には、ヘルプ機能128は、特定された機能をインデックスとして使用して、特定された機能に対応する、あらかじめ記憶されたヘルプ情報を取り出すことができる。この対応付けの動作は、主要アプリケーションの一部として実施しても、主要アプリケーションと別個の機能として実施してもよい。ある場合には、主要アプリケーションの様々な部分が、その個々の部分に該当するヘルプ情報を識別するXML(拡張可能マークアップ言語)情報を含むことができる。ユーザ102がアプリケーションインタフェース204の特定の部分を特定すると、その部分に関連付けられたXML情報にアクセスすることができ、そのXML情報をポインタまたはインデックスとして使用して、対応するヘルプ情報を取り出すことができる。
さらに他の手法を使用して、主要アプリケーションの部分をそれに対応するヘルプ情報と関係付けることができる。例えば、上記で指摘したように、ヘルプ機能128は、ユーザ102によって行われた以前の入力動作のパターンを考慮するなどの状況分析に基づいて、取り出すヘルプ情報を判定することもできる。より具体的には、ヘルプ機能128は、一連のユーザ102の入力動作に関する情報を取り込み、記憶することができる。この情報は、ユーザ102がユーザインターフェース204に関して問題を抱えている、あるいは、複数段階からなるトランザクションを行っている最中であることを伝えることができえるパターンを定義する。ヘルプ機能128は、入力パターンを、あらかじめ記憶されたそのようなパターンのデータベースと比較し、一致があると、その一致したパターンに関連付けられたヘルプ情報を取り出すことにより、入力パターンに適したヘルプ情報を取り出すことができる。あるいは、ヘルプ機能128は、パターン中のユーザの状況を示唆する主要な動作のパターンを調べ、その主要な動作に関連付けられたヘルプ情報を取り出すことにより、この動作を行うこともできる。
任意種のパターンマッチング機能、人工知能機能、制約処理機能など、各種の機構を使用して上記の動作を行うことができる。上記のいずれの場合でも、その機構は、長い期間にわたってユーザ102の入力動作についての分析を行って、その動作に反映される一般的な入力パターンのタイプ、その動作を行う際にユーザ102によって犯される一般的なエラーのタイプ、ユーザ102がアプリケーションインタフェース204のある側面を使用するのに問題を抱えている時に役立つことが分かっている一般的なヘルプ情報のタイプ、を判定する学習機能を組み込むことができる。ヘルプ機能128は、その分析を適用して、ユーザ102のヘルプに関連する必要性をより正確に判断し、関連する情報をユーザ102に提供することができる。ヘルプ機能128は、その学習を、複数ユーザの動作の総合的な分析に基づいて行うこともできる。さらに別の実施では、ヘルプ機能128は、ユーザ102のヘルプに関する必要性のステートレス(stateless)な判断を提供することができ、その場合は、ユーザ102のアプリケーションインタフェース204との現在の対話の状況に関係なく、ユーザ102による特定の動作は、常に同じタイプのヘルプ情報を表示させる。
上記のいずれの場合でも、ヘルプ機能128を実施するロジックは、主としてローカルの場所に(例えばユーザデバイス104により)提供されても、または主としてリモートの場所(例えば支援センター106により)に提供されても、またはローカルな場所とリモートの場所の両方に提供されるロジックの組み合わせとして提供されてもよい。同様に、ヘルプ情報自体も、主としてローカルな場所に記憶されても(例えばユーザデバイス104に)、主としてリモートの場所に記憶されても(例えば支援センター106に)、またはローカルの場所とリモートの場所の両方に提供されたストレージの組み合わせによって記憶されてもよい。
上記の例は、ユーザ102がアプリケーションインタフェース204の機能を特定した際のヘルプ情報の自動的な取り出しを強調した。しかし、さらに別の実施では、リモートモードで、ヘルプ機能128は、人間のアシスタント158に依拠してユーザ102のヘルプに関する必要性を判断することができる。例えば、ある場合には、手動支援モジュール156は、人間のアシスタント158が、主要アプリケーションと対話する際のユーザ102の動作を監視できるようにする機能を含むことができる。例えば、ヘルプ機能128は、人間のアシスタント158が、ユーザ102に提示されているアプリケーションインタフェース204の複製を見られるようにする機構を提供することができる。そして、アシスタント158自身の個人経験と判断に基づいて、アシスタント158が、ユーザ102に伝達すべきヘルプ情報を判断することができる。図示しないが、ユーザデバイス104は、音声伝達機構(ユーザ102から音声信号を受け取るマイクロフォンなど)を含むことができる。それにより、ユーザ102は、抱えている問題をアシスタント158に直接説明することができる。(あるいは、別の実施では、自動支援モジュール154がユーザ102の音声入力を受け取り、音声認識技術を使用してユーザ102の質問を判定することができる。)
A.2.ii. 判定されたヘルプ情報の提供
第2のジャストインタイムの伝達の態様は、上記のように判定されたヘルプ情報をユーザ102に提示する独自の方式に関する。ヘルプ機能128は、そのような情報を多くの異なる方式で伝達することができる。概要として、ヘルプ機能128は、音声情報、視覚情報(テキストおよび/またはグラフィック情報)、または音声情報と視覚情報の組み合わせとして、ヘルプ情報を伝達することができる。ヘルプ機能128は、主としてローカルの記憶媒体126、リモートのデータベース152から、またはローカルの記憶媒体126とリモートデータベース152の組み合わせからヘルプ情報を供給することができる。
まず、図2を参照して音声情報の伝達の場合を考察する。コマンドボタン214によって、ショッピングカートの画面が呼び出されるとする。したがって、ポインタ220をシースルーパネル202上でコマンドボタン214の近くに置くと、ヘルプ機能128が、例示的な音声ヘルプ情報226「コマンド1でショッピングカートが起動します。購入内容を確認するにはこのボタンを押してください」を提示する。したがって、音声情報は、ユーザ102がたまたまその時に対話しているアプリケーションインタフェース204の特定の部分を明確に対象としている。
ヘルプ機能128は、この音声情報を種々の方式で供給することができる。この音声情報は、ローカルの記憶媒体126、リモートのデータベース152から、またはローカルおよびリモート両方のソースから供給されることができる。音声情報はあらかじめ録音された人間の声、あらかじめ録音された合成音声、記憶されたテキスト情報または何らかの他の技術に基づいてリアルタイムで生成される音声情報とすることができる。いずれにせよ、音声情報は、単語、フレーズ、および/または文の異なる部分に相当するセグメントとして記憶することができる。ヘルプ機能128は、アプリケーションインタフェース204とのユーザ102の対話の状況に応じて、それらの部分を組み合わせてユーザ102に伝達する意味のある内容を形成することができる。ある場合には、組み合わせられるヘルプ指示の種々の可能な置き換えが、ユーザ102に提示することができる限定された命令のセットを定義する。別の場合には、ヘルプ機能128は、アプリケーションインタフェース204とのユーザ102との現在の対話の状況に基づいて、制約のない動的な方式で指示を組み立てるように構成することができる。その場合、ヘルプ機能128によって作成されるヘルプ指示の置き換えの数は、制限がないか、いずれにせよ非常に多くすることができる。この場合も、人工知能機能、制約処理機能などを使用して、アプリケーションインタフェース204とのユーザ102の状況固有の対話に応じて、適切な指示をインテリジェントに構成することができる。
音声のヘルプ情報は、音声出力装置134(スピーカなど)に任意の方式で供給することができる。例えば、リモートモードでは、音声のヘルプ情報は、RTP(リアルタイムプロトコル)、RTCP(リアルタイムコントロールプロトコル)、RTSP(リアルタイムストリーミングプロトコル)、あるいは他のフォーマットなどのプロトコルを使用して、音声出力装置134に転送することができる。ストリーミングプロトコルの代わりに、リモートのヘルプ機能128は、例えば完全なファイルなどで一括して音声情報を転送することができ、転送されると、ユーザデバイス104は続いてその情報をユーザ102に提示する。さらに別の場合には、リモートのヘルプ機能128は、命令(インデックス情報など)だけをユーザデバイス104に転送することができ、転送されると、ユーザデバイス104は、その命令を使用してローカルの記憶媒体126から音声情報を引き出し、それをユーザ102に提示する。さらに他の技術を用いて音声情報の提示を実現することができる。
別の実施によれば、人間のアシスタント158が、結合機構162または何らかの他の音声伝達チャネルを通じて、リアルタイムの音声指示をユーザ102に提供することができる。そうした音声指示は、ユーザ102が遭遇している可能性のある問題のタイプに関するアシスタント158の経験に基づくことができる。上述したように、ユーザデバイス104は、ユーザ102自身の声を受け取り、それを支援センター106に転送する機構も含むことができる。それにより、ユーザ102はアシスタント158に返答することができる。自動支援モジュール154は、ユーザ102の質問と返答を自動的に分析する音声認識技術も含むことができる。この機構を通じて、システム100は、ユーザ102とアシスタント158の会話に対応することができる。
音声モードでは、ヘルプ機能128は、ヘルプ情報を目障りにならない方式で伝達することができる。すなわち、音声情報は、その性質上、場合によってはユーザの注意力をそらす情報でアプリケーションインタフェース204を雑然とさせない。ヘルプ機能128は、ユーザ102によるポインタ220の配置に依拠して、ユーザ102に提示すべきヘルプ情報を判定することができるが、このポインタ220は比較的少ない量のオーバーヘッド情報であり、したがって、アプリケーションインタフェース204を過度に雑然とさせない。さらに、ヘルプ機能128は、このポインタ220をシースルーパネル202の上に提示し、そのため、ポインタ220によって生じる注意力の散漫をさらに低減する。ヘルプ情報は基本的にアプリケーションインタフェース204の「上に」目障りにならないように重ねられ、アプリケーションインタフェース204を効果的に補うが、その他の点ではインターフェース204の通常の外観と雰囲気を妨げることはないため、この機構は、より良いユーザ体験につながる。
これに代えて、またはこれに加えて、ヘルプ機能128は、視覚的なヘルプ情報を提示することができる。図2では、視覚的なヘルプ情報228がシースルーパネル202自体の上に提示されている。これは、そのヘルプ情報228が、アプリケーションインタフェース204の表示機能と分離しているという印象を与える。その結果、ユーザ102は主要アプリケーションによって提示されている情報と、ヘルプ機能128によって提示されている情報をより容易に区別することができるので、可能性としてユーザ102の混乱を軽減する。図2では、視覚的なヘルプ情報228は、アプリケーションインタフェース204のどの機能の上にも重ならないように提示されている。しかし、他の場合には、ヘルプ機能128は、アプリケーションインタフェース204の機能の一部分に重なるように視覚的なヘルプ情報228を提示することができる。視覚的なヘルプ情報は、下が透けて見えるプロパティを有することもできる。そうした表示プロパティはすべて、ユーザ102を過度に混乱させることなく、狭い空間に多くの量の情報を提示することを可能にし、そのため、表示画面が狭い小型のコンピューティングデバイスに理想的である。
視覚的なヘルプ情報は、図2に示すテキスト形態以外の他の形態をとることができる。例えば、ヘルプ機能128は、記号による情報、絵による情報、動画のデモンストレーションなどを提示することができる。また、ヘルプ機能128は、アプリケーションインタフェース204自体の上に直接視覚的ヘルプ情報を提示することもできる。いずれの場合も、ヘルプ機能128は、所定の時間後、またはユーザ102による明示的な要求に応答して(ユーザ102がヘルプ情報228をクリックする、あるいはヘルプ情報228を対象とする何らかの他の入力を行うのに応答して)、ヘルプ情報228を自動的に除去することができる。
他の技術を使用して、目障りにならない形で視覚的なヘルプ情報を提示することができる。図3に、そのような代替的な技術の1つを示す。図3に示すように、ユーザ102は、この場合もコマンドボタン214を指すようにポインタ220を配置している。しかし、この場合は、ヘルプ機能128は、アプリケーションインタフェース204の上においてユーザインターフェース機能を実際に動かして、間を空けることにより、視覚的なヘルプ情報302を提示する。この場合、ヘルプ機能128は、コマンドボタン214およびコマンドボタン216を移動させて離し、コマンドボタン214とコマンドボタン216の間に視覚ヘルプ情報302を挿入する。ヘルプ情報302が除去されると、ヘルプ機能128は、コマンドボタン214とコマンドボタン216を移動して再び一緒にすることができる。上記で説明したように、ヘルプ機能128は、所定の時間後、あるいはユーザ102からの明示的な要求に応答して(ユーザ102がヘルプ情報302の上でクリックする、あるいはヘルプ情報302を対象とする何らかの他の入力動作を行うのに応答して)、ヘルプ情報302を自動的に除去することができる。図3の実施では、ヘルプ機能128は、視覚的ヘルプ情報302をシースルーパネル202の上に提示している。しかし、ヘルプ機能128は代わりに、アプリケーションインタフェース204自体の上に視覚的なヘルプ情報302を提示し、したがって、場合によってはシースルーパネル202の使用を省くこともできる。
したがって、図3は、ヘルプ情報の提示に対応するためにアプリケーションインタフェース204の一部が移動される、動的なヘルプ情報提示の方式を示す。これは、ユーザインターフェース表示142の上にインテリジェントにヘルプ情報を配置して、ヘルプ情報と、それに対応してそのヘルプ情報が説明するインターフェース機能との、概念的な関連付けを促進するので、ユーザのユーザインターフェース表示142の理解を促す。また、ユーザインターフェース表示142の内容を動的に配置して、一時的なヘルプ情報の表示に対応することができるので、ディスプレイが小さいコンピュータデバイスに理想的である。
一般に、音声ヘルプ情報の場合と同様に、ヘルプ機能128は、視覚的ヘルプ情報を種々の方式で供給することができる。この情報は、ローカルの記憶媒体126、リモートデータベース152、またはローカルおよびリモート両方のソースから供されることができる。視覚的ヘルプ情報は、単語、フレーズ、および/または文などの異なる部分に相当するセグメントとして記憶することができる。ヘルプ機能128は、アプリケーションインタフェース204とのユーザ102の対話の状況に応じて、それらの部分を組み合わせてユーザ102に伝達する意味のある内容を形成することができる。このようにして、ヘルプ機能128は、限定されたグループの可能な視覚的ヘルプ指示、または、動的で制約のない方式で場合によっては制限のない数のそのような指示、を形成することができる。視覚的ヘルプ情報は、SMIL(Synchronized Multimedia Integration Language)など任意のプロトコルに基づいて、任意の方式によって、ユーザインターフェース表示142に供給することができる。
別の実施では、人間のアシスタント158が、ユーザデバイス104の表示装置140でユーザ102に提示する視覚的ヘルプ情報を手動で入力(タイプ入力など)することができる。
上記のいずれの場合でも、再生型のコントロール230を使用して、ヘルプ情報(音声情報または視覚的情報。あるいはその両方)の再生を制御することができる。例えば、ユーザ102が、より多くの情報が欲しい機能としてコマンドボタン214を特定したとする。それがヘルプ機能128に指示して、コマンドボタン214を説明する音声セグメントまたは動画の視覚デモンストレーションを提示させることができる。再生コントロールによって、ユーザ102は、例えば情報の一部分を再生する、情報を一時停止する、情報を別の部分に早送りするなどにより、そのヘルプ情報の再生を制御することができる。
最後に、シースルーパネル202は、ヘルプ機能128に直接関連しない機能をいくつか提供することもできる。例えば、図2または図3を参照すると、ユーザデバイス104は、ユーザ102が、スタイラスを使用して作成された例示的なメモ232「ジェームスに電話する」などの手書きのメモをシースルーパネル202に追加できるようにする方式で構成することができる。ユーザデバイス104は、ユーザ102がそのようなメモを保存し、後に取り出せるようにする方式を含むことができる。
上記で明らかにした音声および視覚による提示機能は、どのようなユーザデバイスに関しても有用であるが、小型のユーザデバイス(携帯電話、PDA、タブレット型の入力装置など)に特に役立つ。これは、そうした小型のデバイスは、そのサイズに応じて表示画面が狭いためである。そうしたデバイスでは、しばしばユーザインターフェースの複雑性に厳しい制約がある。上記で説明した音声情報と視覚的情報の伝達は、表示画面を過度に複雑にする(雑然とさせるなど)ことがなく、したがってそうした小型のユーザデバイスに理想的である。
A.2.iii ヘルプ機能の具体的な例示的実施
図4に、図2のユーザインターフェース表示142の一部の構造を示す。ユーザインターフェース表示142は、アプリケーションインタフェース204の上に配置されたシースルーパネル202を含む。図4は、(説明のために)文字通りアプリケーションインタフェース204の上方に配置されたシースルーパネル202を示すことにより、その2つの視覚的構成要素(202、204)の区別を強調している。アプリケーションインタフェース204は、いくつかのユーザインターフェース機能を含むことができ、その1つがコマンドボタン214である。シースルーパネル202は、ポインタ202(または他のマーク)と、コマンドボタン214を説明する視覚的ヘルプ情報228を含む。
上述したように、ユーザ102は、アプリケーションインタフェース204の任意の場所にポインタ220を置いてアプリケーションインタフェース204の種々の機能をポイントし、そしてその機能に対応するヘルプ情報228を受け取ることができる。図4の例では、ユーザ102は、コマンドボタン214を指すようにポインタ220を配置している。それに応答して、ヘルプ機能128は、コマンドボタン214のいくつかの側面を説明する視覚的ヘルプ情報228を提示する。
それと同時に、ユーザデバイス104は、ユーザ102がアプリケーションインタフェース204と対話することを可能にする。したがって、アプリケーションインタフェース204と対話する際に、ユーザ102は、コマンドボタンおよびオプションを起動する、テキスト入力フィールドに情報を入力するなどして、シースルーパネル202を「突き抜けて」パネル202の機能と対話する。図4の場合、線402で示すように、ユーザ102は、シースルーパネル202を突き抜けてコマンドボタン214を起動することができる。
上記の機能は、様々な方式によって実施することができる。1つの技術では、各種のアプリケーションプログラミングインターフェース(API)(マイクロソフト社から提供されるWin32(登録商標)APIスイートなど)を使用して、シースルーパネルの視覚的な錯覚を実装することができる。この技術では、APIを使用して、一時的な「作業用」記憶領域(図示せず)を使用して、ユーザインターフェース表示142を定義するピクセル情報を構築し、そのピクセル情報を、表示ロジック138によって提供される周期的にリフレッシュされるフレームバッファ(図示せず)に転送することができる。次いで、ユーザデバイス104は、フレームバッファに記憶されたピクセル情報に基づいて、表示装置140にユーザインターフェース表示142を表示することができる。ユーザデバイス104は、まず、アプリケーションインタフェース204の各種機能を含んだ基本層を作成し、次いでシースルーパネル202の各種機能を追加するなどにより、作業用記憶領域のユーザインターフェースフィールドの異なる「層」を連続的に適用することにより、上記のようにインターフェース表示142を構築することができる。第1の層の上に第2の層を加えることにより、第1の層におけるピクセル集合の上に重ね書きした効果を得ることができる。例えば、シースルーパネル202の効果を模すために、ユーザデバイス104は、本来のアプリケーションインタフェース204のピクセルの上に、シースルーパネル202の擬似的なガラスの筋模様を定義するピクセルの集まりを重ね書きすることができる。所望のシースルーパネル効果が実現されると、ユーザデバイス104は、その結果得られた合成のユーザインターフェース表示142を定義するピクセル情報を、ビットブロック転送(blit)技術などの任意種の機構を使用して、作業用記憶領域からフレームバッファに転送することができる。ビットブロック転送技術では、長方形のピクセルグループが表示メモリに転送される。代替の技術においては、コンピュータデバイス104が、直接フレームバッファを操作することにより、所望のシースルーパネル効果を作り出すことができる。
上記の技術のいずれにおいても、アルファブレンディングを使用してシースルー効果を作り出すことができる。アルファブレンディングは、次のように、最終的な画像情報=(元の画像情報)*(元のアルファ係数)+(目標画像情報)*(目標アルファ係数)となるように、元の画像情報と目標画像情報を混合して最終的な画像情報を作成するように機能する。アルファ係数は、通常0から1までの範囲を取り、元の画像情報と目標画像情報がともに混合されて、別の層の上に重ね合わせられたある程度の透明性を有する1つの情報層の錯覚を作り出す程度を定義する。このようなブレンド動作は、ユーザデバイス104によって提供されるユーザインターフェース表示142全体を包含的に定義するように大域的規模で行っても、他のユーザインターフェース機能(Windows(登録商標)(商標)オペレーティングシステムなど)と連係して適用して、そのような他のユーザインターフェース機能で提供されるユーザインターフェース表示の特定の側面だけを支配してもよい。
上記のブレンド動作を行う例示的なツールの1つは、マイクロソフト社から提供されるDirectX(登録商標)ソフトウェア製品ラインから得られる。この製品を使用したアルファブレンディングについての概略的な背景情報は、いくつかの情報源から得ることができる(非特許文献1)。
図4に示すシースルーパネルを実装するにはさらなる手法が存在する。例えば、ユーザデバイス104は、ヘルプ情報を提示する第1の面と、アプリケーションインタフェース情報を提示する第2の面の、ともに挟み込まれた2つの物理的な表示画面を実際に提供することができる。
シースルー効果を作り出すために使用される技術に関わらず、シースルーパネル202に取り込まれるユーザインターフェース機能(ポインタ220など)は、種々の方式で作成することができる。ある技術では、ユーザデバイス104は、下にあるアプリケーションインタフェース204にも利用することができる既存のユーザインターフェースリソースライブラリを使用することにより、そうしたユーザインターフェース機能を提供することができる。別の技術では、ユーザデバイス104は、そのような既存のユーザインターフェースリソースの1つまたは複数に動的に変更を加えることにより、そうしたユーザインターフェース機能を提供することができる。さらに別の技術では、ユーザデバイス104は、既存のユーザインターフェースリソースに直接相当する機能がない新しいユーザインターフェース機能を動的に作成することにより、そうしたユーザインターフェース機能を提供することができる。あるいは、ユーザデバイス104は、上記の技術の組み合わせを適用することができる。
同様に、図3に示すユーザインターフェース機能の動的な移動も種々の方式で実装することができる。ある機構によれば、ヘルプ機能128は、ユーザインターフェース表示142上へのユーザインターフェース機能の表示を管理するジオメトリ処理機能(GPF)164を含むことができる。ヘルプ機能128がヘルプ情報を表示しようとする際に、GPF164は、現在表示されているユーザインターフェース機能の集合のどこにヘルプ情報を挿入するかを判定し、必要な場合は、ヘルプ情報の表示に対応するために、現在表示されているそれらのユーザインターフェース機能をどのように移動するかを決定することができる。
GPF164は、上記のタスクを種々の方式で行うことができる。1つの技術では、ユーザインターフェース表示142中の各ユーザインターフェース機能に、メモリに記憶されたメタデータを関連付けることができる。種々の情報の中でも特に、メタデータは、ユーザインターフェース機能に関連付けられた重要度を決定する情報を含むことができる。例えば、ヘルプ機能128は、コマンドボタン214などの1つまたは複数のコントロールに比較的高い重要度を割り当てることができる。例えば、ボタン214なしではユーザ102は主要アプリケーションと対話することができないので、コマンドボタン214が重要とみなされるとする。一方、主要アプリケーションは、そのような重要な役割を果たさない他のユーザインターフェース機能を提供する場合もある。例えば、図2を参照すると、主要アプリケーションは、ユーザ102が必須でないコメントを入力できるテキスト入力ボックス218を提供する場合がある。そのため、そのテキスト入力ボックス218が一時的に取り除かれても、主要アプリケーションとのユーザ102の対話は不可能にならない。したがって、ヘルプ機能128は、テキスト入力ボックス218にはコマンドボタン214と比較して、低い重要度を割り当てることができる。この優先度の順位付け方式では、ヘルプ機能128は、ヘルプ情報自体にも重要度を割り当てることができる。一般に、ユーザインターフェース機能とヘルプ情報は、それらの機能と情報を提示するために必要とされる表示「面積」を定義する、関連付けられた表示フィールドを有する。
ヘルプ情報を表示するように促されると、GPF164は、現在表示されているユーザインターフェース機能に割り当てられた上記の優先度と、ヘルプ情報自体に割り当てられた優先度に基づいて、(必要な場合は)移動されるべき表示フィールドを判定することができる。例えば、例示的な一例では、GPF164は、すべてのヘルプ情報に比較的高い優先度の順位付けを割り当てることができる。その場合、GPF164は、ユーザインターフェース表示142に現在表示されているユーザインターフェース機能の中で、最も優先度が低いものを判定することにより、そのヘルプ情報を表示する要求に応えることができる。そして、GPF164は、それらの機能に関連付けられた表示フィールドを一時的に移動させてヘルプ情報の表示に対応する。また可能であれば、ユーザインターフェース表示142からそのような表示フィールドの1つまたは複数を一時的に取り除くこともできる。例えば、図3では、GPF164は、コマンドボタン214を移動させてコマンドボタン216から一時的に離し、それらのボタン(214、216)の間にできた空間にヘルプ情報302を挿入することにより、ヘルプ情報302を表示している。これにより、ユーザインターフェース表示142の他の表示フィールドも移動される可能性があり、また、この例では、テキスト入力ボックス218(図2に示す)全体が一時的にユーザインターフェース表示142から除去することができる(その結果を図3に示す)。この除去は、様々な要素の中でも特に、テキスト入力ボックス218に関連付けられた重要度が低く、主要アプリケーションとのユーザ102の対話を不可能にすることなく取り除くのに都合がよいということを反映することができる。GPF164は、所定の時間後(数秒あるいは数分など)、あるいはユーザ102の明示的なコマンドに応答して、ユーザインターフェース表示142を元の状態に戻すように構成することができる。これは、ヘルプ情報を取り除き、表示フィールドを元の位置に移動することを伴う。一方、ヘルプ情報の重要度が現在表示されているユーザインターフェース機能に比べて比較的低い場合は、GPF164は、ヘルプ情報の提示を完全に禁止することも出来る。
GPF164は、移動するフィールドに関連付けられたピクセル座標に表示位置のオフセットを足し、そのオフセット表示座標を使用してユーザインターフェース表示142を再描画するなどにより、上記の表示フィールドの移動を任意の方式で実施することができる。そして、GPF164は、表示フィールドを元の表示座標に戻し、再度ユーザインターフェース表示142を再描画することにより、ユーザインターフェース表示142を初期の状態に戻すことができる。
GPF164は、種々のUI空間管理パラダイムを応用して、どのように表示フィールドを移動するかを決定することができる。具体的で例示的な基本的事例の1つでは、GPF164は、a)ヘルプ情報をどこに挿入するかを決定し、b)ヘルプ情報を表示するために必要な長方形の「高さ」H(図3に示すヘルプ情報フィールド302の縦の長さで定義されるものなど)を判定し、c)挿入位置の上にあるすべての表示フィールドを上に1/2H移動し、挿入位置の下にあるすべての表示フィールドを下に1/2H移動し、d)それにより作られた空間にヘルプ情報302を表示することができる。さらに複雑なアルゴリズムを使用することができる。例えば、GPF164は、横と縦両方の表示方向にフィールドを移動するように構成することができる。
GPF164は、ヘルプ情報の表示を決定する各種の発見的規則を適用するように構成することもできる。例えば、ユーザインターフェース機能に割り当てられる優先度は、静的である必要はない。規則の集まりによって、異なる状況でユーザインターフェース機能に割り当てられる優先度を決定することができる。例えば、ユーザ102が特定のユーザインターフェース機能について問い合わせている場合は、それに応じてその機能の優先度を上げて、ユーザインターフェース表示142から取り除かれないようにする。別の規則の集まりで、ユーザ102が問い合わせているユーザインターフェース機能に対してヘルプ情報を表示する場所を決定することができる。例えば、ヘルプ情報が表示されたユーザインターフェース表示142の理解を促すために、ヘルプ情報はできる限り対象機能の近くに表示することが望ましい。別の規則の集まりで、ヘルプ情報の表示に対応するために(現在問い合わせられていない)他のユーザインターフェースフィールドをどのように移動するかを決定することができる。例えば、ユーザインターフェース機能の中には他のユーザインターフェース機能のグループにリンクされているものがある場合があり、そのグループ中の機能の1つが移動される場合は、そのグループをまとめて移動することが望ましい場合などがある。下にあるアプリケーションインタフェース204の設計と他の環境および設計に関連する要素に応じて、さらに他の規則を定義することができる。
さらに、GPF164は、各種の最適化アルゴリズムを適用して、ヘルプ情報を挿入する場所と、そのようなヘルプ情報の表示に対応するために存在する表示フィールドを動かす方式を決定するように構成することができる。すなわち、そのようなアルゴリズムは、任意種のオペレーションリサーチ手法を適用して、ユーザインターフェース機能と提示するヘルプ情報に関連付けられた長方形の表示フィールドの最適な「パッキング」を提供することができる。さらに、GPF164は、任意種の人工知能(エキスパートシステムなど)分析あるいは制約処理分析を応用して、ヘルプ情報の表示に対応するためにどのようにユーザインターフェース表示142を再構成するかを決定するように構成することができる。
上記のいずれの場合においても、GPF164は、追加的なメタデータのフィールドをユーザインターフェース機能に関連付けることを必要とすることにより、動作をさらに向上することができる。例えば、優先度情報に加えて、ヘルプ機能128は、様々な表示状況でどのようにユーザインターフェース機能を動かすかを決定するメタデータを作成することができる。このメタデータは、例えば、他のユーザインターフェース機能に対してユーザインターフェース機能をどのように移動するか(または移動しないか)を定義することができる(それらの機能がすべて同時に表示されているとして)。GPF164は、そのような補助メタデータを読み出し、ヘルプ情報の表示に対応するためにユーザインターフェース表示142をどのように変更するかを判定する際にそのメタデータを使用するように構成することができる。さらに、ヘルプ機能128は、すべてのヘルプ情報に同じ重要度を割り当てる必要はない。一部のヘルプ情報は、他のヘルプ情報よりも重要であると判断されてよい。
上記のジオメトリ処理の実例は、例示的なものであり、制限的ではない。ヘルプ機能128が用いられる技術的環境に応じて、他の技術および機構を使用することができる。さらに、図1では、GPF164がヘルプ機能128のモジュールとして実施されているが、ユーザデバイス104は、ヘルプ機能128からアクセス可能な独立した機能モジュールとしてGPF164を提供することができる。さらに、図ではGPF164はユーザデバイス104によって実施されているが、全体または一部を遠隔の処理リソース(支援センター106など)によって実施することもできる。
次いで図5を参照すると、ユーザ102が1つまたは複数のヘルプモード502を選択することができるユーザインターフェース500が示されている。すなわち、上記で述べたように、ヘルプ機能128は、様々な方式でヘルプ情報を供給することができる。選択肢の1つによれば、起動されるヘルプ機能128は、ローカルな場所、リモートの場所、または、ローカルな場所とリモートの場所の組み合わせに収容することができる。別のオプションによれば、ヘルプ機能128は、完全に自動化された方式、完全に手動の方式(人間のアシスタント158のサービスを使用するなど)、あるいは自動化された方式と手動方式の組み合わせによって、ヘルプ情報を伝達することができる。別の選択肢によれば、ヘルプ情報自体は、音声情報、視覚的情報、または音声情報と視覚的情報の組み合わせとすることができる。さらなる選択肢が可能である。上記で明らかにした選択肢の異なる個々の組み合わせに対応する、異なるヘルプモードを定義することができる。ユーザインターフェース500は、ユーザ102が、主要アプリケーションとユーザ102の対話を支配する1つまたは複数のヘルプモードを選択することを可能にする。
例えば、図5に示す例では、ユーザ102は、ヘルプ情報がリモート支援センター106(データベース152など)から供給されることを指定している。ユーザ102は、ヘルプ機能128が、人間のアシスタント158のサービスを用いずに、自動化された方式でヘルプ情報を伝達することも指定している。ユーザ102は、ヘルプ情報が、音声フォーマットと視覚的フォーマットの両方で提示されることも指定している。さらに、ユーザインターフェース500で、ユーザ102は、音声および/または視覚的なヘルプ情報が提示される方式を指定することにより、ヘルプ情報提示の好みをさらに詳細に指定することができる。例えば、音声による提示の場合、ユーザインターフェース500は、ユーザ102が、ストリーミング型のモード、一括配信型のモードなど、様々な音声配信タイプから選択できるようにすることができる。視覚による提示の場合、ユーザインターフェース500は、ユーザ102が、シースルーパネル202へのヘルプ情報の提示、アプリケーションインタフェース204の部分を動的に移動することによるヘルプ情報の提示など、様々な視覚的な伝達タイプから選択できるようにすることができる。
あるいは、環境に応じて、システム100は「ハードワイヤード」にして、ヘルプモードのオプションの1つまたは複数のみを提供することもできる(すなわち、ユーザ102にいくつかのヘルプオプションから選択させない)。
最後に、人間のアシスタント158によって使用されるリモート支援モジュール156は、種々の方式で実施することができる。例えば、リモート支援モジュール156は、マイクロソフト社のRemote Desktop機能あるいはそれに変更を加えたものを使用して、ユーザデバイス104の表示装置140に提示されているユーザインターフェース表示142を監視することができる。
B.例示的な動作方法
図6は、セクションAにおいて説明した機能の一部を、フローチャートの形で要約したものである。説明を簡単にするために、一般に、特定の動作は、特定の順序で行われる別個のステップを構成するものとして説明する。このような実施は、例示的なものであり、限定的なものではない。ここに記載されるステップのいくつかはまとめて、1回の動作で行うことができ、特定のステップは、本開示に述べられる例で用いられる順序とは異なる順序で行ってよい。
ステップ602において、主要アプリケーションと対話しているユーザ102が、ヘルプ情報を要求する。ユーザ102は、ポインタ220をアプリケーションインタフェース204における特定の機能の近くに置くことにより、この作用を行うことができる。あるいは、ユーザ102は、スタイラスなどでその機能に印をつけることができる。これに代えて、またはこれに加えて、ヘルプ機能128は、例えばユーザ102が以前に行った入力動作のパターンの分析に基づいて、ユーザ102がヘルプを必要としていることを自動的に推測することができる。
ステップ604において、ヘルプ機能128は、ヘルプ提示の状況を判断する。すなわち、このステップ604で、ヘルプ機能128は、ユーザ102に提示すべきヘルプ情報を決定する。ヘルプ機能128は、ポインタ220の位置に関する情報と、下にあるアプリケーションインタフェース204の機能を対応付けることにより、このタスクを行うことができる。これに代えて、またはこれに加えて、ヘルプ機能128は、ユーザ102が以前に行った入力動作の状況分析を行う(それにより、ユーザ102が行おうとしている動作の判定に基づいて、提示する該当ヘルプ情報を判定する)ことにより、この機能を行うこともできる。
ステップ606において、ヘルプ機能128は、ユーザ102によって選択された(あるいはシステム100で固定された)ヘルプモードに従って、ユーザ102にヘルプ情報を送る。可能なヘルプモードは、図5とともに明らかにした。
判定の菱形608で表すように、上記の手順は、ユーザ102が主要アプリケーション内を移動するのに伴って複数回繰り返すことができる。
最後に、図7は、図6に示す手順の結果であるヘルプ情報のジャストインタイムの伝達を示す。図7の最初の列は、ユーザ102が、主要アプリケーションによって提供されるアプリケーションインタフェース204(図7には示さない)に関して行うことができる、一連の動作(AA1、AA2、...、AAn)を示す。すなわち、最初の列は、所望のアプリケーション作業(オンラインショッピングサービスを介した商品注文など)を行うための、ユーザ102の主要アプリケーションとの通常の対話を表す。図7の2番目の列は、最初の列に示す動作に応答して提示される一連のユーザインターフェース表示142を示す。ユーザインターフェース表示142は、下にあるアプリケーションインタフェース204に関連付けられた、ヘルプに関連するインターフェース機能を含む。例えば、ユーザインターフェース表示142は、シースルーパネル202を含むことができ、このパネル202によって、ユーザ102はヘルプ機能120を呼び出すことができる。図7の3番目の列は、2番目の列に示すユーザインターフェース表示142によって可能にされたヘルプに関連するインターフェース機能に関して、ユーザ102が行うことができる一連の動作(AH1、AH2,...,AHn)を示す。例えば、これらの動作(AH1、AH2,...,AHn)は、ユーザ102が、ポインタ220(図7には示さない)を移動して、シースルーパネル202の下にある様々な機能をポイントする等である。代替的な実施では、ヘルプ機能128が状況分析に基づいてユーザ102が支援を必要とするトピックを自動的に推測することができ、または、人間のアシスタント158が、ユーザ102が支援を必要とするトピックを手作業で判定することができるという意味では、これらの動作は必須ではない。4番目の列は、3番目の列におけるイベントの結果提供される一連のヘルプ情報提示を示す。例えば、このヘルプ情報は、シースルーパネル202に提示される一連の視覚的なヘルプ情報メッセージ228(図7には図示せず)を表すことができる。
図7に示すように、このヘルプ機能128は、下にある主要アプリケーションと一体的に動作する。この一体化は、少なくとも2つの特徴から生じる。第1に、ヘルプ機能128は、自動的かつ適切にユーザ102が行っている作業を対象とするヘルプ情報をユーザ102に提供し、その情報は、ユーザ102がその情報を必要とするちょうどその時に提示される。第2に、ヘルプ機能128は、主要アプリケーションの動作を不必要に妨げない形で、ヘルプ情報を提示する。この意味で、ヘルプ機能128は、主要アプリケーションの「上に載って」おり、ユーザ102がその情報を必要とするちょうどその時に、関連する情報のみを提供する。
最後に、この開示ではいくつかの例は、代替的な実装として示した(例えばXの場合またはYの場合など)。また、この開示は、そうした包括的な(conjunctive)事例をすべての具体例では明確に言及していないが、複数の代替的な実施を1つの実施に組み合わせる(Xの場合とYの場合など)事例を含んでいる。
より一般的には、構造的特徴および/または方法論的動作に固有の用語により本発明を説明したが、特許請求の範囲に提示される本発明は、必ずしもここに記載される具体的な特徴または動作に限定されない。そうした具体的な特徴および動作は、特許権が請求される本発明を実施する例示的な形態として開示されている。
主要アプリケーションと対話しているユーザにヘルプ情報を提供する例示的システムの図である。 図1のシステムを使用してユーザにヘルプ情報を提供する例示的なユーザインターフェース表示の図である。 図1のシステムを使用してユーザにヘルプ情報を提供する別の例示的なユーザインターフェース表示の図である。 図2のユーザインターフェース表示の例示的構造を示す図である。 図1のシステムで提供することができる複数のヘルプ提示モードの1つをユーザが選択することができる例示的ユーザインターフェース表示の図である。 図1のシステムの動作を説明する例示的手順を示す図である。 図1のシステムの動作を説明する、例示的な一連の動作とそれに対応するユーザインターフェース表示を示す図である。
符号の説明
108 携帯電話
110 ラップトップコンピュータ
112 PDA
114 タブレット型入力装置
116 コンピュータワークステーション
202 シースルーパネル
204 アプリケーションインタフェース
208 ドロップダウンメニュー
220 ポインタ

Claims (20)

  1. ユーザにヘルプ情報を提示する方法であって、
    主要アプリケーションによって生成された、少なくとも1つの関連付けられたユーザインターフェース機能を含むアプリケーションインタフェースを提供するステップと、
    前記アプリケーションインタフェースに関連付けられた前記1つのユーザインターフェース機能の上に実質的に重なるシースルーパネルからなるヘルプ選択機構を提供するステップであって、前記ユーザが下にある前記1つのユーザインターフェースに関するヘルプ情報を要求することができることと、
    前記1つのユーザインタフェース機能が前記シースルーパネルによって実質的にオーバーレイされている間に、前記ユーザが前記ヘルプ選択機構の上で、前記1つのユーザインターフェース機能の近くにマーカーを置いたことを示す情報を受け取ること、または前記ユーザがマーク付け機構を使用して、前記ヘルプ選択機構の上において、前記1つのユーザインターフェース機能の近くにマークを作成したこと示す情報を受け取ることによって、前記ヘルプ選択機構を介して前記ユーザから前記下にある1つのユーザインタフェースに関するヘルプ要求を受け取るステップであって、前記ヘルプ要求は前記下にある1つのユーザインタフェース機能が前記シースルーパネル上で識別された後にユーザによって提出されることと、
    前記受け取られたヘルプ要求に応答して、前記ヘルプ選択機構によって提供された前記シースルーパネル上において前記ユーザに視覚的ヘルプ情報を提示するステップであって、前記1つのユーザインタフェース機能が前記シースルーパネルによって実質的に重なったままである間に、前記ユーザが前記主要アプリケーションと関連付けられた前記下にある1つのユーザインタフェース機能との対話ができることと
    を備えることを特徴とする方法。
  2. 前記方法は、携帯電話デバイス、携帯情報端末デバイス、ラップトップコンピュータデバイス、タブレット型入力装置または着用型コンピュータデバイスの少なくとも1つを使用して実行されることを特徴とする請求項1に記載の方法。
  3. 前記方法は、コンピュータワークステーションを使用して実行されることを特徴とする請求項1に記載の方法。
  4. 前記ユーザのヘルプ要求を受け取るのに応答して、前記ユーザにどのヘルプ情報を示すかを決定するステップをさらに備えることを特徴とする請求項1に記載の方法。
  5. 前記ユーザに提示するヘルプ情報を決定する前記ステップは、前記ユーザから受け取られた前記ヘルプ要求を、前記関連付けられたヘルプ情報に自動的に対応付けるステップを含むことを特徴とする請求項に記載の方法。
  6. 前記ユーザに提示するヘルプ情報を決定する前記ステップは、人間のアシスタントにより、前記ユーザのヘルプ要求に基づいて、前記ユーザに伝達する前記ヘルプ情報を手動で判定するステップを含むことを特徴とする請求項に記載の方法。
  7. 前記ユーザに前記ヘルプ情報を提示する前記ステップは、前記ユーザに音声のヘルプ情報を提示するステップを含むことを特徴とする請求項1に記載の方法。
  8. 前記ユーザに前記ヘルプ情報を提示する前記ステップは、前記ユーザが以前に前記アプリケーションインタフェースと対話する際に行った一連の動作から決定される、前記ユーザの前記アプリケーションインタフェースとの対話の状況に基づいて、ヘルプ情報を提示するステップを含むことを特徴とする請求項1に記載の方法。
  9. 前記ユーザに前記ヘルプ情報を提示する前記ステップは、前記ユーザが前記方法を実行するコンピュータデバイスに対してローカルなソースから前記ヘルプ情報を配信するステップを含むことを特徴とする請求項1に記載の方法。
  10. 前記ユーザに前記ヘルプ情報を提示する前記ステップは、前記ユーザが前記方法を実行するコンピュータデバイスに対してリモートのソースから前記ヘルプ情報を配信するステップを含むことを特徴とする請求項1に記載の方法。
  11. 請求項1に記載の前記アプリケーションインタフェースを提供するステップ、前記ヘルプ選択機構を提供するステップ、前記ヘルプ要求を受け取るステップならびに前記ヘルプ情報を提示するステップそれぞれを実施するコンピュータ可読命令を含むことを特徴とするコンピュータ読取り可能記録媒体。
  12. ユーザにヘルプ情報を提示する装置であって、
    表示装置と、
    主要アプリケーションによって生成された、少なくとも1つの関連付けられたユーザインターフェース機能を含むアプリケーションインタフェースを前記表示装置上に提供するように構成されたロジック実行手段と、
    前記アプリケーションインタフェースに重なるヘルプ選択機構を提供するように構成されたロジック実行手段であって、前記ヘルプ選択機構は、その上に移動可能なマーカーを提供するように、またはマーク付け機構によって付けられたマークを受け取るように構成され、前記ユーザに下にある前記1つのユーザインターフェースに関するヘルプ情報を要求することを可能とし、前記アプリケーションインタフェースに関連付けられた前記1つのユーザインターフェース機能の上に実質的に重なるシースルーパネルからなることと、
    前記1つのユーザインタフェース機能が前記シースルーパネルによってオーバーレイされている間に、前記ユーザが前記1つのユーザインターフェース機能の近くに前記マーカーを置いたことを示す情報を受け取ること、または前記ユーザが前記マーク付け機構を使用して前記ヘルプ選択機構の上の前記1つのユーザインターフェース機能の近くにマークを作成したことを示す情報を受け取ることによって、前記ヘルプ選択機構を介して前記ユーザから前記下にある1つのユーザインタフェースに関するヘルプ要求を受け取るように構成されたロジック実行手段であって、前記下にある1つのユーザインタフェース機能が前記ヘルプ選択機構によって提供された前記シースルーパネル上で識別された後に、前記要求がユーザによって提出されることと、
    前記受け取られたヘルプ要求に応答して、前記ヘルプ選択機構によって提供された前記シ-スルーパネル上において前記ユーザに視覚的ヘルプ情報を提示するように構成されたロジック実行手段であって、前記1つのユーザインタフェース機能が前記シースルーパネルによって実質的に重なったままである間に、前記ユーザが前記主要アプリケーションと関連付けられた前記下にある1つのユーザインタフェース機能との対話ができることと
    を備えたことを特徴とする装置。
  13. 前記装置は、携帯電話デバイス、携帯情報端末デバイス、ラップトップコンピュータデバイス、タブレット型入力装置または着用型コンピュータデバイスの少なくとも1つであることを特徴とする請求項12に記載の装置。
  14. 前記装置はコンピュータワークステーションであることを特徴とする請求項12に記載の装置。
  15. 前記ユーザに前記ヘルプ情報を提示する前記ロジック実行手段は、前記ユーザに音声のヘルプ情報を提示するように構成されたことを特徴とする請求項12に記載の装置。
  16. 前記ユーザに視覚的ヘルプ情報を提示する前記ロジック実行手段は、前記ユーザが以前に前記アプリケーションインタフェースと対話する際に行った一連の動作から決定される、前記ユーザの前記アプリケーションインタフェースとの対話の状況に基づいて、ヘルプ情報を提示するように構成されたことを特徴とする請求項12に記載の装置。
  17. 前記ユーザに前記ヘルプ情報を提示する前記ロジック実行手段は、前記装置に対してローカルなソースから配信された前記ヘルプ情報を受け取るように構成されたことを特徴とする請求項12に記載の装置。
  18. 前記ユーザに前記ヘルプ情報を提示する前記ロジック実行手段は、前記装置に対してリモートにあるソースから配信された前記ヘルプ情報を受け取るように構成されたことを特徴とする請求項12に記載の装置。
  19. 請求項12に記載の前記各ロジック実行手段の動作を実行するコンピュータ可読命令を含むことを特徴とするコンピュータ読取り可能記録媒体。
  20. ユーザにヘルプ情報を提示するシステムであって、
    前記ユーザにヘルプ情報を供給するように構成された支援センターと、
    結合機構と、
    前記結合機構を介して前記支援センターに結合された少なくとも1つの装置と
    を備え、
    前記少なくとも1つの装置は、
    表示装置と、
    主要アプリケーションによって生成された、少なくとも1つの関連付けられたユーザインターフェース機能を含むアプリケーションインタフェースを前記表示装置上に提供するように構成されたロジック実行手段と、
    前記アプリケーションインタフェースに重なるヘルプ選択機構を提供するように構成されたロジック実行手段であって、前記ヘルプ選択機構は、その上に移動可能なマーカーを提供するように、またはマーク付け機構によって付けられたマークを受け取るように構成され、前記ユーザに下にある前記1つのユーザインターフェースに関するヘルプ情報を要求することを可能とし、前記アプリケーションインタフェースに関連付けられた前記1つのユーザインターフェース機能の上に実質的に重なるシースルーパネルからなることと、
    前記1つのユーザインタフェース機能が前記シースルーパネルによってオーバーレイされている間に、前記ユーザが前記1つのユーザインターフェース機能の近くに前記マーカーを置いたことを示す情報を受け取ること、または前記ユーザが前記マーク付け機構を使用して前記ヘルプ選択機構の上の前記1つのユーザインターフェース機能の近くにマークを作成したことを示す情報を受け取ることによって、前記ヘルプ選択機構を介して前記ユーザから前記下にある1つのユーザインタフェースに関するヘルプ要求を受け取るように構成されたロジック実行手段であって、前記下にある1つのユーザインタフェース機能が前記ヘルプ選択機構によって提供された前記シースルーパネル上で識別された後に、前記要求がユーザによって提出されることと、
    前記受け取られたヘルプ要求に応答して、前記支援センタから前記ヘルプ情報を受け取るように構成されたロジック実行手段と、
    前記受け取られたヘルプ要求に応答して、前記ヘルプ選択機構によって提供された前記シ-スルーパネル上において前記ユーザに視覚的ヘルプ情報を提示するように構成されたロジック実行手段であって、前記1つのユーザインタフェース機能が前記シースルーパネルによって実質的に重なったままである間に、前記ユーザが前記主要アプリケーションと関連付けられた前記下にある1つのユーザインタフェース機能との対話ができることと
    を含むことを特徴とするシステム。
JP2005155753A 2004-05-28 2005-05-27 ジャストインタイムのユーザ支援を提供する手法 Expired - Fee Related JP4772380B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/857,543 2004-05-28
US10/857,543 US7346846B2 (en) 2004-05-28 2004-05-28 Strategies for providing just-in-time user assistance

Publications (3)

Publication Number Publication Date
JP2005339560A JP2005339560A (ja) 2005-12-08
JP2005339560A5 JP2005339560A5 (ja) 2008-07-10
JP4772380B2 true JP4772380B2 (ja) 2011-09-14

Family

ID=34978987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005155753A Expired - Fee Related JP4772380B2 (ja) 2004-05-28 2005-05-27 ジャストインタイムのユーザ支援を提供する手法

Country Status (3)

Country Link
US (1) US7346846B2 (ja)
EP (1) EP1603031A3 (ja)
JP (1) JP4772380B2 (ja)

Families Citing this family (196)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040130572A1 (en) * 2003-01-07 2004-07-08 Aravind Bala Active content wizard: execution of tasks and structured content
US7861162B2 (en) * 2003-11-14 2010-12-28 Samsung Electronics Co., Ltd. Help file generating method and apparatus
US7620896B2 (en) * 2004-01-08 2009-11-17 International Business Machines Corporation Intelligent agenda object for showing contextual location within a presentation application
JP4167205B2 (ja) * 2004-06-22 2008-10-15 松下電器産業株式会社 表示制御装置及び表示制御方法
JP4508745B2 (ja) * 2004-06-29 2010-07-21 キヤノン株式会社 情報処理装置及び画像編集装置並びにそれらの制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
US20070079383A1 (en) * 2004-08-31 2007-04-05 Gopalakrishnan Kumar C System and Method for Providing Digital Content on Mobile Devices
US7664736B2 (en) * 2005-01-18 2010-02-16 Searete Llc Obtaining user assistance
US8282003B2 (en) 2004-09-30 2012-10-09 The Invention Science Fund I, Llc Supply-chain side assistance
US8762839B2 (en) 2004-09-30 2014-06-24 The Invention Science Fund I, Llc Supply-chain side assistance
US9038899B2 (en) 2004-09-30 2015-05-26 The Invention Science Fund I, Llc Obtaining user assistance
US8704675B2 (en) 2004-09-30 2014-04-22 The Invention Science Fund I, Llc Obtaining user assistance
US7798401B2 (en) 2005-01-18 2010-09-21 Invention Science Fund 1, Llc Obtaining user assistance
US7922086B2 (en) 2004-09-30 2011-04-12 The Invention Science Fund I, Llc Obtaining user assistance
US8341522B2 (en) * 2004-10-27 2012-12-25 The Invention Science Fund I, Llc Enhanced contextual user assistance
US10445799B2 (en) 2004-09-30 2019-10-15 Uber Technologies, Inc. Supply-chain side assistance
US9307577B2 (en) * 2005-01-21 2016-04-05 The Invention Science Fund I, Llc User assistance
US10514816B2 (en) 2004-12-01 2019-12-24 Uber Technologies, Inc. Enhanced user assistance
US9747579B2 (en) 2004-09-30 2017-08-29 The Invention Science Fund I, Llc Enhanced user assistance
US9098826B2 (en) 2004-09-30 2015-08-04 The Invention Science Fund I, Llc Enhanced user assistance
US7694881B2 (en) * 2004-09-30 2010-04-13 Searete Llc Supply-chain side assistance
US10687166B2 (en) 2004-09-30 2020-06-16 Uber Technologies, Inc. Obtaining user assistance
US8942985B2 (en) 2004-11-16 2015-01-27 Microsoft Corporation Centralized method and system for clarifying voice commands
US20060129931A1 (en) * 2004-12-10 2006-06-15 Microsoft Corporation Integrated client help viewer for internet-based and local help content
US7587668B2 (en) * 2005-02-17 2009-09-08 Microft Corporation Using existing content to generate active content wizard executables for execution of tasks
US20090327888A1 (en) * 2005-05-31 2009-12-31 Ipifini, Inc. Computer program for indentifying and automating repetitive user inputs
US9361389B2 (en) * 2005-09-19 2016-06-07 International Business Machines Corporation Method for providing a state-based guidance and technology view for an application
US20070168457A1 (en) * 2006-01-18 2007-07-19 International Business Machines Corporation Apparatus and method for addressing computer-related problems
US7925975B2 (en) 2006-03-10 2011-04-12 Microsoft Corporation Searching for commands to execute in applications
US20090150825A1 (en) * 2006-03-13 2009-06-11 Fujitsu Limited Screen generation program, screen generation apparatus, and screen generation method
US8358976B2 (en) 2006-03-24 2013-01-22 The Invention Science Fund I, Llc Wireless device with an aggregate user interface for controlling other devices
US20080016385A1 (en) * 2006-07-13 2008-01-17 Hollingsworth Robert E Plain Language Announcement of Diagnostic and Troubleshooting Information for Users
US20080172612A1 (en) * 2007-01-11 2008-07-17 Melanie Allen Dynamic help references for software documentation
US7911481B1 (en) * 2006-12-14 2011-03-22 Disney Enterprises, Inc. Method and apparatus of graphical object selection
US20080155460A1 (en) * 2006-12-22 2008-06-26 Sherryl Lee Lorraine Scott System and method for panning content
US20080228927A1 (en) * 2007-03-15 2008-09-18 Microsoft Corporation Server directed browsing
KR20080084471A (ko) * 2007-03-16 2008-09-19 삼성전자주식회사 사용자의 버튼 조작 오류에 대한 도움말 제공방법 및 장치
KR101384527B1 (ko) * 2007-04-09 2014-04-11 삼성전자주식회사 도움말 제공 방법 및 장치
US20080288865A1 (en) * 2007-05-16 2008-11-20 Yahoo! Inc. Application with in-context video assistance
US8468451B1 (en) * 2007-06-27 2013-06-18 At&T Intellectual Property I, L.P. Online customer service via website navigation intervention
US8769407B2 (en) * 2007-07-31 2014-07-01 International Business Machines Corporation Pointing help system
US8631358B2 (en) * 2007-10-10 2014-01-14 Apple Inc. Variable device graphical user interface
US8943425B2 (en) * 2007-10-30 2015-01-27 Google Technology Holdings LLC Method and apparatus for context-aware delivery of informational content on ambient displays
US8151193B2 (en) 2007-12-21 2012-04-03 Symantec Corporation Providing image-based guidance for remote assistance
US8151192B2 (en) * 2008-02-01 2012-04-03 Microsoft Corporation Context sensitive help
US8341545B2 (en) * 2008-03-06 2012-12-25 Intuit Inc. System and method for focusing a view of data on a selected subset
US20090241956A1 (en) * 2008-03-27 2009-10-01 Nellcor Puritan Bennett Llc Method for controlling delivery of breathing gas to a patient using multiple ventilation parameters
US8640699B2 (en) 2008-03-27 2014-02-04 Covidien Lp Breathing assistance systems with lung recruitment maneuvers
US8490011B2 (en) 2008-05-14 2013-07-16 At&T Intellectual Property I, L.P. Display of supplementary information on a graphical user interface
US8566717B2 (en) * 2008-06-24 2013-10-22 Microsoft Corporation Rendering teaching animations on a user-interface display
US8209355B2 (en) * 2008-07-28 2012-06-26 Microsoft Corporation Automatic user interface generation for entity interaction
JP2010204739A (ja) * 2009-02-27 2010-09-16 Internatl Business Mach Corp <Ibm> 支援装置、プログラムおよび支援方法
US9229738B2 (en) * 2009-06-19 2016-01-05 International Business Machines Corporation Software development tool for providing user context information to improve message quality at development time
USD637197S1 (en) 2009-10-12 2011-05-03 Johnson Controls Technology Company Display screen of a communications terminal with a user interface
USD637196S1 (en) 2009-10-12 2011-05-03 Johnson Controls Technology Company Display screen of a communications terminal with a user interface
US10387175B2 (en) * 2009-10-23 2019-08-20 Autodesk, Inc. Method and system for providing software application end-users with contextual access to text and video instructional information
US9473999B2 (en) 2010-01-14 2016-10-18 General Electric Company Intelligent heterogeneous wireless handoff
US9063757B2 (en) 2010-04-06 2015-06-23 Microsoft Technology Licensing, Llc Interactive application assistance, such as for web applications
TWI438675B (zh) * 2010-04-30 2014-05-21 Ibm 提供情境感知援助說明之方法、裝置及電腦程式產品
US8638200B2 (en) 2010-05-07 2014-01-28 Covidien Lp Ventilator-initiated prompt regarding Auto-PEEP detection during volume ventilation of non-triggering patient
US8386929B2 (en) * 2010-06-22 2013-02-26 Microsoft Corporation Personal assistant for task utilization
US8607788B2 (en) 2010-06-30 2013-12-17 Covidien Lp Ventilator-initiated prompt regarding auto-PEEP detection during volume ventilation of triggering patient exhibiting obstructive component
US8607791B2 (en) 2010-06-30 2013-12-17 Covidien Lp Ventilator-initiated prompt regarding auto-PEEP detection during pressure ventilation
US8607789B2 (en) 2010-06-30 2013-12-17 Covidien Lp Ventilator-initiated prompt regarding auto-PEEP detection during volume ventilation of non-triggering patient exhibiting obstructive component
US20120004033A1 (en) * 2010-06-30 2012-01-05 Martin Lyons Device and method for replicating a user interface at a display
US8607790B2 (en) 2010-06-30 2013-12-17 Covidien Lp Ventilator-initiated prompt regarding auto-PEEP detection during pressure ventilation of patient exhibiting obstructive component
JP2012069065A (ja) * 2010-09-27 2012-04-05 Nintendo Co Ltd 情報処理プログラム、情報処理装置および方法
US9524279B2 (en) 2010-10-28 2016-12-20 Microsoft Technology Licensing, Llc Help document animated visualization
US8757153B2 (en) 2010-11-29 2014-06-24 Covidien Lp Ventilator-initiated prompt regarding detection of double triggering during ventilation
US8595639B2 (en) 2010-11-29 2013-11-26 Covidien Lp Ventilator-initiated prompt regarding detection of fluctuations in resistance
US8757152B2 (en) 2010-11-29 2014-06-24 Covidien Lp Ventilator-initiated prompt regarding detection of double triggering during a volume-control breath type
US8412716B2 (en) * 2010-12-06 2013-04-02 Sap Ag System and method of presenting relevant application components to a user
CN102650937B (zh) * 2011-02-25 2016-03-30 国际商业机器公司 提供情境感知帮助说明的方法及装置
US9038633B2 (en) 2011-03-02 2015-05-26 Covidien Lp Ventilator-initiated prompt regarding high delivered tidal volume
JP5716484B2 (ja) * 2011-03-28 2015-05-13 富士通株式会社 文書管理方法、文書管理装置及び文書管理プログラム
EP2511817A1 (en) * 2011-04-12 2012-10-17 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
US10192176B2 (en) 2011-10-11 2019-01-29 Microsoft Technology Licensing, Llc Motivation of task completion and personalization of tasks and lists
US9811350B2 (en) * 2011-10-12 2017-11-07 Excahbur IP, LLC Embedding non-blocking help components in a display page using discovery drawer feature cues
US8775936B2 (en) 2011-12-13 2014-07-08 International Business Machines Corporation Displaying dynamic and shareable help data for images a distance from a pointed-to location
US9064237B2 (en) * 2012-01-23 2015-06-23 Microsoft Technology Licensing, Llc Collaborative communication in a web application
US9041727B2 (en) 2012-03-06 2015-05-26 Apple Inc. User interface tools for selectively applying effects to image
US9363220B2 (en) * 2012-03-06 2016-06-07 Apple Inc. Context-sensitive help for image viewing and editing application
US9131192B2 (en) 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US20130239051A1 (en) 2012-03-06 2013-09-12 Apple Inc. Non-destructive editing for a media editing application
US20130282894A1 (en) * 2012-04-23 2013-10-24 Sap Portals Israel Ltd Validating content for a web portal
US20140006944A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Visual UI Guide Triggered by User Actions
US9027552B2 (en) 2012-07-31 2015-05-12 Covidien Lp Ventilator-initiated prompt or setting regarding detection of asynchrony during ventilation
JP6146417B2 (ja) * 2012-08-31 2017-06-14 日本電気株式会社 入力支援装置、入力支援方法、及び、プログラム
US9367199B2 (en) * 2012-12-13 2016-06-14 Sap Se Dynamical and smart positioning of help overlay graphics in a formation of user interface elements
US10296562B2 (en) 2013-02-12 2019-05-21 Oath Inc. Dynamic generation of mobile web experience
KR20140112911A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 표시부 미확인 모드에서 액션을 실행하는 모바일 장치 및 그 제어 방법
USD750130S1 (en) 2013-06-10 2016-02-23 Apple Inc. Display screen or portion thereof with graphical user interface
US9477493B2 (en) * 2013-08-28 2016-10-25 International Business Machines Corporation Method to generate dynamic customized context-sensitive help
US10846112B2 (en) * 2014-01-16 2020-11-24 Symmpl, Inc. System and method of guiding a user in utilizing functions and features of a computer based device
WO2015133657A1 (en) * 2014-03-03 2015-09-11 Lg Electronics Inc. Terminal and method for controlling the same
US9483744B2 (en) 2014-05-06 2016-11-01 Elwha Llc Real-time carpooling coordinating systems and methods
US10458801B2 (en) 2014-05-06 2019-10-29 Uber Technologies, Inc. Systems and methods for travel planning that calls for at least one transportation vehicle unit
US9552559B2 (en) 2014-05-06 2017-01-24 Elwha Llc System and methods for verifying that one or more directives that direct transport of a second end user does not conflict with one or more obligations to transport a first end user
US11100434B2 (en) 2014-05-06 2021-08-24 Uber Technologies, Inc. Real-time carpooling coordinating system and methods
US9934507B2 (en) 2014-08-11 2018-04-03 International Business Machines Corporation Mapping user actions to historical paths to determine a predicted endpoint
US20160328205A1 (en) * 2015-05-05 2016-11-10 Motorola Mobility Llc Method and Apparatus for Voice Operation of Mobile Applications Having Unnamed View Elements
US20160342431A1 (en) * 2015-05-22 2016-11-24 Bank Of America Corporation Interactive help interface
JP6512964B2 (ja) * 2015-06-30 2019-05-15 Kddi株式会社 端末、画像判定システム、画像判定方法およびプログラム
US10083450B2 (en) 2015-06-30 2018-09-25 Bank Of America Corporation Automated device assistance
US10365805B2 (en) 2015-06-30 2019-07-30 Bank Of America Corporation Automated device assistance
US10165056B2 (en) 2015-06-30 2018-12-25 Bank Of America Corporation Automated device assistance
US9584982B2 (en) 2015-06-30 2017-02-28 Bank Of America Corporation Customer expectation tokens
US10121125B2 (en) 2015-06-30 2018-11-06 Bank Of America Corporation Automated device assistance
KR102386299B1 (ko) * 2015-07-03 2022-04-14 삼성전자주식회사 도움 가이드 제공 방법 및 장치
US10108964B2 (en) * 2015-07-10 2018-10-23 Sugarcrm Inc. Smart user feedback
KR101730256B1 (ko) 2015-09-21 2017-04-26 엔에이치엔엔터테인먼트 주식회사 오버레이 제어 방법 및 시스템
CN106855796A (zh) * 2015-12-09 2017-06-16 阿里巴巴集团控股有限公司 一种数据处理方法、装置和智能终端
US10459744B2 (en) * 2015-12-16 2019-10-29 Business Objects Software Ltd Interactive hotspot highlighting user interface element
US10459745B2 (en) * 2015-12-16 2019-10-29 Business Objects Software Ltd Application help functionality including suggested search
US10606618B2 (en) * 2016-01-19 2020-03-31 Adp, Llc Contextual assistance system
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US10097919B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Music service selection
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US10509626B2 (en) * 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10142754B2 (en) 2016-02-22 2018-11-27 Sonos, Inc. Sensor on moving component of transducer
US10089002B2 (en) * 2016-03-15 2018-10-02 Ebay Inc. Application inspector
US10270869B2 (en) * 2016-04-01 2019-04-23 Adp, Llc Contextual web session and IVR integration
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10152969B2 (en) 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US9743204B1 (en) 2016-09-30 2017-08-22 Sonos, Inc. Multi-orientation playback device microphones
DE102016118888A1 (de) * 2016-10-05 2018-04-05 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zur Steuerung eines Fahrzeugs
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
CN106657601B (zh) * 2016-10-31 2019-10-01 努比亚技术有限公司 智能终端操作的引导装置及方法
US10579400B2 (en) * 2016-11-11 2020-03-03 International Business Machines Corporation Path-sensitive contextual help system
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
WO2018186821A1 (en) * 2017-04-03 2018-10-11 Hewlett-Packard Development Company, L.P. Displaying visual cues on speakers
US10671602B2 (en) 2017-05-09 2020-06-02 Microsoft Technology Licensing, Llc Random factoid generation
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US10880650B2 (en) 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
US11343614B2 (en) 2018-01-31 2022-05-24 Sonos, Inc. Device designation of playback and network microphone device arrangements
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10847178B2 (en) 2018-05-18 2020-11-24 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US11263179B2 (en) 2018-06-15 2022-03-01 Microsoft Technology Licensing, Llc System for collaborative editing based on document evaluation
US11100052B2 (en) * 2018-06-20 2021-08-24 Microsoft Technology Licensing, Llc System for classification based on user actions
US10798152B2 (en) 2018-06-20 2020-10-06 Microsoft Technology Licensing, Llc Machine learning using collaborative editing data
US10938824B2 (en) 2018-06-20 2021-03-02 Microsoft Technology Licensing, Llc Metric-based content editing system
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US10878811B2 (en) 2018-09-14 2020-12-29 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US10811015B2 (en) 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
JP2020095394A (ja) * 2018-12-11 2020-06-18 株式会社デンソー 車両機能確認装置
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US11165786B2 (en) * 2018-12-18 2021-11-02 International Business Machines Corporation Remote assistance controller that provides control over what a remote assistor can access
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US20200265733A1 (en) * 2019-02-14 2020-08-20 Amazon Technologies, Inc. Live adaptive training in a production system
US11544322B2 (en) * 2019-04-19 2023-01-03 Adobe Inc. Facilitating contextual video searching using user interactions with interactive computing environments
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11150923B2 (en) * 2019-09-16 2021-10-19 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing manual thereof
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
JP7463773B2 (ja) 2020-03-13 2024-04-09 カシオ計算機株式会社 情報処理装置及びプログラム
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11308287B1 (en) * 2020-10-01 2022-04-19 International Business Machines Corporation Background conversation analysis for providing a real-time feedback
US11693526B2 (en) 2020-12-03 2023-07-04 International Business Machines Corporation Facilitating user input by predicting target storage locations
US11551700B2 (en) 2021-01-25 2023-01-10 Sonos, Inc. Systems and methods for power-efficient keyword detection
US11429257B1 (en) * 2021-04-15 2022-08-30 Salesforce.Com, Inc. Dynamically generated help based on derived hierarchical context
US20240061693A1 (en) * 2022-08-17 2024-02-22 Sony Interactive Entertainment Inc. Game platform feature discovery

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5546521A (en) 1991-10-15 1996-08-13 International Business Machines Corporation Dynamic presentation of contextual help and status information
US5535323A (en) 1992-06-29 1996-07-09 Digital Equipment Corporation Method of and system for displaying context sensitive and application independent help information
CA2121415A1 (en) * 1993-04-28 1994-10-29 Mark A. Malamud Information cursors
US5801692A (en) 1995-11-30 1998-09-01 Microsoft Corporation Audio-visual user interface controls
US5764229A (en) 1996-05-09 1998-06-09 International Business Machines Corporation Method of and system for updating dynamic translucent windows with buffers
US5883627A (en) 1996-09-25 1999-03-16 Microsoft Corporation Advanced graphics controls
GB2329042B (en) 1997-09-03 2002-08-21 Ibm Presentation of help information via a computer system user interface in response to user interaction
JPH11143677A (ja) * 1997-11-05 1999-05-28 Virtuality Kk ポインタ装置
JPH11203014A (ja) * 1998-01-20 1999-07-30 Hitachi Ltd マルチウインドウシステムでのヘルプ表示方式
US20010017622A1 (en) 1998-03-31 2001-08-30 Sukesh J. Patel Apparatus and method for generating a configurable program explanation using templates and transparent graphical user interfaces
US6453336B1 (en) * 1998-09-14 2002-09-17 Siemens Information And Communication Networks, Inc. Video conferencing with adaptive client-controlled resource utilization
US6278993B1 (en) * 1998-12-08 2001-08-21 Yodlee.Com, Inc. Method and apparatus for extending an on-line internet search beyond pre-referenced sources and returning data over a data-packet-network (DPN) using private search engines as proxy-engines
US6340977B1 (en) 1999-05-07 2002-01-22 Philip Lui System and method for dynamic assistance in software applications using behavior and host application models
US6467080B1 (en) 1999-06-24 2002-10-15 International Business Machines Corporation Shared, dynamically customizable user documentation
US7000187B2 (en) 1999-07-01 2006-02-14 Cisco Technology, Inc. Method and apparatus for software technical support and training
US6670970B1 (en) 1999-12-20 2003-12-30 Apple Computer, Inc. Graduated visual and manipulative translucency for windows
US6633310B1 (en) 2000-05-31 2003-10-14 Microsoft Corporation Switchably translucent and opaque graphical user interface elements
US7046254B2 (en) * 2002-01-28 2006-05-16 International Business Machines Corporation Displaying transparent resource aids

Also Published As

Publication number Publication date
JP2005339560A (ja) 2005-12-08
EP1603031A2 (en) 2005-12-07
US20050268234A1 (en) 2005-12-01
US7346846B2 (en) 2008-03-18
EP1603031A3 (en) 2007-01-24

Similar Documents

Publication Publication Date Title
JP4772380B2 (ja) ジャストインタイムのユーザ支援を提供する手法
CN102214203B (zh) 诸如用于web应用的交互式应用辅助的方法和系统
CA2135527C (en) Object oriented notification framework system
US10699063B2 (en) Authoring content for digital books
US6275227B1 (en) Computer system and method for controlling the same utilizing a user interface control integrated with multiple sets of instructional material therefor
US11636660B2 (en) Object creation with physical manipulation
US20090083710A1 (en) Systems and methods for creating, collaborating, and presenting software demonstrations, and methods of marketing of the same
US6600502B1 (en) Immersive interface interactive multimedia software method and apparatus for networked computers
US10839572B2 (en) Contextual virtual reality interaction
US20130268826A1 (en) Synchronizing progress in audio and text versions of electronic books
US20100257468A1 (en) Method and system for an enhanced interactive visualization environment
KR20060052717A (ko) 가상 데스크 탑, 프로그램 예의 배열을 리콜링하는 방법, 애플리케이션 예를 관리하는 방법 및 애플리케이션을 관리하는 방법
CN102193732A (zh) 比本地屏幕大的被远程发送桌面的有效导航及与桌面交互
US20090040179A1 (en) Graphic user interface device and method of displaying graphic objects
CN111064999B (zh) 用于处理虚拟现实输入的方法和系统
DE112016002384T5 (de) Hilfsschicht mit automatisierter Extraktion
US11099731B1 (en) Techniques for content management using a gesture sensitive element
Carvalho et al. Toward the design of transitional interfaces: an exploratory study on a semi-immersive hybrid user interface
Klemmer et al. Integrating physical and digital interactions on walls for fluid design collaboration
US20120030597A1 (en) Method and apparatus for controlling a workflow
Jota et al. Immiview: a multi-user solution for design review in real-time
Massó et al. Direct manipulation of user interfaces for migration
Jagodic Collaborative interaction and display space organization in large high-resolution environments
US20130127718A1 (en) Method for Operating Computer Objects and Computer Program Product Thereof
KR102153749B1 (ko) 평면 디스플레이용 콘텐츠를 실린더용 콘텐츠로 전환하는 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110622

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees