JP2009510581A - 電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース - Google Patents

電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース Download PDF

Info

Publication number
JP2009510581A
JP2009510581A JP2008532903A JP2008532903A JP2009510581A JP 2009510581 A JP2009510581 A JP 2009510581A JP 2008532903 A JP2008532903 A JP 2008532903A JP 2008532903 A JP2008532903 A JP 2008532903A JP 2009510581 A JP2009510581 A JP 2009510581A
Authority
JP
Japan
Prior art keywords
graphical
graphical item
item
touch
items
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008532903A
Other languages
English (en)
Inventor
クン ユ
コン シャオ ワン
ヤリ カンガス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of JP2009510581A publication Critical patent/JP2009510581A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

接触感応型ディスプレイ11を含む電子デバイス1を制御する方法であって、識別情報をそれぞれ有する複数のグラフィカル・アイテム43を接触感応型ディスプレイ11上に表示することと;少なくとも2つのグラフィカル・アイテム43の結合であって、接触感応型ディスプレイ11上にあり少なくとも2つのグラフィカル・アイテム43間にある線を含み、ユーザにより形成される該結合を検出することと;結合されたグラフィカル・アイテム43の識別情報によって定まる機能を実行することとを含む方法。
【選択図】図2

Description

本発明の実施形態は、電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェースに関する。本発明の実施形態は特に、接触感応型ディスプレイを有するデバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェースに関する。
発明の背景
従来から、移動電話などの電子デバイスのユーザはキーパッドを使用してデバイスを制御できる。これは多くの場合、不便で効率の悪い電子デバイスの操作方法となり得る。ユーザが利用可能な選択肢は階層メニュー構造で構成されることが多く、ユーザは、数回キーを押さなければ選択対象の機能を選択または有効化できないこともある。
現在、多数の電子デバイスに接触感応型ディスプレイが含まれている。このようなディスプレイを使用し、利用可能な機能にユーザが迅速かつ容易にアクセスしてそれを有効化できるようにする改善されたユーザ・インターフェースをユーザに提供できれば、役に立つと思われる。
発明の簡単な説明
本発明の一実施形態によれば、接触感応型ディスプレイを含む電子デバイスを制御する方法が提供され、この方法は、識別情報をそれぞれ有する複数のグラフィカル・アイテムを接触感応型ディスプレイに表示することと;少なくとも2つのグラフィカル・アイテムの結合であって、接触感応型ディスプレイ上にあり少なくとも2つのグラフィカル・アイテム間にある線を含み、ユーザにより形成される該結合を検出することと;結合されたグラフィカル・アイテムの識別情報によって定まる機能を実行することとを含む。
本発明は、接触感応型ディスプレイに表示されるグラフィカル・アイテムの任意のペアをつくることにより、ユーザが容易にデバイスを制御して機能を実行できるという利点を提供する。ユーザは一度入力するだけでよい。
さらに、常に複数のグラフィカル・アイテムをユーザ・インターフェース上に表示できるため、ユーザは、メニュー選択肢をスクロールしなくても利用可能な機能を容易に見ることができる。
各グラフィカル・アイテムの識別情報は、デバイスの機能および/またはデバイスに格納されている情報に関連付けられるとよい。
本発明の別の実施形態によれば、複数のグラフィカル・アイテムを表示する接触感応型ディスプレイと;接触感応型ディスプレイ上でのユーザ入力を検出する検出手段と;接触感応型ディスプレイを制御する制御手段とを含む電子デバイスが提供され;識別情報を各グラフィカル・アイテムが有し、少なくとも2つのグラフィカル・アイテム間にユーザにより形成された結合であって、接触感応型ディスプレイ上にあり少なくとも2つのグラフィカル・アイテム間にある線を含む該結合が、検出手段により検出されることに応答して、結合されたグラフィカル・アイテムの識別情報によって定まる機能を実行するべくデバイスを制御するよう、制御手段が構成されている。
本発明の別の実施形態によれば、接触感応型ディスプレイを含む電子デバイスを制御するプログラム命令を含む、コンピュータ・プログラムが提供され、このプログラムは、処理装置に読み込まれると、識別情報をそれぞれ有する複数のグラフィカル・アイテムを接触感応型ディスプレイに表示するべくディスプレイを制御する手段と;少なくとも2つのグラフィカル・アイテムの結合であって、タッチ・センシティブ画面上にあり少なくとも2つのグラフィカル・アイテム間にある線を含み、ユーザにより形成される該結合を検出する手段と;結合されたグラフィカル・アイテムの識別情報によって定まる機能を実行するべく、デバイスを制御する手段とを含む。
本発明の別の実施形態によれば、識別情報をそれぞれ有する複数のグラフィカル・アイテムを接触感応型ディスプレイに表示し;少なくとも2つのグラフィカル・アイテム間にユーザが線を引くことによって少なくとも2つのグラフィカル・アイテムを結合することができるようにし;少なくとも2つのグラフィカル・アイテムの結合が検出されることに応答してデバイスの機能の実行を可能にする、グラフィカル・ユーザ・インターフェースが提供され、この実行される機能は、少なくとも2つのグラフィカル・アイテムの識別情報によって決まる。
本発明の別の実施形態によれば、接触感応型ディスプレイを使用して電子デバイスを制御する方法が提供され、この方法は、識別情報をそれぞれ有する複数のグラフィカル・アイテムを接触感応型ディスプレイ上に表示することと;2つのグラフィカル・アイテムの結合であって、接触感応型ディスプレイ上にあり2つのグラフィカル・アイテム間にある線を含み、ユーザにより形成される該結合を検出することと;第1グラフィカル・アイテムと第2グラフィカル・アイテムとの結合が検出されることに応答して、デバイスの第1機能を実行することと;第1グラフィカル・アイテムと第3グラフィカル・アイテムとの結合が検出されることに応答して、デバイスの第2機能を実行することとを含む。
発明の実施形態の詳細な説明
本発明についての理解が深まるよう、ここからは添付の図面を参照するが、これらは単なる例である。
これらの図は、接触感応型ディスプレイ11を含む電子デバイス1の制御方法を図示しており、この方法は、識別情報をそれぞれ有する複数のグラフィカル・アイテム43を接触感応型ディスプレイ11上に表示することと;少なくとも2つのグラフィカル・アイテム43の結合であって、接触感応型ディスプレイ11上にあり少なくとも2つのグラフィカル・アイテム43間にある線を含み、ユーザにより形成される該結合を検出することと;結合されたグラフィカル・アイテム43の識別情報44によって定まる機能を実行することとを含む。
図1には、電子デバイス1が概略的に図示されている。以下の説明で参照される機能のみが図示されている。なお、当然のことながら、デバイス1は図示されていない追加の機能を含んでもよい。電子デバイス1は、例えば個人用コンピュータ、携帯情報端末、セル式移動電話、テレビ、テレビと併用されるビデオ記録器、または、グラフィカル・ユーザ・インターフェースを使用する他の任意の電子デバイスであればよい。
図示されている電子デバイス1は、ユーザ入力9、記憶装置5、接触感応型ディスプレイ11および処理装置3を含む。処理装置3は、ユーザ入力9から入力コマンドを受信し、出力コマンドをディスプレイ11に提供するよう接続されている。処理装置3はさらに、記憶装置5への書き込みおよびそこからの読み出しを行うよう接続されている。
接触感応型ディスプレイ11は、ユーザにグラフィカル・ユーザ・インターフェース(GUI:graphical user interface)を提示する。本発明の実施形態によるGUIの例が図3に図示されている。
記憶装置5にはコンピュータ・プログラム命令7が格納されており、コンピュータ・プログラム命令7は、処理装置3に読み込まれると、処理装置3がデバイス1の機能を下記のように制御できるようにする。コンピュータ・プログラム命令7は、図2に図示されている方法を電子デバイス1が実行できるようにする論理およびルーチンを提供する。
コンピュータ・プログラム命令7は、電磁搬送信号によって電子デバイス1に到達してもよく、または、コンピュータ・プログラム製品、記憶デバイスまたはCD−ROMもしくはDVDなどの記憶媒体など、物理エンティティからコピーされてもよい。
本発明によるデバイス1の制御方法が、図2に概略的に図示されている。
方法は、ユーザにグラフィカル・ユーザ・インターフェースを提示するべく処理装置3がディスプレイを制御する、ステップ21で開始する。本発明の実施形態によるグラフィカル・ユーザ・インターフェース41の例が図3に図示されている。
図3では、グラフィカル・アイテム43がGUI41の縁48に沿って配置されている。各グラフィカル・アイテム43は、その識別情報を示すラベル44を有する。識別情報は、デバイスの機能および/またはデバイスに格納されている情報に関連している。
図3に図示されているGUI41およびグラフィカル・アイテム43は、セル式移動電話と共に使用するのに適している。種々のデバイスに、異なるGUIおよびグラフィカル・アイテムを使用できる。
グラフィカル・アイテム43は、ユーザが使用するのに便利で直感的に理解できる順序で配置されることが好ましい。示されている実施形態では、グラフィカル・アイテム43は、似た機能および情報が集まるように異なる複数のグループ46に配置されている。この具体的な実施形態では、グラフィカル・アイテム43は、同一グループ46内の他のグラフィカル・アイテム43に結合できない。
グラフィカル・アイテム43の大きさは異なってもよい。一部の実施形態では、最もよく使用されるグラフィカル・アイテム43が他のグラフィカル・アイテム43より大きくてもよい。グラフィカル・アイテム43のサイズをユーザが変更できてもよい。
図2に戻ると、ステップ23から27には、接触感応型ディスプレイに線を引くことで2つのグラフィカル・アイテム43を結合する方法が概略的に図示されている。ユーザはステップ23で、起点となる第1グラフィカル・アイテム43が表示されているところの接触感応型ディスプレイ11に触れることで線を開始する。ユーザは、ペン、スタイラス、指または同様のものでディスプレイ11に触れるとよい。
ステップ25でユーザは、ペンまたはスタイラスをディスプレイ11と接触した状態に保ちながら、目標の第2グラフィカル・アイテムまでディスプレイ11上でペンまたはスタイラスを動かすことにより、画面に線を引く。ステップ27で、ペンまたはスタイラスが目標の第2グラフィカル・アイテムの上に来ると、ユーザはディスプレイ11からペンを上げる。これによって線が終わり、第1および第2グラフィカル・アイテムの結合が完了する。
処理装置3は、線が引かれたことをステップ29で検出し、続いてステップ31で、結合されたグラフィカル・アイテム43の識別情報44を検出する。グラフィカル・アイテム43の識別情報44は、グラフィカル・アイテム43のラベルであってもよく、それらラベルに関連したコードであってもよい。
ステップ33で処理装置3は、結合されたグラフィカル・アイテムの識別情報に関連する機能を判断する。これは、グラフィカル・アイテムの識別情報に関連する識別情報と機能との可能な結合があればそれが全て載っている、記憶装置5に格納されたルックアップ表を参照することにより行われてもよい。例えば、ルックアップ表には、識別情報Aと識別情報Bとの結合が機能Xに関連付けられているということ、および識別情報Aと識別情報Cとの結合が機能Yに関連付けられているということが記載されることが考えられる。
一例として、識別情報Aがメッセージであり、識別情報Bが名前であり、識別情報Cが設定であることが考えられる。その場合ルックアップ表は、AとBとを結合するとメッセージが名前Bに送信される一方、AとCとを結合するとユーザがデバイスのメッセージ設定にアクセスできるということを示すと思われる。
ステップ35で処理装置3は、結合されたグラフィカル・アイテム43の識別情報に対応する機能を実行するべく、デバイス1を制御する。
図4は、図3に図示されているGUI41を使用しているユーザを図示している。この例においてユーザは、スタイラス51でディスプレイに触れることによってグラフィカル・アイテム43L上で線を開始している。グラフィカル・アイテム43Lは、デバイスのメッセージ機能およびメッセージ情報と関連している。図4Bでユーザは、接触感応型ディスプレイ11上でペンまたはスタイラス51をドラッグすることによって線53を伸ばす。この実施形態では、ドラッグ動作はディスプレイ11上に目に見える線を残す。他の実施形態では、ドラッグ動作は目に見える線を残さなくてもよい。
ユーザは、図4Cに示されているように、設定に関連したグラフィカル・アイテム43Hの上でディスプレイからペンまたはスタイラスを上げることによって線53を終わらせ、グラフィカル・アイテムを結合させる。処理装置3は、メッセージグラフィカル・アイテム43が設定グラフィカル・アイテム43Hに結合されたことを検出し、4Dに図示されているようにメッセージ設定の選択肢のリスト55を接触感応型ディスプレイ上に表示するべく、デバイス1を制御する。
示されている実施形態では、線が引かれるときグラフィカル・アイテム43は固定されている。
ユーザが線を引き始めると、線が始まったグラフィカル・アイテム43が強調表示されることが好ましい。示されている実施形態では、グラフィカル・アイテム43の一部のペアは、結合されても関連の機能を有しない。そのため、一部の実施形態では、1つのグラフィカル・アイテム43上で線が始まると、それに結合されて動作を引き起こすことができない他の全グラフィカル・アイテム43の、色などの外観が変化して、グラフィカル・アイテム43のどの結合が可能かをユーザに示す。
図4に示されている例では、ユーザは、メッセージ設定55のリストが表示されるようにデバイス1を制御するために、「メッセージ」グラフィカル・アイテム43L上で線を開始し、「設定」グラフィカル・アイテム上43Hで終わらせた。この実施形態では、「設定」グラフィカル・アイテム43H上でユーザが線を開始して「メッセージ」グラフィカル・アイテム43L上で終わらせても同じ動作が生じたと考えられる。つまり、この実施形態では、実行される機能を決定するのはグラフィカル・アイテム43の識別情報のみであり、グラフィカル・アイテム43が結合される順序は関係ない。その他の実施形態では、実行される機能はグラフィカル・アイテム43が結合される順序によって決まってもよい。
図5には、デバイス1の記憶装置5に格納されている電話番号に電話をかけるために、ディスプレイ11により提示されたGUI41を使用しているユーザが図示されている。図5Aには、接触感応型ディスプレイ11上に表示されている連絡先リスト61が図示されている。連絡先リスト61は、ユーザが「連絡先」グラフィカル・アイテム43Nと「選択」グラフィカル・アイテム43Eとを結合させるのに応答して表示されるとよい。連絡先リスト61内の各名前はグラフィカル・アイテムであり、電話番号またはその他詳細な連絡先などの情報に関連している。連絡先情報に対して機能を実行できるように、連絡先リスト61内のグラフィカル・アイテムを、GUI41の縁に沿ったグラフィカル・アイテム43と結合することができる。
電話番号をダイヤルするには、ユーザは、図5Aに示されているように電話機能43Mに関連したグラフィカル・アイテム上で線を開始する。図5Bには、ディスプレイ11上でスタイラスをドラッグすることによって、図4に図示されている前の例と同じように線を引くユーザが図示されている。図5Cには、名前Edに対応するグラフィカル・アイテム65上で線を終わらせるユーザが図示されている。線がグラフィカル・アイテムの上にある間、グラフィカル・アイテム65は強調表示される。
処理装置3は、「電話」グラフィカル・アイテム43Mが「Ed」グラフィカル・アイテム65と結合されたことを検出し、図5Dに図示されているように、名前Edに関連する電話番号をダイヤルするようデバイスを制御する。
さらにユーザは、名前グラフィカル・アイテム上で線を開始して「電話」グラフィカル・アイテム43M上で終わらせることによって電話番号をダイヤルすることもできる。この実施形態では、グラフィカル・アイテムが結合される順序は実行される機能に影響を及ぼさない。
図6には、連絡先リスト61内の連絡先のうちの1つに関連する連絡履歴を見るためにGUI41を使用しているユーザが図示されている。図6Aで、ユーザは、リスト61の名前Edに関連するグラフィカル・アイテム65上で線を開始する。ユーザは、グラフィカル・アイテム65と「履歴」グラフィカル・アイテム43Gとを結合させる。その結果、処理装置3は、Edに関する連絡履歴71をディスプレイ11上に表示するべくデバイス1を制御する。
図5および6には、2つの異なるグラフィカル・アイテムに結合される、名前Edに対応したグラフィカル・アイテム65が示されている。名前Edに関連した情報に対して実行される機能は、それが結合されるグラフィカル・アイテム43によって決まる。
図7には、GUI41を使用してメッセージを作成するユーザが図示されている。図7Aには、名前Edに関連するグラフィカル・アイテム65を「選択」グラフィカル・アイテム43Eと結合させることで名前Edを選択するユーザが図示されている。続いて処理装置3は、ディスプレイを制御して、名前が選択されたことをユーザに視覚的に表示する。図7Bに示されている実施形態では、この視覚的表示は選択された名前の隣のチェックマーク69であるが、他の実施形態では、選択された名前に関連するグラフィカル・アイテムが、異なる色で表示されるなど強調表示されることも考えられる。
図7Cには、名前Franklinに関連するグラフィカル・アイテム67と選択グラフィカル・アイテム43Eとを結合させることで、連絡先リスト61から第2の名前を選択するユーザが図示されている。続いて処理装置3はディスプレイを制御し、名前Franklinも隣にチェックマーク73を有して、これもまた選択されているということが示されるようにする。
ユーザは、図7Eに図示されているように、選択されている名前のうちのいずれかと「メッセージ」グラフィカル・アイコン43Lとを結合させることによって、選択されている全ての名前に対するメッセージ81を作成する。示されている実施形態では、選択されている名前のうちの1つからユーザが線を引き始めると、選択されている他の名前全てが強調表示される。
図示されている実施形態では、グラフィカル・アイテムの識別情報はデバイスのモードに応じて変化可能である。例えば、2つ以上の名前が選択されると、「新規」グラフィカル・アイテム43Fが「削除」グラフィカル・アイテムになる。これは、選択されている名前のうちの1つをユーザが選択解除できるようにするためである。
図7に示されている例では、名前グラフィカル・アイテム65と「メッセージ」グラフィカル・アイテム43Lとを結合させることで、名前グラフィカル・アイテム65に関連した情報に対して実行される機能、この場合であればメッセージ作成の動作が生じる。図4に図示されている例では、「メッセージ」グラフィカル・アイテム43Lと「設定」グラフィカル・アイテム43Hとを結合させることで、「メッセージ」グラフィカル・アイテム43Lに関連した情報に対して実行される、設定表示の動作が引き起こされる。つまり、状況、すなわちどのグラフィカル・アイテムが結合されるかに応じて、単一のグラフィカル・アイテム43により、機能の実行対象である情報が表されても、または機能自体が表されてもよいということである。機能は、グラフィカル・アイテムが結合されるグラフィカル・アイテムの識別情報によって決まる。
図8には、例えばユーザが不注意により間違ったグラフィカル・アイテム43上で線を開始した場合、または、実行したい機能についてユーザの気が変わった場合に、ユーザが線を取り消す方法の一実施形態が図示されている。図8Aには、「電話」グラフィカル・アイテム43M上で線を開始するユーザが図示されている。図8Bには、「電話」グラフィカル・アイテム43Mと同じグループ46のグラフィカル・アイテムのうち1つの上で線を終わらせることで、線を取り消すユーザが図示されている。グラフィカル・アイテム43Mは、どのアイテムも結合できないようにグループ46に配置されているため、これによって線が取り消される。
グラフィカル・アイテム43をGUI41上に常に表示させるのは、望ましくないこともある。デスクトップ・グラフィカル・アイテム43Cを使用して他のグラフィカル・アイテムが全て隠されてもよい。これは、図9Aに図示されているように、所定の時間デスクトップ・グラフィカル・アイテム43C上にペンまたはスタイラスを保持することによって実現されてもよい。これによって、デバイスが、図9Bに図示されているグラフィカル・アイテム43T1つのみを有するGUI45と、GUI41を切り替えることになる。もとのGUI41に戻るには、ユーザは、ラベル・グラフィカル・アイテム43T上にペンまたはスタイラスを保持する。
これまでの段落では本発明の実施形態を種々の例に関連して説明してきたが、当然のことながら、請求される発明の範囲から逸脱することなく、与えられた例に変更を加えることが可能である。
電子デバイスを概略的に図示する。 本発明の実施形態の方法ステップを示す流れ図を図示する。 本発明の実施形態によるグラフィカル・ユーザ・インターフェースを図示する。 本発明の実施形態の使用中の様子を図示する。 本発明の実施形態の使用中の様子を図示する。 本発明の実施形態の使用中の様子を図示する。 本発明の実施形態の使用中の様子を図示する。 本発明の実施形態の使用中の様子を図示する。 本発明の実施形態の使用中の様子を図示する。

Claims (32)

  1. 接触感応型ディスプレイを含む電子デバイスを制御する方法であって、
    識別情報をそれぞれ有する複数のグラフィカル・アイテムを前記接触感応型ディスプレイ上に表示することと;
    少なくとも2つのグラフィカル・アイテムの結合であって、前記接触感応型ディスプレイ上にあり前記少なくとも2つのグラフィカル・アイテム間にある線を含み、ユーザにより形成される前記結合を検出することと;
    前記結合されたグラフィカル・アイテムの前記識別情報によって定まる機能を実行することと
    を含む方法。
  2. 第1グラフィカル・アイテムと第2グラフィカル・アイテムとを結合させることが前記デバイスに第1機能を実行させる、請求項1に記載の方法。
  3. 前記第1機能は、前記第1グラフィカル・アイテムに関連した機能であり、前記第2グラフィカル・アイテムに関連した情報に対して実行される、請求項2に記載の方法。
  4. 前記第1グラフィカル・アイテムと第3グラフィカル・アイテムとを結合させることが前記デバイスに第2機能を実行させる、請求項2または3に記載の方法。
  5. 前記第2機能は、前記第3グラフィカル・アイテムに関連した機能であり、前記第1グラフィカル・アイテムに関連した情報に対して実行される、請求項4に記載の方法。
  6. 各グラフィカル・アイテムの前記識別情報は、前記デバイスの機能および/または前記デバイスに格納されている情報に関連している、請求項1から5のいずれかに記載の方法。
  7. 前記結合が前記形成される間、前記グラフィカル・アイテムは固定されている、請求項1から6のいずれかに記載の方法。
  8. 2つのグラフィカル・アイテム間の前記線は前記少なくとも2つのグラフィカル・アイテムのうちのいずれかの上から始めることができる、請求項1から7のいずれかに記載の方法。
  9. グラフィカル・アイテムの前記識別情報は前記デバイスのモードによって決まってもよい、請求項1から8のいずれかに記載の方法。
  10. 前記グラフィカル・アイテムは関連機能のグループ内に配置される、先行するいずれかの請求項に記載の方法。
  11. 前記グラフィカル・アイテムは前記接触感応型ディスプレイの縁に配置される、請求項10に記載の方法。
  12. グラフィカル・アイテムと、同一グループ内の任意のグラフィカル・アイテムとを結合すると、前記線が取り消される、請求項11に記載の方法。
  13. 前記接触感応型ディスプレイに線を引くためにペンまたはスタイラスが使用される、先行するいずれかの請求項に記載の方法。
  14. 複数のグラフィカル・アイテムを表示する接触感応型ディスプレイと;
    前記接触感応型ディスプレイ上でのユーザ入力を検出する検出手段と;
    前記接触感応型ディスプレイを制御する制御手段と;
    を含む電子デバイスであって、
    各グラフィカル・アイテムは識別情報を有し、前記制御手段は、少なくとも2つの前記グラフィカル・アイテム間にユーザによって形成される結合であって前記接触感応型ディスプレイ上の前記少なくとも2つのグラフィカル・アイテム間にある線を含む結合が前記検出手段により検出されることに応答して、前記結合されたグラフィカル・アイテムの前記識別情報によって定まる機能を実行するべく前記デバイスを制御するよう構成されている、
    電子デバイス。
  15. 第1グラフィカル・アイテムと第2グラフィカル・アイテムとを結合させることが前記デバイスに第1機能を実行させる、請求項14に記載のデバイス。
  16. 前記第1機能は、前記第1グラフィカル・アイテムに関連した機能であり、前記第2グラフィカル・アイテムに関連した情報に対して実行される、請求項15に記載のデバイス。
  17. 前記第1グラフィカル・アイテムと第3グラフィカル・アイテムとを結合させることが前記デバイスに第2機能を実行させる、請求項14〜16のうちのいずれかに記載のデバイス。
  18. 前記第2機能は、前記第3グラフィカル・アイテムに関連した機能であり、前記第1グラフィカル・アイテムに関連した情報に対して実行される、請求項17に記載のデバイス。
  19. 各グラフィカル・アイテムの前記識別情報は、前記デバイスの機能および/または前記デバイスに格納されている情報に関連している、請求項14〜18のうちのいずれかに記載のデバイス。
  20. 前記結合が前記形成される間、前記グラフィカル・アイテムは固定されている、請求項14〜19のいずれかに記載のデバイス。
  21. 2つのグラフィカル・アイテム間の前記線は前記少なくとも2つのグラフィカル・アイテムのうちのいずれかの上から始めることができる、請求項14〜20のうちのいずれかに記載のデバイス。
  22. グラフィカル・アイテムの前記識別情報は前記デバイスのモードによって決まってもよい、請求項14〜21のうちのいずれかに記載のデバイス。
  23. 前記グラフィカル・アイテムは関連機能のグループ内に配置される、請求項14〜22のうちのいずれかに記載のデバイス。
  24. 前記グラフィカル・アイテムは前記接触感応型ディスプレイの縁に配置される、請求項23に記載のデバイス。
  25. グラフィカル・アイテムと、同一グループ内の任意のグラフィカル・アイテムとを結合すると、前記線が取り消される、請求項24に記載のデバイス。
  26. 前記接触感応型ディスプレイに線を引くためにペンまたはスタイラスが使用される、請求項14〜25のうちのいずれかに記載のデバイス。
  27. 接触感応型ディスプレイを含む電子デバイスを制御するプログラム命令を含む、コンピュータ・プログラムであって、処理装置に読み込まれると、
    識別情報をそれぞれ有する複数のグラフィカル・アイテムを前記接触感応型ディスプレイ上に表示するべく前記ディスプレイを制御する手段と;
    少なくとも2つのグラフィカル・アイテムの結合であって、前記タッチ・センシティブ画面上にあり前記少なくとも2つのグラフィカル・アイテム間にある線を含み、ユーザにより形成される前記結合を検出する手段と;
    前記結合されたグラフィカル・アイテムの前記識別情報によって定まる機能を実行するべく、前記デバイスを制御する手段と
    を含むコンピュータ・プログラム。
  28. 請求項27に記載のコンピュータ・プログラムを具現化する物理エンティティ。
  29. 請求項27に記載のコンピュータ・プログラムを運ぶ電磁搬送信号。
  30. 請求項1〜13のうちのいずれか1項に記載の方法をコンピュータに実行させるプログラム命令を含む、コンピュータ・プログラム。
  31. 識別情報をそれぞれ有する複数のグラフィカル・アイテムを接触感応型ディスプレイ上に表示し;
    少なくとも2つの前記グラフィカル・アイテム間にユーザが線を引くことによって前記少なくとも2つのグラフィカル・アイテムを結合することができるようにし;
    前記少なくとも2つのグラフィカル・アイテムの前記結合が検出されることに応答して、前記少なくとも2つのグラフィカル・アイテムの前記識別情報によって定まるデバイス機能の実行を可能にする;
    グラフィカル・ユーザ・インターフェース。
  32. 接触感応型ディスプレイを使用して電子デバイスを制御する方法であって、
    識別情報をそれぞれ有する複数のグラフィカル・アイテムを前記接触感応型ディスプレイ上に表示することと;
    2つのグラフィカル・アイテムの結合であって、前記接触感応型ディスプレイ上にあり前記2つのグラフィカル・アイテム間にある線を含み、ユーザにより形成される前記結合を検出することと;
    第1グラフィカル・アイテムと第2グラフィカル・アイテムとの前記結合の前記検出に応答して、前記デバイスの第1機能を実行することと;
    前記第1グラフィカル・アイテムと第3グラフィカル・アイテムとの前記結合の前記検出に応答して、前記デバイスの第2機能を実行することと
    を含む方法。
JP2008532903A 2005-09-30 2006-09-20 電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース Pending JP2009510581A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/240,918 US7728818B2 (en) 2005-09-30 2005-09-30 Method, device computer program and graphical user interface for user input of an electronic device
PCT/IB2006/003727 WO2007063416A2 (en) 2005-09-30 2006-09-20 A method, device, computer program and graphical user interface for user input of an electronic device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012206543A Division JP5613208B2 (ja) 2005-09-30 2012-09-20 電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース

Publications (1)

Publication Number Publication Date
JP2009510581A true JP2009510581A (ja) 2009-03-12

Family

ID=37901426

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008532903A Pending JP2009510581A (ja) 2005-09-30 2006-09-20 電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース
JP2012206543A Active JP5613208B2 (ja) 2005-09-30 2012-09-20 電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2012206543A Active JP5613208B2 (ja) 2005-09-30 2012-09-20 電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース

Country Status (6)

Country Link
US (1) US7728818B2 (ja)
EP (1) EP1934696A4 (ja)
JP (2) JP2009510581A (ja)
CA (1) CA2621581C (ja)
RU (1) RU2415464C2 (ja)
WO (1) WO2007063416A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246755A (ja) * 2012-05-29 2013-12-09 Kyocera Corp 携帯端末装置

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100407223C (zh) * 2004-04-02 2008-07-30 诺基亚公司 一种用于手写识别的设备和方法
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US7880728B2 (en) * 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
WO2008020538A1 (fr) * 2006-08-18 2008-02-21 Kyocera Corporation Dispositif électronique portable et son procédé de commande
US8839123B2 (en) * 2007-11-19 2014-09-16 Red Hat, Inc. Generating a visual user interface
US20090276701A1 (en) * 2008-04-30 2009-11-05 Nokia Corporation Apparatus, method and computer program product for facilitating drag-and-drop of an object
US8619041B2 (en) * 2008-10-07 2013-12-31 Blackberry Limited Portable electronic device and method of controlling same
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
US20100107116A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch user interfaces
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US20110138284A1 (en) * 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
EP3882750A1 (en) 2010-01-20 2021-09-22 Nokia Technologies Oy User input
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US20110185299A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20110185320A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US9367205B2 (en) * 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9965165B2 (en) * 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9075522B2 (en) * 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8707174B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US8473870B2 (en) * 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US9454304B2 (en) * 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US8751970B2 (en) * 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US20110209058A1 (en) * 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US20110209089A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen object-hold and page-change gesture
JP5552947B2 (ja) 2010-07-30 2014-07-16 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
JP5494337B2 (ja) 2010-07-30 2014-05-14 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2012033058A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US20120304131A1 (en) * 2011-05-27 2012-11-29 Jennifer Nan Edge gesture
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
JP5942477B2 (ja) * 2012-02-29 2016-06-29 富士ゼロックス株式会社 設定装置及びプログラム
CN102799382A (zh) * 2012-07-16 2012-11-28 华为终端有限公司 用户设备的系统栏的控制方法和用户设备
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
KR102203885B1 (ko) * 2013-04-26 2021-01-15 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
RU2649943C1 (ru) * 2017-07-04 2018-04-05 федеральное государственное автономное образовательное учреждение высшего образования "Национальный исследовательский ядерный университет "МИФИ" (НИЯУ МИФИ) Многовыходной арбитр приоритетов
CA184010S (en) * 2018-06-08 2019-07-17 Beijing Microlive Vision Tech Co Ltd Display screen with graphical user interface
CA183995S (en) * 2018-06-08 2019-07-17 Beijing Microlive Vision Tech Co Ltd Display screen with graphical user interface
CA183997S (en) * 2018-06-08 2019-07-17 Beijing Microlive Vision Tech Co Ltd Display screen with graphical user interface
CA184003S (en) * 2018-06-08 2019-07-17 Beijing Microlive Vision Tech Co Ltd Display screen with graphical user interface
CA184002S (en) * 2018-06-08 2019-07-17 Beijing Microlive Vision Tech Co Ltd Display screen with graphical user interface

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104915A (ja) 1993-10-06 1995-04-21 Toshiba Corp グラフィックユーザインタフェース装置
JPH10143347A (ja) * 1996-11-06 1998-05-29 Sharp Corp データ転送の表示および操作方法
JP2000285039A (ja) * 1999-03-31 2000-10-13 Seiko Epson Corp デバイス検索装置及びその方法並びにそれを実現するためのコンピュータプログラムを記録した記録媒体
JP2000293464A (ja) * 1999-04-09 2000-10-20 Canon Inc データ処理装置および表示処理方法およびコンピュータが読み出し可能なプログラムを格納した記憶媒体
JP2003084884A (ja) * 2001-09-11 2003-03-19 Sony Corp 情報処理装置および方法、並びにプログラム
JP2003219010A (ja) 2002-01-17 2003-07-31 Nec Infrontia Corp 交換システム及び交換方法
JP2005148993A (ja) * 2003-11-13 2005-06-09 Canon Inc データ処理装置およびデータ処理方法およびコンピュータが読み取り可能なプログラムを格納した記憶媒体およびプログラム
JP2005182125A (ja) 2003-12-16 2005-07-07 Casio Comput Co Ltd グラフ表示制御装置及びプログラム
JP2005244360A (ja) * 2004-02-24 2005-09-08 Kyocera Mita Corp 画像処理装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233623A (ja) * 1991-11-27 1993-09-10 Internatl Business Mach Corp <Ibm> ストローク構文入力装置
US5760773A (en) 1995-01-06 1998-06-02 Microsoft Corporation Methods and apparatus for interacting with data objects using action handles
US5966122A (en) 1996-03-08 1999-10-12 Nikon Corporation Electronic camera
US6618040B1 (en) * 2000-09-15 2003-09-09 Targus Communications Corp. Apparatus and method for indexing into an electronic document to locate a page or a graphical image
JP5109212B2 (ja) * 2001-05-01 2012-12-26 ソニー株式会社 ナビゲーション装置、情報表示装置、オブジェクト生成方法、記憶媒体
US6938221B2 (en) 2001-11-30 2005-08-30 Microsoft Corporation User interface for stylus-based user input
GB0201074D0 (en) * 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
US20040001073A1 (en) 2002-06-27 2004-01-01 Jan Chipchase Device having a display
US7554530B2 (en) * 2002-12-23 2009-06-30 Nokia Corporation Touch screen user interface featuring stroke-based object selection and functional object activation
US7895536B2 (en) * 2003-01-08 2011-02-22 Autodesk, Inc. Layer editor system for a pen-based computer
DE10349673B4 (de) * 2003-10-24 2024-06-13 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Dateneingabe in einem Kraftfahrzeug

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104915A (ja) 1993-10-06 1995-04-21 Toshiba Corp グラフィックユーザインタフェース装置
JPH10143347A (ja) * 1996-11-06 1998-05-29 Sharp Corp データ転送の表示および操作方法
JP2000285039A (ja) * 1999-03-31 2000-10-13 Seiko Epson Corp デバイス検索装置及びその方法並びにそれを実現するためのコンピュータプログラムを記録した記録媒体
JP2000293464A (ja) * 1999-04-09 2000-10-20 Canon Inc データ処理装置および表示処理方法およびコンピュータが読み出し可能なプログラムを格納した記憶媒体
JP2003084884A (ja) * 2001-09-11 2003-03-19 Sony Corp 情報処理装置および方法、並びにプログラム
JP2003219010A (ja) 2002-01-17 2003-07-31 Nec Infrontia Corp 交換システム及び交換方法
JP2005148993A (ja) * 2003-11-13 2005-06-09 Canon Inc データ処理装置およびデータ処理方法およびコンピュータが読み取り可能なプログラムを格納した記憶媒体およびプログラム
JP2005182125A (ja) 2003-12-16 2005-07-07 Casio Comput Co Ltd グラフ表示制御装置及びプログラム
JP2005244360A (ja) * 2004-02-24 2005-09-08 Kyocera Mita Corp 画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246755A (ja) * 2012-05-29 2013-12-09 Kyocera Corp 携帯端末装置

Also Published As

Publication number Publication date
WO2007063416A3 (en) 2007-10-25
WO2007063416A2 (en) 2007-06-07
RU2008116281A (ru) 2009-11-10
EP1934696A4 (en) 2012-08-01
EP1934696A2 (en) 2008-06-25
CA2621581C (en) 2011-11-29
RU2415464C2 (ru) 2011-03-27
CA2621581A1 (en) 2007-06-07
US7728818B2 (en) 2010-06-01
US20070075976A1 (en) 2007-04-05
JP2013050959A (ja) 2013-03-14
JP5613208B2 (ja) 2014-10-22

Similar Documents

Publication Publication Date Title
JP5613208B2 (ja) 電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース
US11029816B2 (en) Mobile device and method for executing particular function through touch event on communication related list
JP7527459B2 (ja) 複数のアプリケーションから受信した通知を表示するためのシステムおよび方法
US10936153B2 (en) Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content
US8161400B2 (en) Apparatus and method for processing data of mobile terminal
TWI381305B (zh) 使用者介面的顯示與操作方法以及電子裝置
US10698567B2 (en) Method and apparatus for providing a user interface on a device that indicates content operators
US9983777B2 (en) User interface method and apparatus for mobile terminal having touchscreen
US9081498B2 (en) Method and apparatus for adjusting a user interface to reduce obscuration
TWI529599B (zh) 行動式通信終端機,以及選單與項目之選擇方法
US10078420B2 (en) Electronic devices, associated apparatus and methods
US20100146451A1 (en) Handheld terminal capable of supporting menu selection using dragging on touch screen and method of controlling the same
US20150332107A1 (en) An apparatus and associated methods
US20140235222A1 (en) Systems and method for implementing multiple personas on mobile technology platforms
US20130227490A1 (en) Method and Apparatus for Providing an Option to Enable Multiple Selections
US20130227413A1 (en) Method and Apparatus for Providing a Contextual User Interface on a Device
US20130227454A1 (en) Method and Apparatus for Providing an Option to Undo a Delete Operation
KR20110113777A (ko) 정보 디스플레이
WO2010150055A1 (en) Delete slider mechanism

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111014

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120920

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120927

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20121228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131111

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131126