JP2014137825A - ガイドを提供する方法及び電子デバイス - Google Patents
ガイドを提供する方法及び電子デバイス Download PDFInfo
- Publication number
- JP2014137825A JP2014137825A JP2014007909A JP2014007909A JP2014137825A JP 2014137825 A JP2014137825 A JP 2014137825A JP 2014007909 A JP2014007909 A JP 2014007909A JP 2014007909 A JP2014007909 A JP 2014007909A JP 2014137825 A JP2014137825 A JP 2014137825A
- Authority
- JP
- Japan
- Prior art keywords
- guide
- icon
- user input
- content
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000004044 response Effects 0.000 claims abstract description 28
- 238000001514 detection method Methods 0.000 claims abstract description 4
- 230000003993 interaction Effects 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 description 41
- 238000004891 communication Methods 0.000 description 32
- 230000033001 locomotion Effects 0.000 description 26
- 230000004913 activation Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 238000010295 mobile communication Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000005674 electromagnetic induction Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013515 script Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 229920001746 electroactive polymer Polymers 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- KRQUFUKTQHISJB-YYADALCUSA-N 2-[(E)-N-[2-(4-chlorophenoxy)propoxy]-C-propylcarbonimidoyl]-3-hydroxy-5-(thian-3-yl)cyclohex-2-en-1-one Chemical compound CCC\C(=N/OCC(C)OC1=CC=C(Cl)C=C1)C1=C(O)CC(CC1=O)C1CCCSC1 KRQUFUKTQHISJB-YYADALCUSA-N 0.000 description 1
- 208000006930 Pseudomyxoma Peritonei Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920000306 polymethylpentene Polymers 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04102—Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/006—Teaching or communicating with blind persons using audible presentation of the information
Abstract
【課題】アイコンのガイドを提供する方法及び装置が提供される。
【解決手段】電子デバイスは、ガイドの設定モードで、第1のユーザ入力に応じてアイコンを指定し、上記指定されたアイコンのガイドとして提供されるコンテンツを、上記アイコンと関連付けて、ガイドを設定することができる。電子デバイスは、上記ガイド設定モードの後、上記ガイドの設定されたアイコンと画面とを表示し、上記ガイドが設定されたアイコンに対する第2のユーザ入力が検出されることによって、上記ガイドが設定されたアイコンに対する上記コンテンツを再生することができる。
【選択図】図3
【解決手段】電子デバイスは、ガイドの設定モードで、第1のユーザ入力に応じてアイコンを指定し、上記指定されたアイコンのガイドとして提供されるコンテンツを、上記アイコンと関連付けて、ガイドを設定することができる。電子デバイスは、上記ガイド設定モードの後、上記ガイドの設定されたアイコンと画面とを表示し、上記ガイドが設定されたアイコンに対する第2のユーザ入力が検出されることによって、上記ガイドが設定されたアイコンに対する上記コンテンツを再生することができる。
【選択図】図3
Description
本発明は、ガイドを提供する方法及び電子デバイスに関し、特に、ユーザ入力が受信されると、ユーザにガイドを提供する方法及び電子デバイスに関する。
一般的に、ユーザインターフェース(UI、user interface)は、ユーザと、物、システム、デバイス、又はプログラムなどとの間に意思疎通が可能であるよう、一時的又は持続的なアクセスを提供する技術である。
ユーザが容易に電子デバイスを操作できるように改善されたユーザインターフェースが、研究されてきている。ユーザは、改善されたユーザインターフェースを通じて、電子デバイスに容易に入力したり、出力を迅速に認識したりすることができる。
また、印刷物又は記憶媒体を通じて、ユーザインターフェース、アプリケーションの機能、電子デバイスの操作方法などに関する説明書又はガイドが提供されている。印刷物又は記憶媒体を通じて提供される説明書又はガイドの場合、ユーザは、使用状況に適した説明を、印刷物又は記憶媒体から探さなければならないという不都合があり、子供、老人、又は障害者等が利用しづらい。また、携帯端末のような電子デバイスでは、アクセシビリティを考慮したトークバック(talkback)などの機能が提供されているものの、トークバックの不自然な機械発音は、子供、老人、又は障碍者等には認知しづらく、かつ、単調になることもある。
したがって、電子デバイスにおいて、説明書又はガイドを提供する方法についての研究が必要である。
したがって、電子デバイスにおいて、説明書又はガイドを提供する方法についての研究が必要である。
米国特許出願公開第2008−0288865号公報
したがって、本発明は、上述した従来技術の問題点を解決するために提案されたものであり、その目的は、ユーザが、より便利に利用することができるガイドの提供方法及び電子デバイスを提供することにある。
また、本発明の他の目的は、ユーザが、容易にガイドを設定できるようにするガイドの提供方法及び電子デバイスを提供することにある。
本発明のまた他の目的は、ユーザに、より効果的に電子デバイスを利用し、かつ電子デバイスの利用に関する興味を誘発するようにするガイドの提供方法及び電子デバイスを提供することにある。
上記のような目的を達成するために、本発明の一態様によれば、電子デバイスにおけるアイコンのガイドを提供する方法が提供される。上記方法は、第1のユーザ入力に応じてアイコンを指定するステップと、上記指定されたアイコンのガイドとして提供されるコンテンツを、上記アイコンと関連付けて、ガイドを設定するステップと、上記ガイドが設定されたアイコンと画面とを表示するステップと、上記ガイドが設定されたアイコンに対する第2のユーザ入力が検出されることによって、上記ガイドが設定されたアイコンに関連付けられた上記コンテンツを再生するステップと、を含む。
本発明の一態様によれば、第3のユーザ入力に応じて、ガイドが設定されたアイコンに対応するアプリケーションを実行するステップをさらに含んでもよい。
本発明の一態様によれば、上記第2のユーザ入力及び上記第3のユーザ入力は、互いに異なるタッチジェスチャーであってもよい。
本発明の一態様によれば、上記コンテンツを再生するステップは、上記第2のユーザ入力として、タッチスクリーン上におけるホバー(Hover)ジェスチャーを識別し、上記アプリケーションを実行するステップは、上記第3のユーザ入力として、上記タッチスクリーンに対するタッチジェスチャーを識別してもよい。
本発明の一態様によれば、上記コンテンツを再生するステップは、上記ガイドが設定されたアイコンに対応するアプリケーションの実行のためのインタラクションオブジェクトを表示するステップをさらに含んでもよい。
本発明の一態様によれば、上記インタラクションオブジェクトに対する第3のユーザ入力が検出されることによって、上記アプリケーションを実行するステップをさらに含んでもよい。
本発明の一態様によれば、上記ガイドを設定するステップは、ホーム画面及びプログラム画面のうちの少なくとも一つに含まれた複数のアイコンを表示するステップと、上記第1のユーザ入力に応じて、上記複数のアイコンのうち、アイコンを指定するステップとを、さらに含んでもよい。
本発明の一態様によれば、上記ガイドを設定するステップは、上記指定されたアイコンのガイドとして提供されるコンテンツの形式を含むメニューを表示するステップと、上記メニューを通じて指定された形式に相応する上記コンテンツを、上記指定されたアイコンと関連づけるステップとを、さらに含んでもよい。
本発明の一態様によれば、上記ガイドを設定するステップは、上記指定された形式に相応する上記コンテンツを獲得するコンテンツ生成アプリケーションを実行するステップと、上記コンテンツ生成アプリケーションを通じてユーザ入力を検出して、上記コンテンツを獲得するステップとを、さらに含んでもよい。
本発明の一態様によれば、上記コンテンツは、ユーザの操作によって、上記電子デバイスのコンテンツ生成アプリケーションを通じて獲得されたものであってもよい。
本発明の一態様によれば、上記ガイドが設定されたアイコンと上記画面とを表示するステップは、上記ガイドが設定されたアイコンに上記ガイドが設定されていることを示す視覚的効果を、上記画面に提供するステップを含んでもよい。
本発明の一態様によれば、上記コンテンツは、音声、イメージ、動画、及びテキストのうちの少なくとも一つであってもよい。
本発明の一態様によれば、上記ガイドが設定されたアイコンに対する上記コンテンツを再生するステップは、上記ガイドが設定されたアイコンを含む画面の一部領域に、ポップアップ(pop-up)の形態で上記コンテンツを表示するステップであってもよい。
本発明の一態様によれば、上記ガイドを設定するステップは、少なくとも一つのアイコンと、上記少なくとも一つのアイコンのガイドとして提供されるコンテンツとの予め設定された関連付け情報をメモリに保存するステップと、上記予め設定された関連付け情報をユーザ入力によって変更するステップとを、含んでもよい。
本発明の一態様によれば、アイコンのガイドを提供する電子デバイスが提供される。上記電子デバイスは、ガイド設定モードにおいて、第1のユーザ入力に応じてアイコンを指定し、ガイドが設定されたアイコンと画面とを表示するユーザインターフェース部と、上記指定されたアイコンのガイドとして提供されるコンテンツを、上記アイコンと関連付けてガイドを設定し、上記ガイドが設定されたアイコンに対する第2のユーザ入力が検出されることによって、上記ガイドが設定されたアイコンに対する上記コンテンツが、再生されるよう制御する制御部とを、含む。
本発明の一態様によれば、上記制御部は、第3のユーザ入力に応じて、上記ガイドが設定されたアイコンに対応するアプリケーションが実行されるよう制御することができる。
本発明の一態様によれば、上記第2のユーザ入力及び第3のユーザ入力は、互いに異なるタッチジェスチャーであってもよい。
本発明の一態様によれば、上記第2のユーザ入力が、タッチスクリーン上におけるホバー(Hover)ジェスチャーであり、上記第3のユーザ入力は、上記タッチスクリーンに対するタッチジェスチャーであってもよい。
本発明の一態様によれば、上記制御部は、上記第2のユーザ入力に応じて、上記ガイドが設定されたアイコンに対応するアプリケーションの実行のためのインタラクションオブジェクトが、表示されるよう制御することができる。
本発明の一態様によれば、上記制御部は、上記インタラクションオブジェクトに対する第3のユーザ入力に応じて、上記アプリケーションが実行されるよう制御することができる。
本発明の一態様によれば、上記ユーザインターフェース部は、ホーム画面及びプログラム画面のうちの少なくとも一つに含まれた複数のアイコンを表示し、上記第1のユーザ入力に応じて、上記複数のアイコンのうち、アイコンを指定することにより、上記アイコンを指定することができる。
本発明の一態様によれば、上記ユーザインターフェース部は、上記指定されたアイコンのガイドとして提供されるコンテンツの形式を含むメニューを表示し、上記制御部は、上記メニューを通じて選択された形式に相応する上記コンテンツを、上記指定されたアイコンと関連付けることにより、上記ガイドを設定することができる。
本発明の一態様によれば、上記制御部は、上記形式に相応する上記コンテンツを獲得するコンテンツ生成アプリケーションが実行されるよう制御し、上記コンテンツ生成アプリケーションを通じてユーザ入力を検出して、上記コンテンツが獲得されるよう制御することにより、上記ガイドを設定することができる。
本発明の一態様によれば、上記コンテンツは、ユーザの操作によって、上記コンテンツ生成アプリケーションを通じて獲得されたものであってもよい。
本発明の一態様によれば、上記ユーザインターフェース部は、上記ガイドが設定されたアイコンに上記ガイドが設定されていると示す視覚的効果を、上記画面に提供することができる。
本発明の一態様によれば、上記コンテンツは、音声、イメージ、動画、及びテキストのうちの少なくとも一つであってもよい。
本発明の一態様によれば、上記ユーザインターフェース部は、上記ガイドが設定されたアイコンを含む画面の一部領域に、ポップアップの形で上記コンテンツを表示することができる。
本発明の一態様によれば、少なくとも一つのアイコンと、上記少なくとも一つのアイコンのガイドとして提供されるコンテンツの予め設定された関連付け情報を保存するメモリをさらに含み、上記制御部は、上記予め設定された関連付け情報を、ユーザ入力に応じて変更することにより、上記ガイドを設定することができる。
本発明は、アイコン又はメニューなどに、ガイドとして提供されるコンテンツを関連付けることにより、ユーザに、より直観的であり、かつ便利にガイドを提供することができる効果を有する。
また、本発明は、ガイド設定モードにおいて、ユーザ入力に応じて指定されたアイコンと、ガイドとして提供されるコンテンツとを関連付けて、ガイドを設定することにより、電子デバイスにおいて、ユーザに必要なガイドの対象及びコンテンツの選択に効率性を提供する効果を有する。
さらに、本発明は、ユーザの操作によって、コンテンツ生成アプリケーションを通じて獲得するか、又はユーザにより指定されたコンテンツをガイドとして用いることにより、ユーザに興味を誘発できるようにするガイドを提供する効果を有する。
以下、本発明の製造方法、使用方法を詳細に説明する。本明細書に記載の「・・部」、「モジュール」などの用語は、少なくとも一つの機能や動作を処理する単位を意味し、これは、ハードウェア又はソフトウェアで実現されるか、ハードウェアとソフトウェアとの組合せにより実現され得る。
本発明の一実施形態による電子デバイスは、多様な形態で実現することができる。例えば、本明細書に記述の電子デバイスは、携帯端末、コンピュータ、ユーザインターフェース部及び制御部などから構成された各種の機器を含んでもよい。携帯端末は、携帯電話、スマートフォン(smart phone)、ノートブック(laptop computer)、タブレットPC、電子ブック(e-book)端末機、デジタル放送用端末機、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、ナビゲーションなどを含んでもよいが、これに限定されない。
本発明の一実施形態によるアイコン又はアイテムに対するユーザ入力に応じて提供されるガイドは、コンテンツの表示又は再生を言う。ここで、ガイドとして提供されるコンテンツは、ユーザ入力によって指定されたファイル、又はユーザの操作によって生成された多様な形態のオブジェクトを含む。ガイドは、電子デバイスの操作又はアプリケーションについての説明、ガイド、ヘルプなどを含んでもよい。ガイドとして提供されるコンテンツの内容は、電子デバイスの操作、又はアイコン又はアイテムに対応するアプリケーションに限定されず、ユーザの選択によって興味を誘発する内容、アイコン又はアイテムと関係のない内容などから多様に構成されてもよいことに留意すべきである。また、ガイドとして提供されるコンテンツは、電子デバイスの製造者又は通信サービス事業者により提供されるか、アプリケーションが、電子デバイスにダウンロードされるか、インストールされるときに提供されるデフォルトコンテンツであってもよい。デフォルトコンテンツは、電子デバイスにおいて、ガイドの設定を通じて、ユーザの操作によって、その再生が非活性化されるか、編集されるか、アイコンとの関連付けが修正されるか、他のコンテンツに変更されてもよい。
本発明の一実施形態によるアイコンと、アイコンのガイドとして提供されるコンテンツの関連付け情報は、電子デバイスに記憶又は保存されてもよい。関連付け情報は、ユーザ入力によって新しく生成されてもよく、少なくとも一部が、修正又は変更されてもよい。また、電子デバイスの製造者又は通信サービス事業者によって提供されるか、アプリケーションがインストールされることによって、少なくとも一つのアイコンと、少なくとも一つのアイコンのガイドとして提供されるコンテンツとの、予め設定された関連づけ情報が、電子デバイスに記憶されるか、メモリに保存されてもよい。予め設定された関連づけ情報のうちの少なくとも一部は、電子デバイスにおいて、ユーザ入力に応じて、修正、変更され、各アイコンのガイドの活性化の可否が指定されてもよい。
以下、添付の図面を参照して、本発明の属する技術分野における通常の知識を有する者が、容易に実施することができるように、本発明の一実施形態について詳細に説明する。しかし、本発明は様々な相異なる形態で実現されてもよく、ここで説明する実施形態に限定されない。そして、図面において、本発明の説明を明らかにするために説明と関係のない部分は省略され、明細書の全般に渡って、同一の構成要素または機能的に類似した構成要素に対しては、同一の参照符号及び参照番号を付されている。
図1は、本発明の一態様による電子デバイスにおけるガイドを提供するコンセプトを示す例示図である。
電子デバイス100は、ガイド設定モードにおいて、第1のユーザ入力に応じてアイコンを指定する。電子デバイス100は、指定されたアイコンのガイドとして提供されるコンテンツを、アイコンと関連づけてガイドを設定する。ここで、アイコンは、携帯端末のような電子デバイス100のホーム画面及びプログラム画面のうちの少なくとも一つに含まれた複数のアイコンのうちの一つであってもよい。ガイド設定モードに対するユーザインターフェース及びガイドの設定方法については、図4及び図6〜図8を参照してより詳細に説明する。
本発明の一態様による、ユーザ入力に応じてガイドが提供される対象は、アイコン211、215、217だけではなく、ウィジェット、例えば、画面210の下端のドック(dock)メニュー、クイックパネル(quick-panel)又はリストなどのメニュー、メニューに含まれたアイテム、ステータスバー(status bar)213、ステータスバー213を構成するアイテム(例えば、バッテリー残量の表示、通信状態の表示、時間の表示など)、ホーム画面又はプログラム画面の背景画像などを含んでもよい。アイコン211、215、217は、イメージ及びテキストのうちの少なくとも一つから構成されてもよい。
電子デバイス100は、ガイド設定モードの後(又はガイド設定の後)、ガイドが設定されたアイコン217と画面210を表示する。この際、電子デバイス100は、ガイドが設定されたアイコン217にガイドが設定されていることを示す視覚的効果219を、画面210に提供することができる。電子デバイス100は、アイコン217に対するユーザ入力250に応じて、ガイドが設定されたアイコン217にガイドが設定されていることを示すために、ガイドの設定されていないアイコン211、215に対する反応とは異なる聴覚的効果、振動のような触覚(tactile)フィードバックなどをさらに提供することもできる。
電子デバイス100は、ガイドが設定されたアイコン217に対するユーザ入力250を検出すると、ガイドが設定されたアイコン217に対するコンテンツを再生する。
ユーザ入力250は、ガイドが設定されたアイコン217に対するコンテンツを再生するためのタッチジェスチャー、モーションジェスチャー、ボタン入力、キー入力、音声入力、モーション入力などであってもよい。説明の便宜上、ユーザ入力250は、アイコンのガイドが提供されるための第2のユーザ入力250と称し、アイコンに対応するアプリケーションを実行するためのユーザ入力(例えば、図9においてインタラクションオブジェクト925の選択、又は図11において画面1110上のアイコン217の選択)又は第2のユーザ入力後の新しいユーザ入力を第3のユーザ入力と称する。
第2のユーザ入力250と第3のユーザ入力は、同一のタッチジェスチャーなどのような同一のジェスチャーに対応させてもよい。第2のユーザ入力250と第3のユーザ入力が、同一のジェスチャーの場合、電子デバイス100は、一つのアイコン217に対するユーザ入力を識別するために、アイコン217に対する同一のジェスチャーが、順次的に入力されると、時間軸で互いに異なる機能を実行するための異なる入力として扱われるよう、ユーザインターフェースを制御することができる。
また、電子デバイス100は、第2のユーザ入力250及び第3のユーザ入力を、互いに異なるタッチジェスチャーなどによりジェスチャーを識別できるように設定し、入力時間と関係なく、入力された形態によって、第2のユーザ入力250と第3のユーザ入力とを識別することができる。電子デバイス100は、識別可能なユーザ入力によって、アイコン217に設定されたガイドを提供するか、アイコン217に対応するアプリケーションが実行されるよう制御することができる。
コンテンツは、第1のユーザ入力に応じて指定されたものであるか、ユーザの操作により、電子デバイス100のコンテンツ生成アプリケーションを通じて獲得されたものであってもよい。コンテンツは、音声、イメージ、動画、又はテキスト(ノート)の形態のファイルであってもよい。また、コンテンツは、FTP(File Transfer Protocol)又はインターネットウェブページ、IPアドレスなどのネットワークアドレスであってもよい。当該コンテンツが再生されると、ネットワークアドレスが指定するウェブページ又は音声、イメージ、動画、テキストなどが再生されるか、表示されてもよい。
例えば、図1において、画面220は、ガイドが設定されたアイコン217に対するユーザ入力250の検出に応じて、ガイドが設定されたアイコン217に対するコンテンツが再生されてもよい。電子デバイス100は、ガイドが設定されたアイコン217を含む画面220の一部領域に、ポップアップ(pop-up)221の形態でコンテンツを表示するか、再生することができる。コンテンツは、ポップアップ221の形態だけでなく、デスクトップ、ウィンドウ領域、又は画面220の全領域に表示されてもよい。ポップアップ221又はウィンドウの形状は、四角形、円形、楕円形、吹き出し、雲などの形状に多様に構成されてもよい。また、音声のような聴覚的コンテンツ、又はハプティックのような触覚的コンテンツが、別途の視覚的効果なく、再生されてもよい。
画面220のポップアップ221で再生されるコンテンツは、アイコン217に対応するアプリケーションについての説明(又はガイド)であるか、アイコン217への関心を有するようにする内容であってもよい。例えば、アイコン217が、カメラアプリケーションに対応する場合、アイコン217のガイドとして、「Flip! Flip!」ユーザの音声(又は音声ファイル)と共に、ポップアップ221に表示される「Flip! Flip!」テキスト(又はテキストファイル)が、アイコン217に関連付けられてもよい。ユーザは、電子デバイス100のユーザインターフェースを操作することにより、少なくとも一つのコンテンツを、アイコン217のガイドとして選択してもよい。本発明の一態様により、第1ユーザが第2ユーザを考慮して電子デバイス100においてガイドを設定し、電子デバイス100を用いる第2ユーザは、第1ユーザの音声のような、より慣れ親しんだ適切なガイドを受けてもよい。例えば、ガイドを受ける第2ユーザは、児童、知的障害者、老人などのように、電子デバイス100の操作が未熟なユーザであってもよく、第1ユーザは、第2ユーザの保護者であってもよい。また、電子デバイス100を使用する興味を惹くためにユーザが指定したコンテンツがガイドとして提供されるよう、ユーザは、一態様によるガイドを提供するユーザインターフェースを操作してもよい。一例として、ガイドとして提供されるコンテンツは、ゲームアプリケーションのように、電子デバイス100とユーザとの双方向のインタラクションインターフェースを含んでもよい。また、複数のコンテンツが一つのアイコンに対するガイドとして指定される場合、電子デバイス100は、ガイドが指定されたアイコンを含む画面が変更されるたびに、アイコンのガイドが変更されるよう、複数のコンテンツのうちの少なくとも一つが、任意に選択されて再生されるよう制御することもできる。
また、電子デバイス100において、第3のユーザ入力が検出されると、電子デバイス100は、ガイドが設定されたアイコン217に対応するアプリケーションを実行することができる。例えば、アイコン217がカメラアプリケーションに対応する場合、電子デバイス100は、第3のユーザ入力が受信されると、カメラアプリケーションを実行することができる。このように、アイコンに対するガイドが設定される前のユーザインターフェースを大きく変形することもなく、電子デバイス100は、アイコンに対応するアプリケーションの実行のための機能と、アイコンのガイドを提供する機能を便利に、かつ効果的に提供することができる。
以下に、図2〜図11を参照して、ガイドを提供する方法及び装置についてより詳細に説明する。
図2は、本発明の一態様による電子デバイスを示す例示図である。
図2を参照すると、電子デバイス100は、ユーザインターフェース部135及び制御部150を含む。ユーザインターフェース部135は、出力部120及びユーザ入力部130を含んでもよい。電子デバイス100は、メモリ160をさらに含んでもよい。また、電子デバイス100は、通信部110又はセンシング部140をさらに含んでもよい。
図2を参照すると、電子デバイス100は、ユーザインターフェース部135及び制御部150を含む。ユーザインターフェース部135は、出力部120及びユーザ入力部130を含んでもよい。電子デバイス100は、メモリ160をさらに含んでもよい。また、電子デバイス100は、通信部110又はセンシング部140をさらに含んでもよい。
ユーザインターフェース部135は、ガイド設定モードで、第1のユーザ入力に応じてアイコンを指定する。ユーザインターフェース部135は、ユーザに、ガイド設定のためのユーザインターフェースを提供することができる。ユーザインターフェース部135は、ガイド設定モードの後、ガイドが設定されたアイコンと画面とを表示する。
ユーザインターフェース部135は、出力部120及びユーザ入力部130を含んでもよい。出力部120は、オーディオ信号又はビデオ信号又は振動信号を出力するように構成されており、ディスプレイ部121、音響出力部122、振動モータ123などを含んでもよい。ディスプレイ部121は、電子デバイス100で処理される情報を出力する。例えば、ディスプレイ部121は、通話モードの場合、通話関連のユーザインターフェース(UI)又はGUI(Graphic User Interface)を表示することができる。ディスプレイ部121は、ガイド設定モードで、ガイドを設定するためのユーザインターフェースを表示することができる。
一方、ディスプレイ部121とタッチパッド(図示せず)とが、レイヤー構造をなして、タッチスクリーンを構成する場合、タッチスクリーンは、出力部120の機能以外に、ユーザ入力部130の機能をする装置としても用いることができる。ディスプレイ部121は、液晶ディスプレイ(liquid crystal display)、薄膜トランジスタ液晶ディスプレイ(thin film transistor liquid crystal display)、有機発光ダイオード(organic light emitting diode)、フレキシブルディスプレイ(flexible display)、3次元ディスプレイ(3D display)、電気泳動ディスプレイ(electrophoretic display)などから選択された少なくとも一つを含んでもよい。そして、電子デバイス100の実現形態によって、電子デバイス100は、ディスプレイ部121を二つ以上含んでもよい。この際、二つ以上のディスプレイ部121は、ヒンジ(hinge)などを用いて対向配置してもよい。
音響出力部122は、通信部110から受信されるか、メモリ160に記憶されたオーディオデータを出力する。音響出力部122は、ガイドとして提供されたコンテンツの再生のために、コンテンツの音響信号を出力することができる。また、音響出力部122は、電子デバイス100で遂行される機能(例えば、着信の受信音、メッセージの受信音など)と関連した音響信号を出力する。このような音響出力部122には、スピーカ(speaker)、ブザー(Buzzer)などが含まれてもよい。
振動モータ123は、振動信号を出力することができる。振動モータ123は、ガイドが設定されたアイコンに対するユーザ入力が検出される場合、触覚フィードバックとして振動信号を出力できる。また、振動モータ123は、オーディオデータ又はビデオデータ(例えば、着信の受信音、メッセージの受信音など)の出力に対応する振動信号を出力することができる。振動モータ123は、タッチスクリーンにタッチが入力される場合、振動信号を出力することができる。ここで、触覚フィードバックとして、振動信号のようなハプティック効果を提供するために、振動モータ123と共に、又は振動モータ123の代わりに、EAP(Electro Active Polymer)、圧電素子(Piezo)などが構成されてもよい。
ユーザ入力部130は、ガイド設定モードで、ガイド設定のためのユーザ入力を検出することができる。ユーザ入力部130は、ユーザ入力に応じてアイコンを指定するか、又はガイドとして提供されるコンテンツを指定することができる。
ユーザ入力部130とは、ユーザが電子デバイス100を制御するためのデータを入力する手段を意味する。例えば、ユーザ入力部130には、ソフトウェアのモジュール又は物理的機構及び回路により実現されるボタン、キーパッド(key pad)、ドームスイッチ(dome switch)、タッチパッド(接触式静電容量方式、電磁気誘導方式、圧力式抵抗膜方式、赤外線感知方式、表面超音波伝導方式、積分式張力測定方式、圧電効果方式など)、 ジョグホイール、ジョグスイッチなどが含まれてもよいが、これに限定されない。また、前述のように、ディスプレイ部121とタッチパッドとが結合して、タッチスクリーンとして構成されてもよい。また、タッチスクリーンが、静電容量方式又は電磁気誘導方式のタッチパッドを含んで構成される場合、タッチスクリーンは、静電容量方式又は電磁気誘導方式のペン(pen)のようなアクセサリを通じたユーザ入力を受信してもよい。
本発明の一態様による、ガイドが提供されるための第2のユーザ入力、及びアイコンに対応するアプリケーションを実行させるための第3のユーザ入力は、同一のジェスチャーであってもよい。例えば、タッチスクリーンを通じてタッチジェスチャーが受信される場合、第2のユーザ入力及び第3のユーザ入力は、一つのアイコンに対する選択を意味するタップ(tap)ジェスチャーであってもよい。マウスでユーザ入力が受信される場合、第2のユーザ入力及び第3のユーザ入力は、同一のボタンを用いた一つのアイコンに対するクリック(click)ジェスチャーであってもよい。キー又はボタンでユーザ入力が受信される場合、一つのアイコンの活性化又は選択を意味する第2のユーザ入力及び第3のユーザ入力は、同一のキー又はボタンに生成される入力信号であってもよい。この他にも、第2のユーザ入力及び第3のユーザ入力は、多様な形態のジェスチャー又は入力信号として設定されてもよい。第2のユーザ入力及び第3のユーザ入力が、同一のジェスチャーである場合、電子デバイス100は、一つのアイコンに対するユーザ入力を識別するために、同一のジェスチャーが、時間の差をおいて入力されると、各ジェスチャーが入力される時間で、ユーザインターフェースを変更して、互いに異なる機能のための入力として処理されるよう制御することができる。この際、第2のユーザ入力及び第3のユーザ入力が、受信される時刻で、複数のユーザインターフェース又は複数のユーザインターフェースが表示される複数の画面は、互いに相異してもよい。一例として、図9の画面210において、第2のユーザ入力250は、アイコン217に対するタップジェスチャーであり、ガイドを提供されるための入力であってもよい。図11の画面1110において、第3のユーザ入力1150も、アイコン217に対するタップジェスチャーであるが、アイコン217に対応するアプリケーションを実行するための入力であってもよい。図9の画面210は、ガイドが提供される前のホーム画面であり、図11の画面1110は、ガイドが提供された後を示すホーム画面であってもよい。また、電子デバイス100は、ユーザインターフェースを識別するために、アイコン217に対する視覚的効果を、画面210の視覚的効果219と画面1110の視覚的効果1119とを異なるように提供するか、第3のユーザ入力のためのインタラクションオブジェクト925などを用いて、時間軸で第2のユーザ入力と異なる形態のユーザインターフェースを提供してもよい。
本発明の他の態様による第2のユーザ入力及び第3のユーザ入力は、互いに異なるジェスチャーであってもよい。一例として、電子デバイス100で、ガイドが提供されるための第2のユーザ入力は、指又はペンを使ったタッチスクリーン上におけるホバー(Hover)ジェスチャーであり、アイコンに対応するアプリケーションを実行するための第3のユーザ入力は、タッチスクリーンに対するタッチジェスチャーであってもよい。ここで、ホバージェスチャーは、電子デバイス100のタッチスクリーンと指(又はペン)との距離が、一定の範囲内に属するとき、検出されるジェスチャーであってもよい。タッチジェスチャーは、タッチスクリーンと指(又はペン)間の距離が、ホバージェスチャーより近いとき、検出されるジェスチャーであってもよい。第2のユーザ入力は、タップジェスチャーであり、第3のユーザ入力は、ダブル(double)タップジェスチャーであってもよい。第2のユーザ入力は、ロングプレス(long-press)ジェスチャーであっても、第3のユーザ入力は、タップジェスチャーであってもよい。上述の例の他にも、第2のユーザ入力及び第3のユーザ入力は、多様な形態のジェスチャー又は入力信号として設定されることがあることに留意すべきである。電子デバイス100は、識別可能なユーザ入力によって、アイコンに設定されたガイドを提供するか、アイコンに対応するアプリケーションが実行されるよう制御されてもよい。
ジェスチャー又は入力信号を識別するために、予め設定されたジェスチャーのデータ(又は参照値)が、メモリ160に記憶されてもよい。具体的に、予め設定されたジェスチャーのデータは、メモリ160のUIモジュール161に含まれてもよい。制御部150は、メモリ160から予め設定されたジェスチャーのデータをアクセスして、ユーザインターフェース部135を通じて受信されたジェスチャー又は入力信号に対するユーザ入力と、予め設定されたジェスチャーのデータとを比較してもよい。制御部150は、比較結果に従い、ユーザ入力をガイドとして提供する機能のための第2のユーザ入力、又はアイコンに対応するアプリケーションを実行する機能のための第3のユーザ入力に対応するジェスチャーに特定するか、識別することができる。制御部150は、入力が受信されるときのユーザインターフェースと特定されたジェスチャーによって、第2のユーザ入力又は第3のユーザ入力に対応する機能が実行されるよう制御することができる。
制御部150は、ガイド設定モードで、ユーザインターフェース部135により指定されたアイコンと、指定されたアイコンのガイドとして提供されるコンテンツを関連付けて、ガイドを設定する。制御部150は、指定されたアイコンと、ガイドとして提供されるコンテンツとの関連付け又はマッピング関係を関連付け情報164として、メモリ160に記憶することができる。関連付け情報164は、アイコンの情報と、アイコンに対応するコンテンツの情報とを含んでもよい。一例として、アイコンの情報とコンテンツの情報は、マッピングテーブルの形態で記憶されてもよい。アイコンの情報又はコンテンツの情報は、その対象物の識別子、記憶場所又はアドレスであってもよく、当該アイコン又はコンテンツファイルそのものであってもよい。また、メモリ160は、電子デバイス100の製造者又は通信サービス事業者の提供によって、又はアプリケーションのインストールによって、少なくとも一つのアイコンと、少なくとも一つのアイコンのガイドとして提供されるコンテンツの、予め設定された関連付け情報を保存することができる。予め設定された関連付け情報は、電子デバイス100において、ユーザ入力によって、少なくとも一部が、修正、変更、各アイコンに対するガイドの活性化の可否が指定されてもよい。
制御部150は、ガイド設定モードの後、ガイドが設定されたアイコンに対する第2のユーザ入力が検出されることによって、ガイドが設定されたアイコンに対するコンテンツが再生されるよう制御する。制御部150は、ユーザインターフェース部135から検出されたユーザ入力のジェスチャー又は入力信号を識別して、ユーザ入力がアイコンのガイドを提供する機能のためのものであるか、アイコンに対応するアプリケーションを実行する機能のためのものであるかを判定することができる。また、制御部150は、ユーザ入力が検出されるとき、提供されるユーザインターフェースを考慮して、どんな機能のためのユーザ入力であるかを識別することができる。即ち、図9における第2のユーザ入力250及び図11における第3のユーザ入力1150の例のように、同一のジェスチャーに基づいたユーザ入力に対して、時間上、異なる機能の処理をするユーザインターフェースが提供される場合、制御部150は、ユーザ入力の受信時のユーザインターフェースの反応又は機能を検出することができる。
制御部150は、ジェスチャー又は入力信号が、ガイドを提供する機能のための第2のユーザ入力として判定される場合、アイコンに対するコンテンツが再生されるよう制御することができる。コンテンツは、音声、イメージ、動画、及びテキストのうちの少なくとも一つであってもよい。また、ガイドとして、複数のコンテンツが共に再生されてもよい。
また、制御部150は、ガイドが設定されたアイコンに対する第3のユーザ入力が検出されると、ガイドが設定されたアイコンに対応するアプリケーションが実行されるよう制御することができる。制御部150は、ユーザインターフェース部135から検出されたユーザ入力が、アイコンに対応するアプリケーションを実行する機能のための第3のユーザ入力として判定される場合、アイコンに対応するアプリケーションが実行されるよう制御できる。
また、制御部150は、通常、電子デバイス100の全般的な動作を制御する。制御部150は、メモリ160に記憶されたプログラムを実行することにより、通信部110、ユーザインターフェース部135、センシング部140、メモリ160などを全般的に制御することができる。
制御部150は、アプリケーションプロセッサ151及びコミュニケーションプロセッサ152を含んでもよい。アプリケーションプロセッサ151は、メモリ160に記憶された各種のアプリケーションの実行を制御することができる。例えば、アプリケーションプロセッサ151は、メモリ160に記憶されたガイド設定アプリケーション166をロードして、ガイド設定モードで、ユーザインターフェース部135を制御し、ユーザ入力に応じて指定されたアイコンとコンテンツとを関連付けて、関連付け情報164がメモリ160に記憶されるよう制御することができる。また、アイコンに対するユーザ入力が検出される場合、アプリケーションプロセッサ151は、メモリ160に記憶された関連付け情報164を参照して、当該アイコンにガイドが設定されているか、又はコンテンツが関連付けられているかを確認することができる。
メモリ160は、UIモジュール161、センシングモジュール162、タッチスクリーンモジュール163、関連付け情報164、アプリケーションDB165などを記憶することができる。アプリケーションDB165は、ユーザ入力を検出して、コンテンツを獲得するためのコンテンツ生成アプリケーション(図示せず)、ガイド設定アプリケーション166などを含んでもよい。
また、メモリ160は、制御部150の処理及び制御のためのプログラム又はコマンドを記憶することもでき、入/出力されるデータを記憶することもできる。
メモリ160は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードミクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、SD又はXDメモリなど)、RAM(Random Access Memory)、SRAM(Static Random Access Memory)、ROM(Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、PROM(Programmable Read-Only Memory)、磁気メモリ、磁気ディスク、光ディスクなど、少なくとも一つの記憶媒体を含んでもよい。また、電子デバイス100は、インターネット(internet)上でメモリ160の記憶機能を行うウェブストレージ(web storage)を操作することもできる。
メモリ160に記憶されたプログラムは、その機能によって、複数のモジュールを含んでもよいが、例えば、UIモジュール161、センシングモジュール162、タッチスクリーンモジュール163などを含んでもよい。
UIモジュール161は、予め設定されたジェスチャーのデータを記憶することができる。また、UIモジュール161は、ユーザインターフェース部135の駆動に必要な制御情報、又はコマンドの集合であってもよい。UIモジュール161の機能は、その名称から当業者が分かるので、具体的な説明は省略する。また、制御部150は、UIモジュール161と、アプリケーションDB165のガイド設定アプリケーション166をアクセスして、ガイド設定モードで、ユーザインターフェース部135を通じて、ユーザにガイドを設定するユーザインターフェースが提供されるようにすることができる。
センシングモジュール162は、制御部150がセンシング部140を制御するためのコマンドの集合であってもよい。制御部150は、ガイド設定モードで、ガイドとして提供されるコンテンツが獲得されるよう、メモリ160からコンテンツ生成アプリケーション(図示せず)と、センシングモジュール162とを、ロードしてセンシング部140を制御することができる。コンテンツ生成アプリケーションは、獲得されるコンテンツの形式などによって、ボイスレコーダアプリケーション、カメラアプリケーション、カムコーダアプリケーション、テキストアプリケーション、ペンを用いるノードアプリケーションなど、多様なアプリケーションを含んでもよい。
タッチスクリーンモジュール163は、ユーザインターフェース部135がタッチスクリーンを含む場合、ユーザのタッチスクリーンに対するタッチジェスチャーを感知し、タッチジェスチャーに関する情報を制御部150へ伝達することができる。タッチスクリーンモジュール163は、別途のコントローラ(H/W)からなってもよい。
また、センシング部140は、タッチスクリーンのタッチ又は近接タッチを感知するために、タッチスクリーンの内部又は近くに備えられる多様なセンサーを含んでもよい。タッチスクリーンのタッチを感知するためのセンサーの一例として、触覚センサーがある。触覚センサーは、人が感じる程度で、又はそれ以上、特定の物体の接触を感知するセンサーを言う。上記触覚センサーは、接触面の粗さ、接触物体の固さ、接触地点の温度などの多様な情報を感知することができる。
また、タッチスクリーンのタッチを感知するためのセンサーの一例として、近接センサーがある。近接センサーは、所定の検出面に接近する物体、或いは近傍に存在する物体の有無を、電磁力又は赤外線を用いて、機械的な接触なく、検出するセンサーを言う。近接センサーの例としては、透過型光電センサー、直接反射型光電センサー、ミラー反射型光電センサー、高周波発振型近接センサー、静電容量型近接センサー、磁気型近接センサー、赤外線近接センサーなどがある。ユーザのタッチジェスチャーは、タップ、ロングプレス(又はタッチ&ホールド)、ダブルタップ、ドラッグ、パンニング、フリック、ドラッグアンドドロップ、スワイプなどを含んでもよい。
メモリ160は、ガイド設定モードで、ユーザインターフェースを提供するガイド設定アプリケーション166を含んでもよい。また、メモリ160は、多様なアプリケーションを記憶することができる。例えば、アプリケーションDB165には、リマインダーアプリケーション、コンタクトアプリケーション、地図アプリケーション、音楽アプリケーション、電子ブックアプリケーション、健康管理アプリケーション、運動管理アプリケーション、育児アプリケーションなどが格納されてもよいが、これに限定されることではない。
また、メモリ160は、音声認識エンジンを用いてユーザの音声を認識し、認識された音声を制御部150へ伝達するための音声認識モジュール(図示せず)を含んでもよい。
また、メモリ160は、電子デバイス100のイベント発生を知らせるための信号を発生する機能のアラームモジュール(図示せず)を含んでもよい。電子デバイス100で発生されるイベントの例としては、着信の受信、メッセージの受信、キー信号の入力、スケジュールの通知などがある。アラームモジュールは、ディスプレイ部121を通じて、ビデオ信号の形態でアラーム信号を出力してもよく、音響出力部122を通じて、オーディオ信号の形態でアラーム信号を出力してもよく、振動モータ123を通じて、振動信号の形態でアラーム信号を出力してもよい。一方、アラームモジュールは、スヌーズ(snooze)機能を提供することもできる。例えば、ユーザが、アラームの繰返し回数(例えば、5回)又はアラームの繰返し間隔(例えば、3分)などを設定した場合、アラームモジュールは、アラーム信号を所定の回数(例えば、5回)又は所定の間隔(例えば、3分)で出力することができる。
また、メモリ160は、アイコンの情報と、アイコンのガイドとして提供されるコンテンツの情報とが関連付けられたマッピングテーブルを示す関連付け情報164を含むことができる。コンテンツは、ガイド設定モードで、ユーザ入力によって指定されたものであるか、ユーザの操作によって、電子デバイス100のコンテンツ生成アプリケーションを用いて獲得されたものであってもよい。関連付け情報164は、ユーザの利便性向上のために、電子デバイス100の製造者、アプリケーションの開発者、又は第3のユーザが提供するデフォルト関連付け情報を含んでもよい。また、ガイド設定モードで、ユーザ入力によって、デフォルト関連付け情報が変更されるか、活性化の可否が決定されてもよい。制御部150は、コンテンツ生成アプリケーションを駆動し、センシング部140を制御して、ユーザの操作によって入力されるセンシング情報からコンテンツを獲得してもよい。獲得されたコンテンツは、メモリ160に記憶され、保存されてもよい。また、ガイド設定モードで、ユーザ入力によって指定されるコンテンツは、コンテンツ生成アプリケーションを通じて獲得したものであるか、通信ネットワーク又は外部記憶機器を介してダウンロードされたものであるか、電子デバイス100が製作されるとき、予め記憶されたものであってもよい。
通信部110は、電子デバイス100と移動通信の基地局、サーバー、又は外部機器との間の通信のための一つ以上の構成要素を含んでもよい。例えば、通信部110は、近距離通信部111、移動通信部112、放送受信部113などを含んでもよい。
近距離通信部111は、ブルートゥース(bluetooth(登録商標))、無線ラン(Wi-Fi)、ジグビー(Zigbee(登録商標))、WFD(Wi-Fi Direct(登録商標))、UWB(ultra wideband)、赤外線通信(IrDA、Infrared Data Association)、RF−ID、NFC(Near Field Communication)など、近距離通信基盤の通信モジュールを含んでもよい。
近距離通信部111は、外部機器からブロードキャスティングされる信号(Advertising packet)を受信することができる。近距離通信部111は、所定の周期で外部機器をスキャン(又は探索)してもよく、ユーザのリクエスト時に、外部機器をスキャン(又は探索)してもよい。また、近距離通信部111は、スキャンされた外部機器とペアリングするか、外部機器を用いて、ネットワークに入ることにより、通信チャンネルを形成することができる。
移動通信部112は、移動通信網の上で、基地局、外部の端末、サーバー中の少なくとも一つと無線信号を送受信する。ここで、無線信号は、音声の着信号、画像通話の着信号、又はテキスト/マルチメディアメッセージの送受信による多様な形態のデータを含んでもよい。移動通信部112は、TDM、TDMA、FDM、FDMA、CDM、CDMA、OFDM、OFDMA、MIMO、スマートアンテナなどの技術を用いるGSM(登録商標)、WCDMA(登録商標)、HSDPA、LTE、WiMAXなどの標準の通信モジュールを含んでもよい。
通信モジュールは、アンテナ、RF回路、モデムなどを含んでもよく、ハードウェア又はソフトウェアから構成されてもよい。モデムなどの一部の機能モジュールは、制御部150のコミュニケーションプロセッサ152と共に動作するか、コミュニケーションプロセッサ152なしで、当該機能のモジュールのみで動作してもよい。
放送受信部113は、放送チャンネルを通して、外部から放送信号及び/又は放送関連の情報を受信する。放送チャンネルは、衛星チャンネル、地上波チャンネルを含んでもよい。実装によっては、放送受信部113が省略されてもよい。
センシング部140は、カメラ141、マイク142、モーションセンサー143などを含んでもよい。センシング部140は、ユーザ入力、音声、音響、イメージ、動画、又は電子デバイス100の動きなどを検出することができる。ユーザ入力は、ガイドが設定されたアイコンに対するコンテンツを再生するための第2のユーザ入力、及びアイコンに対応するアプリケーションを実行するための第3のユーザ入力などを含んでもよい。ユーザ入力は、タッチジェスチャー、モーションジェスチャー、ボタン入力、キー入力、音声入力、モーション入力などを含んでもよい。ここで、センシング部140は、モーションジェスチャー、音声入力、モーション入力などを検出することができる。
また、センシング部140は、制御部150の制御の下、多様なコンテンツ生成アプリケーションに対応するセンシング情報を獲得することができる。制御部150は、メモリ160からコンテンツ生成アプリケーションとセンシングモジュール162とをロードして、センシング部140を制御することができる。
カメラ141は、ユーザのモーションジェスチャーを撮影して、ユーザ入力に対するセンシング情報を獲得することができる。また、カメラ141は、イメージ又は動画コンテンツを生成しようとする場合、カメラアプリケーション又はカムコーダアプリケーションに対応するセンシング情報を獲得することができる。
カメラ141は、2D又は3D光学センサー、3次元デプスセンサーなどを含んでもよい。カメラ141は、ディスプレイ部121が含まれた電子デバイス100の少なくとも一面に含まれたものであってもよい。また、カメラ141は、画像通話モード又は撮影モードで、イメージセンサーを通じて、静止映像又は動画などの画像フレームを得ることができる。イメージセンサーを通じてキャプチャされたイメージは、制御部150又は別途のイメージ処理部(図示せず)を通じて処理されてもよい。処理された画像フレームは、ディスプレイ部121に表示されてもよく、メモリ160に記憶されるか、通信部110を通じて外部へ転送されてもよい。カメラ141は、電子デバイス100の構成態様によって、二つ以上備えられてもよい。
マイク142は、ユーザの音声入力に対するセンシング情報を獲得することができる。また、マイク142は、音声コンテンツを生成しようとする場合、ボイスレコーダアプリケーションに対応するセンシング情報を獲得することができる。
また、マイク142は、通話モード又は録音モード、音声認識モードなどで、外部の音響信号の入力を受けて、電気的な音声データとして処理する。処理された音声データは、通話モードの場合、移動通信部112を通じて、移動通信の基地局へ送信可能な形態に変換されて出力されてもよい。
モーションセンサー143は、ユーザが電子デバイス100を動かすか、揺らすユーザのモーション入力に対するセンシング情報を獲得することができる。モーションセンサー143は、電子デバイス100の動きを検出して、動きのパターンに対するセンシング情報を獲得することができる。モーションセンサー143は、加速度センサー、地磁気センサー、ジャイロセンサーなどを含んでもよい。モーションセンサー143は、一定の時間の間、電子デバイス100の動き方向と大きさなどのセンシング情報を検出し、検出されたセンシング情報から、動きの軌跡又は動きベクトルの累積データなどの動きのパターンを獲得することができる。制御部150は、獲得されたセンシング情報を通じて、電子デバイス100の動きのパターンが、入力又は命令に対応する予め設定された動きのパターンと合致するか、又は予め設定された動きのパターンに相応する動きの範囲内に属するかを判定することができる。
また、上述のセンシング部140の複数のセンサーは、ユーザ入力のパターン又はコンテンツ生成アプリケーションの種類によって、多様に構成され得ることは、当業者には自明である。
図3は、本発明の一態様によるガイドの提供方法を示すフローチャートである。以下に、一実施形態として、図2の電子デバイス100におけるガイドの提供方法を説明する。
ステップ305において、電子デバイス100は、ガイド設定モードで、第1のユーザ入力に応じてアイコンを指定する。
ステップ310において、電子デバイス100は、指定されたアイコンのガイドとして提供されるコンテンツを、ステップ305で、指定されたアイコンと関連付けて、ガイドを設定する。ここで、コンテンツは、ユーザの操作によって、電子デバイス100のコンテンツ生成アプリケーションを通じて獲得されたものであってもよい。コンテンツは、音声、イメージ、動画、及びテキストのうちの少なくとも一つであってもよい。また、コンテンツは、FTP又はインターネットウェブページ、IPアドレスなどのネットワークアドレスであってもよく、当該コンテンツが再生されると、ネットワークアドレスが指すウェブページ又は音声、イメージ、動画、テキストなどが再生されるか、表示されてもよい。また、ガイドとして提供されるコンテンツは、電子デバイス100の製造者により提供されるか、アプリケーションが電子デバイス100にダウンロードされるか、インストールされるとき、共に提供されるデフォルトコンテンツであってもよい。また、電子デバイス100の製造者の提供又はアプリケーションのインストールによって、少なくとも一つのアイコンと、少なくとも一つのアイコンのガイドとして提供されるコンテンツの、予め設定された関連付け情報が、電子デバイス100のメモリ160に保存されてもよい。予め設定された関連付け情報は、電子デバイス100において、ガイドの設定を通じて、ユーザの操作により(又はユーザ入力により)、予め設定された関連付け情報の全体又は予め設定された関連付け情報に含まれた各アイコンに対するガイドの活性化の可否が指定されるか、予め設定された関連付け情報の少なくとも一部が、修正又は変更されてもよい。
ステップ315において、電子デバイス100は、ガイド設定モードの後、ガイドの設定されたアイコンと画面とを表示する。
ステップ320において、電子デバイス100は、ガイドが設定されたアイコンに対する第2のユーザ入力が検出されたか否かの可否を確認することができる。ガイドが設定されたアイコンに対する第2のユーザ入力が検出されない場合、アイコンのガイドを提供するための動作を終了することができる。
ガイドが設定されたアイコンに対する第2のユーザ入力が受信されると、ステップ325において、電子デバイス100は、ガイドが設定されたアイコンに対するコンテンツを再生する。
ステップ325において、電子デバイス100は、ガイドが設定されたアイコンに対応するアプリケーションの実行のためのインタラクションオブジェクトを表示することができる。インタラクションオブジェクトに対する第3のユーザ入力が検出されることによって、電子デバイス100は、アイコンに対応するアプリケーションを実行することができる。
また、ステップ315の後、ガイドが設定されたアイコンに対する第3のユーザ入力が検出されると、電子デバイス100は、ガイドが設定されたアイコンに対応するアプリケーションを実行することもできる。
図4は、本発明の一態様によるガイドの設定方法を示すフローチャートである。図4は、図3のステップ305〜ステップ310をより詳細に説明するための一実施形態として、以下に図6〜図8を共に参照して説明する。
ステップ405において、電子デバイス100は、ガイド設定モードに進むことができる。図6において、電子デバイス100の画面610、620は、ガイド設定モードに進むためのユーザインターフェースの一例を示す。画面610は、電子デバイス100の環境設定メニューを表示する。環境設定メニューは、WiFi、ブルートゥース(登録商標)のような通信設定、ディスプレイ設定、アクセシビリティ615設定などのためのユーザインターフェースを提供する。ユーザ入力650によって、アクセシビリティ615が選択されると、電子デバイス100は、アクセシビリティ設定メニューを表示する画面620を表示することができる。
アクセシビリティ設定メニューは、本発明の一態様によるガイドの設定を提供するためのガイド設定アイテム655を含んでもよい。また、アクセシビリティ設定メニューは、自動画面回転(Auto-rotate screen)、トークバック(talkback)、ウェブスクリプトインストール(Install web scripts)などのアイテムを含んでもよい。自動画面回転は、電子デバイス100の横又は縦の配置に従って、電子デバイス100に表示される画面の横又は縦の配置を適応的に変更できる機能であってもよい。トークバックは、ユーザが、タッチ、選択又は活性化した項目を、電子デバイス100が、音声などで説明してくれる機能であって、視覚障害者のための音声フィードバックを含んでもよい。ウェブスクリプトのインストールは、ウェブコンテンツにアクセスが容易になるよう、スクリプトを設けることであってもよい。ユーザ入力によって、ガイド設定アイテム655が選択されると、電子デバイス100は、ガイド設定モードに進むことができる。
また、電子デバイス100がガイド設定モードに進む方法は、図6において例示されたユーザインターフェースを通じた方法以外にも、多様な方法が可能である。例えば、電子デバイス100は、ホーム画面又はプログラム画面で、予め設定されたユーザ入力(例えば、タッチジェスチャー、モーションジェスチャー、ボタン入力、キー入力、音声入力、モーション入力など)が検出されると、一般使用モードからガイド設定モードへ遷移してもよい。また、電子デバイス100は、ホーム画面又はプログラム画面で、アイコンに対する付加機能メニューを通じて、ガイド設定モードに進む機能を提供してもよい。
図7の画面710は、ガイド設定モードで、ガイド設定メニューを示す一例である。ガイド設定メニューは、追加アイテム711、修正アイテム713、削除アイテム715、ガイド活性化アイテム717などを含んでもよい。追加アイテム711は、新しいアイコンに対して、ガイドを提供できるよう、関連付け情報にアイコンの情報又はアイコンのガイドとして提供されるコンテンツの情報を追加する機能に対するユーザインターフェースであってもよい。修正アイテム713は、メモリに保存される関連付け情報を修正するためのものであって、アイコンの情報又はアイコンに対応するコンテンツの情報を修正する機能に対することであってもよい。削除アイテム715は、メモリに保存される関連付け情報の少なくとも一部を削除するためのものであってもよい。ガイド活性化アイテム717は、本発明の一態様によるガイド提供機能の活性化の可否を示すか、ガイド提供機能の活性化の可否を決定できるようにするユーザインターフェースであってもよい。例えば、ガイド活性化アイテム713は、現在、ガイド提供機能が活性化されていることを示し、ガイド活性化アイテム713に対するユーザ入力によって、活性化又は非活性化のうちの一つが選択されてもよい。また、ガイド活性化アイテム713は、画面710に示されたように、トグルボタンの形態で提供されてもよく、ラジオボタン、チェックボックス、リスト形式などで多様に実現されてもよい。
また、ユーザの操作によって、ガイド設定メニューのアイテム711、713、715、717を通じて、予め設定された関連付け情報が、修正、変更又は活性化の可否が指定されてもよい。
ステップ410において、電子デバイス100は、ガイド設定モードで、ホーム画面及びプログラム画面のうちの少なくとも一つに含まれた複数のアイコンを表示することができる。図7の画面720は、ユーザ入力750に応じて画面710の追加アイテム711が選択されることによって、表示されるものであってもよい。また、画面720は、アイコンのガイドを修正、削除するためのものとして用いてもよい。画面720は、ホーム画面及びプログラム画面のうちの少なくとも一つに含まれた複数のアイコンからなってもよい。例えば、画面720は、ユーザの利便性向上のために、通常使用モードにおけるホーム画面又はプログラム画面と同一の画面から構成されてもよい。また、画面720は、一定の整列規則に従って、複数のアイコンが配列された形態であってもよい。
ステップ415において、電子デバイス100は、第1のユーザ入力に応じて、複数のアイコンの中からアイコンを指定することができる。例えば、画面720でユーザ入力755に応じて、アイコン217が指定されてもよい。
ステップ420において、電子デバイス100は、指定されたアイコンのガイドとして提供されるコンテンツの形式を指定するメニューを表示することができる。例えば、図8の画面810は、ガイドとして提供されるコンテンツの形式を指定し、コンテンツ生成アプリケーションの使用の可否の選択又は指定された形式に合うコンテンツを添付するためのガイド設定メニューの一例であってもよい。画面810のガイド設定メニューは、音声録音/添付アイテム811、動画撮影/添付アイテム813、写真撮影/添付アイテム815、ノート/添付アイテム817、テキストメモ/添付アイテム819などを含んでもよい。
音声録音/添付アイテム811は、音声コンテンツを生成するために、ボイスレコーダアプリケーションを起動するか、音声ファイルを選択する機能のためのものであってもよい。動画撮影/添付アイテム813は、動画コンテンツを生成するために、カムコーダ(又はビデオレコーダ)アプリケーションを起動するか、動画ファイルを選択する機能のためのものであってもよい。写真撮影/添付アイテム815は、イメージコンテンツを生成するために、カメラアプリケーションを起動するか、イメージファイルを選択する機能のためのものであってもよい。ノート/添付アイテム817は、ノートコンテンツを生成するために、ノートアプリケーションを起動するか、ノートファイルを選択する機能のためのものであってもよい。テキストメモ/添付アイテム819は、テキストコンテンツを生成するために、テキストアプリケーションを起動するか、テキストファイルを選択する機能のためのものであってもよい。
ステップ425において、電子デバイス100は、ユーザ入力に応じて、ガイドとして提供されるコンテンツを生成するか否かを判定することができる。
コンテンツを生成しないと判定される場合(即ち、ユーザ入力に応じて、ガイドとして提供されるコンテンツの添付が指定された場合)、ステップ430において、電子デバイス100は、メニューを通じて指定された形式に相応するコンテンツを選択することができる。例えば、図8の画面810で、ユーザ入力850に応じて、動画撮影/添付アイテム813が選択され、動画の添付が指定された場合、電子デバイス100は、ユーザに動画又はビデオファイルを探索するか、選択できるユーザインターフェースを提供することができる。ガイドとして提供されるコンテンツは、電子デバイス100の製造者により提供されるか、アプリケーションが電子デバイスにダウンロードされるか、インストールされるとき、共に提供されるデフォルトコンテンツを含んでもよい。デフォルトコンテンツは、電子デバイス100で、ガイドの設定を通じてユーザの操作によって、その再生が非活性化されるか、編集されるか、アイコンとの関連付けが修正されるか、別のコンテンツへ変更されてもよい。
コンテンツを生成すると判定される場合(即ち、ユーザ入力に応じて、ガイドとして提供されるコンテンツの生成が指定された場合)、ステップ435において、電子デバイス100は、メニューを通じて指定された形式に相応するコンテンツを獲得するコンテンツ生成アプリケーションを実行することができる。例えば、図8の画面810で、ユーザ入力850に応じて、動画撮影/添付アイテム813が選択され、動画撮影が指定された場合、電子デバイス100は、カムコーダアプリケーションを実行することができる。
ステップ440において、電子デバイス100は、コンテンツ生成アプリケーションを通じてユーザ入力を検出して、コンテンツを獲得することができる。例えば、電子デバイス100は、カムコーダアプリケーションを通じてユーザ入力を検出して、動画ファイルを獲得し、記憶することができる。
ステップ445において、電子デバイス100は、ステップ430で選択されたコンテンツ又はステップ435で獲得されたコンテンツを、指定されたアイコンと関連付けて、ガイドを設定することができる。例えば、図4に示されるように、電子デバイス100は、指定されたアイコンの情報とコンテンツの情報との関連付け情報を記憶することにより、ガイドを設定することができる。また、電子デバイス100の製造者の提供又はアプリケーションのインストールによって、少なくとも一つのアイコンと、少なくとも一つのアイコンのガイドとして提供されるコンテンツとの関連付け情報が、予め設定されて電子デバイスに記憶されたものであってもよい。例えば、予め設定された関連付け情報は、電子デバイス100の製造者又は通信サービス業者が提供するネイティブアプリケーションに対するアイコンと、デフォルトコンテンツとの関連付けを含んでもよい。予め設定された関連付け情報は、ステップ415〜ステップ440において説明されたユーザインターフェースを通じて、電子デバイス100でユーザ入力によって、少なくとも一部が、修正、変更、各アイコンに対するガイドの活性化の可否が指定されてもよい。
図5は、本発明の一態様によるガイド設定の後にガイドを提供する方法を示すフローチャートである。図5は、図3のステップ315〜ステップ325をより詳細に説明するための一実施形態として、以下に図9〜図11を共に参照して説明する。
ステップ505において、電子デバイス100は、ガイド設定モードの後、ガイドが設定されたアイコンと画面とを表示することができる。電子デバイス100は、ガイドが設定されたアイコンに、視覚的効果を提供することができる。ガイド設定モードの後とは、ガイドが設定された後であるか、又はガイドの説明モードを終了し、通常使用モードに進んだことを意味する。
例えば、図9の画面210は、ガイド設定モードの後、ホーム画面を示す一例である。画面210は、ガイドが設定されたアイコン217を含む。ガイドが設定されたアイコン217には、視覚的効果219が提供されてもよい。視覚的効果219は、ガイドが設定されたアイコン217に対するオーラ(aura)効果、アニメーション、ガイドが設定されなかったアイコンと異なる大きさ、テキスト、イメージ又は付加アイコンの追加などを含んでもよい。
ステップ510において、電子デバイス100は、アイコンに対する第2のユーザ入力が検出されたか否かを確認することができる。アイコンに対する入力のない場合、又は、第2のユーザ入力が予め設定されたジェスチャー又は信号と異なる場合、一態様によるガイドを提供するための動作を終了することができる。
アイコンに対する第2のユーザ入力が受信される場合、ステップ515において、電子デバイス100は、当該アイコンにガイドが設定されているか否かを判定することができる。例えば、電子デバイス100は、メモリに記憶された関連付け情報を参照して、第2のユーザ入力に対応するアイコンにガイドが設定されているか否かを判定することができる。
アイコンにガイドが設定されていない場合、ステップ520において、電子デバイス100は、アイコンに対応するアプリケーションを実行するか、ガイドを提供するための動作を終了することができる。
アイコンにガイドが設定されている場合、ステップ525において、電子デバイス100は、アイコンに対するコンテンツを再生することにより、ユーザにガイドを提供することができる。例えば、図9の画面210で、ユーザ入力250に応じて、ガイドの設定されたアイコン217が指定されると、電子デバイス100は、画面920で、アイコン217に対する動画コンテンツ923を再生することができる。また、電子デバイス100は、アイコンに対応するアプリケーションの実行のためのインタラクションオブジェクト925を表示することができる。
電子デバイス100は、図9の画面210のようなホーム画面で、ガイドを表示するために、画面210における複数のアイコンの配置を保持したレイヤー上に、画面920のように、アイコンのガイドをポップアップ921の形態で表示することができる。また、アイコンのガイドは、画面920のポップアップ921の形態だけではなく、図10の画面1020のように、アイコンの位置が再配列されるか、ホーム画面が変更されて、新しい形態で表示されてもよい。コンテンツ1023、1025は、画面1020のポップアップ1021に表示されるか、ポップアップの形態と関係なく、全領域又は一部領域に表示されてもよい。画面1020は、ガイドとして提供されるコンテンツ1023、1025として、動画1023及びテキスト1025が共に表示できることを示す。また、コンテンツ1023、1025と共に、音声、イメージ、又はノート形式のコンテンツが提供されてもよい。このように、ガイドとして提供されるコンテンツは、複数のコンテンツであってもよい。また、画面1020のガイドには、画面920と違って、インタラクションオブジェクト925が省略されてもよい。
ガイドが提供される画面1020にインタラクションオブジェクト925のない場合、ガイドの提供が完了された後、電子デバイス100は、図11の画面1110で、アイコン217を表示することにより、ユーザに、アイコン217に対応するアプリケーションを実行させるようユーザインターフェースを提供することができる。この際、画面は、図9の画面210と同一の形態であってもよく、画面1110で表示されるアイコン217のように、アイコン217に対するガイドが提供された後であることを示す視覚的効果1119と共に表示されてもよい。例えば、図9の画面210における視覚的効果219と、図11の画面1110における視覚的効果1119とが、互いに色相、大きさ、アニメーションなどが異なって表示されるものであってもよい。また、ガイドが提供されたか否かの可否に従って、アイコンには聴覚的効果又は触覚的効果が分けて表示されてもよい。
ガイドとしてコンテンツが再生された後、ステップ530において、電子デバイス100は、第3のユーザ入力に応じて、アイコンに対応するアプリケーションを実行するためのユーザインターフェースの制御のために、タイマーを駆動することができる。
ステップ535において、電子デバイス100は、アイコンに対する第3のユーザ入力が受信されるか否かを確認することができる。第3のユーザ入力が受信されない場合、ステップ540において、電子デバイス100は、タイマーが駆動された後、予め設定された時間が過ぎたか否かを確認することができる。予め設定された時間が過ぎなかった場合、電子デバイス100は、再びステップ535に進んで、第3のユーザ入力の受信をチェックすることができる。予め設定された時間が過ぎた場合、電子デバイス100は、ガイドの設定されたアイコンに対応するアプリケーションを実行するための動作を終了することができる。また、電子デバイス100は、ガイドとしてコンテンツが再生された後、予め設定された時間が経つと、図9の画面210のように、ガイドの設定されたアイコン217に対してガイドを提供するためのユーザインターフェースを再び表示することができる。
アイコンに対する第3のユーザ入力が受信されると、電子デバイス100は、アイコンに対応するアプリケーションを実行することができる。例えば、ガイドを提供する画面920に、インタラクションオブジェクト925に対する第3のユーザ入力が受信されると、電子デバイス100は、アイコン217に対応するアプリケーションを実行して、画面1120を表示することができる。また、ガイドが提供された後(ガイドとして、コンテンツが再生された後)、画面1110で、アイコン217に対する第3のユーザ入力1150が検出されると、電子デバイス100は、アイコン217に対応するアプリケーションが実行されるよう制御して、画面1120を表示することができる。
また、図5を通じて、第2のユーザ入力と第3のユーザ入力を、時間軸で区分して、当該入力に対応する互いに異なる機能が動作されるようにするユーザインターフェースについて説明したが、図1で説明したように、電子デバイス100は、第2のユーザ入力及び第3のユーザ入力を、互いに異なるジェスチャーに区分して設定し、時間と関係なく、入力された形態によって、第2のユーザ入力及び第3のユーザ入力を区分することもできることに留意すべきである。例えば、第2のユーザ入力は、タッチスクリーン上におけるホバージェスチャーであり、第3のユーザ入力は、タッチスクリーンに対するタッチジェスチャーであってもよい。
また、図4又は図5を通じて、ガイドの提供方法として説明された動作のステップは、その順序が任意に変更されるか、動作のステップ中の一部のステップが、省略されてもよい。また、動作のステップは、前述の実施形態の一部が、複合的に結合して実施されてもよい。また、動作のステップの変更又は省略によって、図6〜図11を通じて説明されたユーザインターフェースが、多様な形態で変更され得ることは、通常の知識を有する者には明らかである。
図3〜図5において説明された一実施形態についてのプログラムは、ソフトウェア、ハードウェア、又はソフトウェアとハードウェアとの組合せから構成されてもよいことは、当該技術分野における通常の知識を持つ者には明らかである。図3〜図5において説明された一実施形態についてのプログラムは、記録媒体に記録されてもよく、通信網を通してサーバー又はコンピュータから電子デバイスにダウンロードされてもよい。
100 電子デバイス
110 通信部
135 ユーザインターフェース部
140 センシング部
150 制御部
160 メモリ
110 通信部
135 ユーザインターフェース部
140 センシング部
150 制御部
160 メモリ
Claims (15)
- 電子デバイスにおけるアイコンのガイドを提供する方法であって、
第1のユーザ入力に応じて、アイコンを指定するステップと、
前記指定されたアイコンのガイドとして提供されるコンテンツを、前記アイコンと関連付けて、ガイドを設定するステップと、
前記ガイドが設定されたアイコンと画面とを表示するステップと、
前記ガイドが設定されたアイコンに対する第2のユーザ入力が検出されることによって、前記ガイドが設定されたアイコンに関連付けられた前記コンテンツを再生するステップと、
を含むことを特徴とするガイドの提供方法。 - 第3のユーザ入力に応じて、前記ガイドが設定されたアイコンに対応するアプリケーションを実行するステップをさらに含むことを特徴とする請求項1に記載のガイドの提供方法。
- 前記第2のユーザ入力及び前記第3のユーザ入力は、互いに異なるタッチジェスチャーであることを特徴とする請求項2に記載のガイドの提供方法。
- 前記第2のユーザ入力として、タッチスクリーン上におけるホバー(Hover)ジェスチャーを識別し、
前記第3のユーザ入力として、前記タッチスクリーンに対するタッチジェスチャーを識別することを特徴とする請求項2に記載のガイドの提供方法。 - 前記コンテンツを再生するステップは、
前記ガイドが設定されたアイコンに対応するアプリケーションの実行のためのインタラクションオブジェクトを表示するステップをさらに含むことを特徴とする請求項1に記載のガイドの提供方法。 - 前記インタラクションオブジェクトに対する第3のユーザ入力が検出されることによって、前記アプリケーションを実行するステップをさらに含むことを特徴とする請求項5に記載のガイドの提供方法。
- 前記ガイドを設定するステップは、
ホーム画面及びプログラム画面のうちの少なくとも一つに含まれた複数のアイコンを表示するステップと、
前記第1のユーザ入力に応じて、複数のアイコンのうち、アイコンを指定するステップと、を含むことを特徴とする請求項1に記載のガイドの提供方法。 - 前記ガイドを設定するステップは、
前記指定されたアイコンのガイドとして提供されるコンテンツの形式を含むメニューを表示するステップと、
前記メニューを通じて指定された形式に相応する前記コンテンツを、前記指定されたアイコンと関連付けるステップと、
をさらに含むことを特徴とする請求項7に記載のガイドの提供方法。 - 前記ガイドを設定するステップは、
前記指定された形式に相応する前記コンテンツを獲得するコンテンツ生成アプリケーションを実行するステップと、
前記コンテンツ生成アプリケーションを通じてユーザ入力を検出して、前記コンテンツを獲得するステップと、
をさらに含むことを特徴とする請求項8に記載のガイドの提供方法。 - 前記コンテンツは、
ユーザの操作によって前記電子デバイスのコンテンツ生成アプリケーションを通じて獲得されたものであることを特徴とする請求項1に記載のガイドの提供方法。 - 前記ガイドが設定されたアイコンと前記画面とを表示するステップは、前記ガイドが設定されたアイコンに前記ガイドが設定されていることを表示する視覚的効果を、前記画面に提供するステップを含むことを特徴とする請求項1に記載のガイドの提供方法。
- 前記コンテンツは、
音声、イメージ、動画、及びテキストのうちの少なくとも一つであることを特徴とする請求項1に記載のガイドの提供方法。 - 前記ガイドが設定されたアイコンに対する前記コンテンツを再生するステップは、
前記ガイドが設定されたアイコンを含む画面の一部領域に、ポップアップ(pop-up)の形態で前記コンテンツを表示するステップであることを特徴とする請求項1に記載のガイドの提供方法。 - 前記ガイドを設定するステップは、
少なくとも一つのアイコンと、前記少なくとも一つのアイコンのガイドとして提供されるコンテンツとの予め設定された関連付け情報をメモリに保存するステップと、
前記予め設定された関連付け情報をユーザ入力によって変更するステップと、
を含むことを特徴とする請求項1に記載のガイドの提供方法。 - アイコンのガイドを提供する電子デバイスであって、
ガイド設定モードで、第1のユーザ入力に応じてアイコンを指定し、ガイドが設定されたアイコンと画面とを表示するユーザインターフェース部と、
前記指定されたアイコンのガイドとして提供されるコンテンツを、前記アイコンと関連付けてガイドを設定し、前記ガイドが設定されたアイコンに対する第2のユーザ入力が検出されることによって、前記ガイドが設定されたアイコンに対する前記コンテンツが再生されるよう制御する制御部と、
を含むことを特徴とする電子デバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130005985A KR20140094671A (ko) | 2013-01-18 | 2013-01-18 | 가이드를 제공하는 방법 및 전자 장치 |
KR10-2013-0005985 | 2013-01-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014137825A true JP2014137825A (ja) | 2014-07-28 |
Family
ID=50150537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014007909A Pending JP2014137825A (ja) | 2013-01-18 | 2014-01-20 | ガイドを提供する方法及び電子デバイス |
Country Status (7)
Country | Link |
---|---|
US (1) | US20140208270A1 (ja) |
EP (1) | EP2757460A3 (ja) |
JP (1) | JP2014137825A (ja) |
KR (1) | KR20140094671A (ja) |
CN (1) | CN103970818A (ja) |
AU (1) | AU2014200337A1 (ja) |
WO (1) | WO2014112847A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016134054A (ja) * | 2015-01-21 | 2016-07-25 | シャープ株式会社 | 表示操作装置、画像形成装置、及び電子黒板装置 |
JP2016224504A (ja) * | 2015-05-27 | 2016-12-28 | 京セラ株式会社 | 機能存在報知装置 |
JP2017220714A (ja) * | 2016-06-03 | 2017-12-14 | 株式会社Nttドコモ | 通信端末装置及びプログラム |
JP2019028945A (ja) * | 2017-08-03 | 2019-02-21 | 株式会社Nttドコモ | プログラムおよび情報処理装置の制御方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10303324B2 (en) * | 2014-02-10 | 2019-05-28 | Samsung Electronics Co., Ltd. | Electronic device configured to display three dimensional (3D) virtual space and method of controlling the electronic device |
KR102568097B1 (ko) | 2015-06-22 | 2023-08-18 | 삼성전자 주식회사 | 파싱 데이터의 관련 정보를 표시하는 방법 및 전자 장치 |
US10191611B2 (en) * | 2015-11-27 | 2019-01-29 | GitSuite LLC | Graphical user interface defined cursor displacement tool |
EP3387518A1 (en) * | 2015-12-10 | 2018-10-17 | Appelago Inc. | Floating animated push interfaces for interactive dynamic push notifications and other content |
CN107835310B (zh) * | 2017-10-31 | 2020-07-17 | 维沃移动通信有限公司 | 一种移动终端设置方法及移动终端 |
US10936163B2 (en) | 2018-07-17 | 2021-03-02 | Methodical Mind, Llc. | Graphical user interface system |
CN112258965A (zh) * | 2020-11-05 | 2021-01-22 | 沈阳职业技术学院 | 一种心理健康管理装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005223844A (ja) * | 2004-02-09 | 2005-08-18 | Nec Corp | メニュー表示システム及び方法並びにメニュー表示用プログラム |
JP2009038494A (ja) * | 2007-07-31 | 2009-02-19 | Nec Corp | 携帯端末装置、携帯端末装置の機能説明方法および携帯端末装置の機能説明プログラム |
US20110314415A1 (en) * | 2010-06-21 | 2011-12-22 | George Fitzmaurice | Method and System for Providing Custom Tooltip Messages |
JP2012069065A (ja) * | 2010-09-27 | 2012-04-05 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置および方法 |
JP2012133523A (ja) * | 2010-12-21 | 2012-07-12 | Sony Corp | 表示制御装置、表示制御方法、及び、プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030189551A1 (en) * | 2002-04-04 | 2003-10-09 | Olsen Jesse Dale | System and method for identifying functions invoked by function keys on a keyboard |
US20040216052A1 (en) * | 2003-02-28 | 2004-10-28 | Bea Systems, Inc. | Methods for providing extensible help |
WO2006088831A2 (en) * | 2005-02-14 | 2006-08-24 | Hillcrest Laboratories, Inc. | Methods and systems for enhancing television applications using 3d pointing |
EP1932141A4 (en) * | 2005-09-13 | 2009-08-19 | Spacetime3D Inc | SYSTEM AND METHOD FOR FORMING A THREE-DIMENSIONAL USER GRAPHIC INTERFACE |
US20110199322A1 (en) * | 2010-02-15 | 2011-08-18 | Research In Motion Limited | Graphical user interfaces for devices that present media content |
KR101890850B1 (ko) * | 2011-03-30 | 2018-10-01 | 삼성전자주식회사 | 3d 뷰를 포함하는 가이드를 표시하는 전자 장치 및 그 가이드 표시 방법 |
CA2848637C (en) * | 2011-06-13 | 2015-03-31 | Opus Deli, Inc. | Multi-media management and streaming techniques implemented over a computer network |
US8977961B2 (en) * | 2012-10-16 | 2015-03-10 | Cellco Partnership | Gesture based context-sensitive functionality |
-
2013
- 2013-01-18 KR KR1020130005985A patent/KR20140094671A/ko not_active Application Discontinuation
-
2014
- 2014-01-20 AU AU2014200337A patent/AU2014200337A1/en not_active Abandoned
- 2014-01-20 WO PCT/KR2014/000570 patent/WO2014112847A1/en active Application Filing
- 2014-01-20 EP EP14151717.7A patent/EP2757460A3/en not_active Withdrawn
- 2014-01-20 JP JP2014007909A patent/JP2014137825A/ja active Pending
- 2014-01-20 CN CN201410026078.0A patent/CN103970818A/zh active Pending
- 2014-01-21 US US14/159,532 patent/US20140208270A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005223844A (ja) * | 2004-02-09 | 2005-08-18 | Nec Corp | メニュー表示システム及び方法並びにメニュー表示用プログラム |
JP2009038494A (ja) * | 2007-07-31 | 2009-02-19 | Nec Corp | 携帯端末装置、携帯端末装置の機能説明方法および携帯端末装置の機能説明プログラム |
US20110314415A1 (en) * | 2010-06-21 | 2011-12-22 | George Fitzmaurice | Method and System for Providing Custom Tooltip Messages |
JP2012069065A (ja) * | 2010-09-27 | 2012-04-05 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置および方法 |
JP2012133523A (ja) * | 2010-12-21 | 2012-07-12 | Sony Corp | 表示制御装置、表示制御方法、及び、プログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016134054A (ja) * | 2015-01-21 | 2016-07-25 | シャープ株式会社 | 表示操作装置、画像形成装置、及び電子黒板装置 |
JP2016224504A (ja) * | 2015-05-27 | 2016-12-28 | 京セラ株式会社 | 機能存在報知装置 |
JP2017220714A (ja) * | 2016-06-03 | 2017-12-14 | 株式会社Nttドコモ | 通信端末装置及びプログラム |
JP2019028945A (ja) * | 2017-08-03 | 2019-02-21 | 株式会社Nttドコモ | プログラムおよび情報処理装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2014112847A1 (en) | 2014-07-24 |
EP2757460A2 (en) | 2014-07-23 |
EP2757460A3 (en) | 2016-11-09 |
US20140208270A1 (en) | 2014-07-24 |
KR20140094671A (ko) | 2014-07-30 |
CN103970818A (zh) | 2014-08-06 |
AU2014200337A1 (en) | 2014-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7240347B2 (ja) | 触覚フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース | |
JP2014137825A (ja) | ガイドを提供する方法及び電子デバイス | |
US10616416B2 (en) | User interface for phone call routing among devices | |
KR102136236B1 (ko) | 세기 감응형 버튼과의 상호작용 동안 피드백을 제공하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스 | |
US10509492B2 (en) | Mobile device comprising stylus pen and operation method therefor | |
US10013098B2 (en) | Operating method of portable terminal based on touch and movement inputs and portable terminal supporting the same | |
US20200218417A1 (en) | Device, Method, and Graphical User Interface for Controlling Multiple Devices in an Accessibility Mode | |
US20190034075A1 (en) | Multifunction device control of another electronic device | |
TWI681330B (zh) | 用以執行可攜式終端的應用程式的方法和可攜式終端裝置 | |
US11281313B2 (en) | Mobile device comprising stylus pen and operation method therefor | |
JP2014010539A (ja) | 電子機器、制御方法及び制御プログラム | |
US20210382736A1 (en) | User interfaces for calibrations and/or synchronizations | |
WO2015014138A1 (zh) | 一种显示框显示的方法、装置和设备 | |
KR102121374B1 (ko) | 벤디드 디스플레이와 커버를 갖는 휴대단말 및 그 어플리케이션 실행 방법 | |
JP2014067298A (ja) | 装置、方法、及びプログラム | |
KR20160027856A (ko) | 벤디드 디스플레이와 커버를 갖는 휴대단말 및 그 어플리케이션 실행 방법 | |
JP2014067297A (ja) | 装置、方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180403 |