JP2016197455A - フィールドの属性に応じてコンテンツを提供する電子装置及び方法 - Google Patents
フィールドの属性に応じてコンテンツを提供する電子装置及び方法 Download PDFInfo
- Publication number
- JP2016197455A JP2016197455A JP2016149939A JP2016149939A JP2016197455A JP 2016197455 A JP2016197455 A JP 2016197455A JP 2016149939 A JP2016149939 A JP 2016149939A JP 2016149939 A JP2016149939 A JP 2016149939A JP 2016197455 A JP2016197455 A JP 2016197455A
- Authority
- JP
- Japan
- Prior art keywords
- input
- content
- area
- electronic device
- interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000003993 interaction Effects 0.000 claims abstract description 152
- 230000000007 visual effect Effects 0.000 claims abstract description 30
- 230000008569 process Effects 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 30
- 230000001131 transforming effect Effects 0.000 claims 2
- 230000006870 function Effects 0.000 description 46
- 238000010586 diagram Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 29
- 238000012545 processing Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 239000004020 conductor Substances 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000001646 magnetic resonance method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/174—Form filling; Merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
【課題】ユーザの利便性を向上させるフィールドの属性に応じてコンテンツを提供する電子装置及び方法を提供する。
【解決手段】第1インタラクションを有する第1入力が客体に入力されることを感知したことに対応して、第1ユーザインタフェースを表示し、第2インタラクションを有する第2入力が客体に入力されることを感知したことに対応して、第2ユーザインタフェースを表示する。第2インタラクションは、第1インタラクションと異なる。第1ユーザインタフェースは、第1ユーザインタフェースの領域にテキストを入力できることを電子装置のユーザに示すためのビジュアルアフォーダンスを含む。第2ユーザインタフェースは、テキストが入力される入力フィールド領域403と、テキストを出力する出力フィールド領域404と、を含む。
【選択図】図4C
【解決手段】第1インタラクションを有する第1入力が客体に入力されることを感知したことに対応して、第1ユーザインタフェースを表示し、第2インタラクションを有する第2入力が客体に入力されることを感知したことに対応して、第2ユーザインタフェースを表示する。第2インタラクションは、第1インタラクションと異なる。第1ユーザインタフェースは、第1ユーザインタフェースの領域にテキストを入力できることを電子装置のユーザに示すためのビジュアルアフォーダンスを含む。第2ユーザインタフェースは、テキストが入力される入力フィールド領域403と、テキストを出力する出力フィールド領域404と、を含む。
【選択図】図4C
Description
本発明は、フィールドの属性に応じてコンテンツを提供する電子装置及び方法に関するものである。
電子装置の機能が発展するにつれ、入力ツールを利用して、ユーザが望むコンテンツを便利に入力することができるようになった。例えば、ユーザは単なるタッチ入力だけでなく、ホバリング機能を利用した入力をできるようになった。
しかし、従来の電子装置では、入力フィールドの属性に応じてそれぞれ差別化したコンテンツを提供することができず、インタラクションが増加する短所があった。
よって、電子装置で選択された領域のフィールド属性及び入力されたインタラクション毎に分けて、ユーザに多様なコンテンツを提供する装置及びその方法の開発が急務である。
本発明の目的は、選択された領域のフィールド属性及び入力されたインタラクション毎に分けてそれぞれ差別化したコンテンツを提供することにより、ユーザの便宜性を向上させる装置及びその方法を提供することである。
本発明の別の目的は、予め設定されたビジュアルガイド領域にコンテンツが入力される場合、入力フィールド領域の画面があらかじめ設定された方向に自動的にスクロールされて、ユーザのインタラクションを減少する装置及びその方法を提供することである。
本発明の実施形態によると、電子装置の動作方法において、電子装置のディスプレーを介して表示されたページの少なくとも一つのフィールドに対応する領域を入力に基づいて選択する過程と、第1属性及び第2属性を含む複数の属性のうち少なくとも一つのフィールドに対応する属性を確認する過程と、確認された属性に応じて第1コンテンツ及び第2コンテンツを含む少なくとも一つのコンテンツのうち属性に対応するコンテンツを選択的に提供する過程と、を含むことを特徴とする。
選択する過程は、電子装置に対する外部装置又はユーザから入力を受信するとよい。
選択する過程は、複数の指定されたインタラクション(specific interactions)のうち入力に関する少なくとも一つのインタラクションを確認するとよい。
複数の指定されたインタラクションは第1に指定されたインタラクション及び第2に指定されたインタラクションを含み、選択的に提供する過程は、少なくとも一つのインタラクションが第1に指定されたインタラクションである場合、対応するコンテンツに関して第1機能を行う過程と、少なくとも一つのインタラクションが第2に指定されたインタラクションである場合、対応するコンテンツに関して第2機能を行う過程と、を含むとよい。
確認する過程は、属性に基づいて電子装置の外部からコンテンツが入力される第1フィールドと、電子装置に記憶されたコンテンツが提供される第2フィールド又は指定されたメニューが提供される第3フィールドのうち少なくとも一つを含む複数のフィールドのうち対応するフィールドを確認する過程を含むとよい。
選択的に提供する過程は、属性が第1属性に相当し、入力が複数の指定されたインタラクションのうち第1に指定されたインタラクションに相当する場合、電子装置の外部からコンテンツが入力されるユーザインタフェースをディスプレーの少なくとも一部に提供する過程と、ユーザインタフェースを介してコンテンツが電子装置の外部から入力される過程と、ユーザインタフェースを介して入力されたコンテンツを少なくとも一つのフィールドに表示する過程と、を含むとよい。
選択的に提供する過程は、属性が第1属性に相当し、入力が複数の指定されたインタラクションのうち第2に指定されたインタラクションに相当する場合、少なくとも一つのフィールドにコンテンツが入力される入力フィールド(input field)領域及び入力フィールド領域に入力されたコンテンツが表示される結果フィールド(result field)領域を表示する過程と、入力フィールド領域に入力されたコンテンツを結果フィールド領域に表示する過程と、結果フィールド領域に表示されたコンテンツを領域に表示する過程と、を含むとよい。
入力フィールド領域に入力されたコンテンツを表示する過程は、入力フィールド領域に入力されたコンテンツを指定されたビジュアルガイド領域に表示する過程と、ビジュアルガイド領域に表示されるコンテンツの量に応じて入力フィールド領域の画面を自動的にスクロールする過程と、を含むとよい。
選択的に提供する過程は、属性が第1属性に相当し、入力が複数の指定されたインタラクションのうち第3に指定されたインタラクションに相当する場合、少なくとも一つの指定されたコンテンツを表示する過程と、入力に応じて少なくとも一つの指定されたコンテンツのうち少なくとも一部のコンテンツを選択する過程と、少なくとも一部のコンテンツを領域に提供する過程と、を含むとよい。
選択的に提供する過程は、属性が第2属性に相当し、入力が複数の指定されたインタラクションのうち第1に指定されたインタラクションに相当する場合、ディスプレーの少なくとも一部の領域に少なくとも一つのコンテンツを表示する過程と、複数の指定されたインタラクションのうち第2に指定されたインタラクションに相当する追加入力を受ける過程と、追加入力に基づいて少なくとも一つのコンテンツのうち少なくとも一部のコンテンツを選択する過程と、選択された少なくとも一部のコンテンツを少なくとも一部の領域又はディスプレーの他の領域に提供する過程と、を含むとよい。
複数の属性は第3属性を更に含み、選択的に提供する過程は、属性が第3属性に相当し、入力が複数の指定されたインタラクションのうち第1に指定されたインタラクションに相当する場合、領域を含むコンテンツのサイズを拡大又は縮小する過程を含むとよい。
複数の属性は第3属性を更に含み、選択的に提供する過程は、属性が第3属性に相当し、入力が複数の指定されたインタラクションのうち第2に指定されたインタラクションに当たる場合、ディスプレーの少なくとも一部の領域に編集メニューを表示する過程と、編集メニューのうち選択された少なくとも一つのメニューに対応する編集機能を行う過程と、を含むとよい。
本発明の実施形態によると、電子装置において、電子装置のディスプレーを介して表示されたページの少なくとも一つのフィールドに対応する領域を入力に基づいて選択するディスプレー部と、第1属性及び第2属性を含む複数の属性のうち少なくとも一つのフィールドに対応する属性を確認し、確認された属性に応じて第1コンテンツ及び第2コンテンツを含む少なくとも一つのコンテンツのうち属性に対応するコンテンツを選択的に提供するプロセッサと、を含むことを特徴とする。
ディスプレー部は、電子装置に対する外部装置又はユーザから入力を受信するとよい。
プロセッサは、複数の指定されたインタラクションのうち入力に関する少なくとも一つのインタラクションを確認するとよい。
複数の指定されたインタラクションは第1に指定されたインタラクション及び第2に指定されたインタラクションを含み、プロセッサは、少なくとも一つのインタラクションが第1に指定されたインタラクションである場合、対応するコンテンツに関して第1機能を行い、少なくとも一つのインタラクションが第2に指定されたインタラクションである場合、対応するコンテンツに関して第2機能を行うとよい。
プロセッサは、属性に基づいて電子装置の外部からコンテンツが入力される第1フィールドと、電子装置に記憶されたコンテンツが提供される第2フィールド又は指定されたメニューが提供される第3フィールドのうち少なくとも一つを含む複数のフィールドのうち対応するフィールドを確認するとよい。
ディスプレー部は、属性が第1属性に相当し、入力が複数の指定されたインタラクションのうち第1に指定されたインタラクションに相当する場合、電子装置の外部からコンテンツが入力されるユーザインタフェースをディスプレーの少なくとも一部に提供し、ユーザインタフェースを介してコンテンツが電子装置の外部から入力され、ユーザインタフェースを介して入力されたコンテンツを少なくとも一つのフィールドに表示するとよい。
ディスプレー部は、属性が第1属性に相当し、入力が複数の指定されたインタラクションのうち第2に指定されたインタラクションに相当する場合、少なくとも一つのフィールドにコンテンツが入力される入力フィールド領域及び入力フィールド領域に入力されたコンテンツが表示される結果フィールド領域を表示し、入力フィールド領域に入力されたコンテンツを結果フィールド領域に表示し、結果フィールド領域に表示されたコンテンツを領域に表示するとよい。
ディスプレー部は、入力フィールド領域に入力されたコンテンツを指定されたビジュアルガイド領域に表示するとよい。プロセッサは、ビジュアルガイド領域に表示されるコンテンツの量に応じて入力フィールド領域の画面を自動的にスクロールするとよい。
ディスプレー部は、属性が第1属性に相当し、入力が複数の指定されたインタラクションのうち第3に指定されたインタラクションに相当する場合、少なくとも一つの指定されたコンテンツを表示し、入力に応じて少なくとも一つの指定されたコンテンツのうち少なくとも一部のコンテンツを選択し、少なくとも一部のコンテンツを領域に提供するとよい。
ディスプレー部は、属性が第2属性に相当し、入力が複数の指定されたインタラクションのうち第1に指定されたインタラクションに相当する場合、ディスプレーの少なくとも一部の領域に少なくとも一つのコンテンツを表示し、複数の指定されたインタラクションのうち第2に指定されたインタラクションに相当する追加入力を受け、追加入力に基づいて少なくとも一つのコンテンツのうち少なくとも一部のコンテンツを選択し、選択された少なくとも一部のコンテンツを少なくとも一部の領域又はディスプレーの他の領域に提供するとよい。
複数の属性は第3属性を更に含み、プロセッサは、属性が第3属性に相当し、入力が複数の指定されたインタラクションのうち第1に指定されたインタラクションに相当する場合、領域を含むコンテンツのサイズを拡大又は縮小するとよい。
複数の属性は第3属性を更に含み、ディスプレー部は、属性が第3属性に相当し、入力が複数の指定されたインタラクションのうち第2に指定されたインタラクションに相当する場合、ディスプレーの少なくとも一部の領域に編集メニューを表示するとよい。プロセッサは、編集メニューのうち選択された少なくとも一つのメニューに対応する編集機能を行うとよい。
以下、添付した図面を参照して本発明(present disclosure)を説明する。本発明は特定の実施形態が図面に例示されて関連する詳細な説明が記載されているが、多様な変更が加えられてもよく、様々な実施形態を有してもよい。よって、本発明は特定の実施形態に対して限定されたものではなく、本発明の思想及び技術範囲に含まれる全ての変更又は均等物乃至代替物を含むと理解されるべきである。図面の説明に関して、類似した構成要素に対しては類似した参照符号が使用されている。
本発明による電子装置は通信機能が含まれた装置であってもよい。例えば、スマートフォン(smartphone)、タブレットPC(tablet personal computer)、携帯電話(moble phone)電子書籍リーダー(e−book reader)、デスクトップPC(desktop personal computer)、ラップトップPC(laptop personal computer)、ネットブックコンピュータ(netbook computer)、PDA(personal digital assistant)、PMP(portable multimedia player)、MP3プレーヤー、モバイル医療機器、電子ブレスレット、電子ネックレス、電子アプセサリ(appcessory, appcessoryまたはappcessoryと呼称されることがある)、カメラ(camera)、ウェアラブル装置(wearable device)、電子時計(electornic clock)、腕時計(wrist watch)、スマート家電(smart appliance,例えば冷蔵庫、エアコン、掃除機、人工知能ロボット、TV、DVD(digital video disk)プレーヤー、オーディオ、オーブン、電子レンジ、洗濯機、空気清浄機、デジタルフォトフレームなど)、各種医療機器(例えばMRA(magnetic resonance angiography)、MRI(maginetic resonance imaging)、CT(computed tomography)撮影装置、超音波検査装置など)、ナビゲーション(navigation)装置、GPS受信機(global positioning system receiver)、EDR(event data recorder)、FDR(flight data recorder)、セットトップボックス(set−top box)、テレビボックス(例えばサムスンHomeSyncTM、アップルTVTM又はグーグルTVTM)、電子辞書、自動車インフォテインメント(infortainment)装置、船舶用電子装備(electronic equipment for ship、例えば船舶用航行装置、ジャイロコンパスなど)、航空電子機器(avionics)、保安機器、電子衣服、電子キー、カムコーダ(camcorder)、ゲームコンソール(game consoles)、HMD(head−mounted display)、フラットパネル表示装置(flat panel display device)、電子アルバム、通信機能を含む家具(furniture)又は建物/構造物の一部、電子ボード(electronic board)、電子サイン入力装置(electronic signature receiving device)又はプロジェクタ(projector)などのような多様な装置のうち一つ又はそれ以上の組み合わせであってもよい。本発明による電子装置が上述した機器に限られないことは当業者にとって自明である。
図1は、多様な実施形態による電子装置に対するブロック図である。図1を参照すると、電子装置100は、バス110、プロセッサ120、メモリ130、ユーザ入力部140、ディスプレー部150、及び通信部160を含むとよい。
バス110は、上述した構成要素を互いに連結し、上述した構成要素間の通信(例えば、制御メッセージ)を伝達する回路である。
プロセッサ120は、例えばバス110を介して上述した他の構成要素(例えば、メモリ130、ユーザ入力部140、ディスプレー部150、通信部160など)から命令を受信し、受信された命令を解読して解読された命令による演算やデータ処理を行う。
メモリ130は、プロセッサ120又は他の構成要素(例えば、ユーザ入力部140、ディスプレー部150、通信部160など)から受信されるか、プロセッサ120又は他の構成要素によって生成された命令又はデータを記憶する。メモリ130は、例えばカーネル131、ミドルウェア132、アプリケーションプログラミングインタフェース(API:application programming interface)133、及びアプリケーション134などのプログラミング部を含むとよい。上述したそれぞれのプログラミング部は、ソフトウェア、ファームウェア、ハードウェア又はそれらのうち少なくとも2つ以上の組み合わせで構成されるとよい。
カーネル131は、残りの他のプログラミング部、例えば、ミドルウェア132、API133又はアプリケーション134によって具現化された動作、若しくは機能を実行するのに使用されるシステムリソース(例えば、バス110、プロセッサ120又はメモリ130など)を制御又は管理する。また、カーネル131は、ミドルウェア132、API133又はアプリケーション134から電子装置100の個別構成要素にアクセスして制御又は管理するインタフェースを提供する。
ミドルウェア132は、API133又はアプリケーション134がカーネル131と通信してデータを交換するように仲介の役割を果たす。また、ミドルウェア132は、(多数の)アプリケーション134から受信された作業リクエストに関して、例えば(多数の)アプリケーション134のうち少なくとも一つのアプリケーションに電子装置100のシステムリソース(例えば、バス110、プロセッサ120又はメモリ130など)を使用する優先順位を割り当てるなどの方法を利用して作業リクエストに対する負荷分散を行う。
API133は、アプリケーション134がカーネル131又はミドルウェア132から提供される機能を制御するインタフェースであって、例えば、ファイル制御、ウィンドウ制御、画像処理又は文字制御などのための少なくとも一つのインタフェース又は関数を含む。
ユーザ入力部140は、例えばユーザから命令又はデータを入力されると、バス110を介してプロセッサ120又はメモリ130に伝達する。ディスプレー部150はユーザに画像、映像又はデータなどを表示する。
通信部160は、他の電子装置102と電子装置100間の通信を実行する。通信部160は、所定の近距離通信プロトコル(例えば、WiFi(wireless fidelity)、BT(Bluetooth(登録商標))、NFC(near field communication)又は所定のネットワーク通信162(例えば、Internet、LAN(local area network)、WAN(wire area network)、telecommunication network、celluar network、satellite network又はPOTS(plain old telephone service)などをサポートする。電子装置102,104それぞれは、電子装置100と同じ(例えば、同じタイプの)装置であるか又は他の(例えば、他のタイプの)装置であってもよい。
図2は、多様な実施形態によるハードウェア200のブロック図である。ハードウェア200は、例えば図1に示した電子装置100であってもよい。図2を参照すると、ハードウェア200は一つ以上のプロセッサ210、SIM(subscriber identification module)カード214、メモリ220、通信部230、センサ部240、ユーザ入力部250、ディスプレー部260、インタフェース270、オーディオコーデック280、カメラ部291、電力管理部295、バッテリ296、インジケータ297又はモータ298を含む。
プロセッサ210(例えば、プロセッサ120)は、一つ以上のアプリケーションプロセッサ(AP:application processor)211及び一つ以上のコミュニケーションプロセッサ(CP:communication processor)213を含むとよい。プロセッサ210は、例えば、図1に示したプロセッサ120であってもよい。図2では、AP211及びCP213がプロセッサ210内に含まれる例を示しているが、AP211とCP213とは互いに異なるICパッケージ内にそれぞれ含まれてもよい。一実施形態では、AP211及びCP213は一つのICパッケージ内に含まれる。本発明におけるプロセッサ210は、第1属性及び第2属性を含む複数の属性のうち少なくとも一つのフィールドに対応する属性を確認し、確認された属性に応じて第1コンテンツ及び第2コンテンツを含む少なくとも一つのコンテンツのうち属性に対応するコンテンツを選択的に提供する。また、プロセッサ210は、複数の指定されたインタラクションのうち入力に関する少なくとも一つのインタラクションを確認する。また、プロセッサ210は、少なくとも一つのインタラクションが第1に指定されたインタラクションである場合には対応するコンテンツに関して第1の機能を行い、少なくとも一つのインタラクションが第2に指定されたインタラクションである場合には対応するコンテンツに関して第2の機能を行う。また、プロセッサ210は、属性に基づいて電子装置の外部からコンテンツが入力される第1フィールドと、電子装置に記憶されたコンテンツが提供される第2フィールドと、指定されたメニューが提供される第3フィールドとのうち少なくとも一つを含む複数のフィールドの中から対応するフィールドを確認する。また、プロセッサ210は、ビジュアルガイド領域に表示されるコンテンツの量に応じて入力フィールド領域の画面を自動的にスクロールする。また、属性が第3属性に相当し、入力が複数の指定されたインタラクションのうち第1に指定されたインタラクションに相当する場合、プロセッサ210は、領域を含むコンテンツのサイズを拡大又は縮小する。また、プロセッサ210は編集メニューのうちから選択された少なくとも一つのメニューに対応する編集機能を実行する。
AP211は、オペレーティングシステム又はアプリケーションプログラムを駆動して、AP211に接続された多数のハードウェア又はソフトウェア構成要素を制御し、マルチメディアデータを含む各種データの処理及び演算を行う。AP211は、例えばSoC(System on chip)で具現化される。一実施形態によると、プロセッサ210はGPU(graphic processing unit,図示せず)を更に含んでもよい。
CP213は、ハードウェア200を含む電子装置(例えば、電子装置)100とネットワークで接続された他の電子装置間の通信でデータリンクを管理し、通信プロトコルを変換する。CP213は、例えばSoCで具現化される。一実施形態によると、CP213は、マルチメディア制御機能の少なくとも一部を実行する。CP213は、例えば加入者識別部(例えば、SIMカード214)を利用して通信ネットワーク内で端末の識別及び認証を行う。また、CP213はユーザに音声通話、ビデオ通話、テキストメッセージ又はパケットデータ(packet data)などのサービスを提供する。
また、CP213は、通信部230のデータ送受信を制御する。図2では、CP213、電力管理部295又はメモリ220などの構成要素がAP211と別途の構成要素として図示されているが、一実施形態によるとAP211が上述した構成要素の少なくとも一部(例えば、CP213)を含むように具現化されてもよい。
一実施形態によると、AP211又はCP213はそれぞれ接続された非揮発性メモリ又は他の構成要素のうち少なくとも一つから受信した命令又はデータを揮発性メモリにロード(load)して処理する。また、AP211又はCP213は、他の構成要素のうち少なくとも一つから受信するか他の構成要素のうち少なくとも一つによって生成されたデータを非揮発性メモリに記憶(store)する。
SIMカード214は、加入者識別部が実装されたカードであってもよく、電子装置の特定位置に形成されたスロットに挿入される。SIMカード214は、固有の識別情報(例えば、ICCID(intergrated circuit card identifier))又は加入者情報(例えば、IMSI(international mobile subscriber identity))を含む。
メモリ220は、内蔵メモリ222又は外付メモリ224を含む。メモリ220は、例えば、図1に示したメモリ130であってもよい。内蔵メモリ222は、例えば揮発性メモリ(例えばDRAM(Dynamic RAM)、SRAM(static RAM)、SDRAM(synchronous dynamic RAM)など)又は非揮発性メモリ(non−volatile memory、例えばOTPROM(one time progammable ROM)、PROM(progammable ROM)、EPROM(eracable and progammable ROM)、EEROM(electrically eracable and progammable ROM)、mask ROM、flash ROM,NAND flash memory、NOR flash memoryなど)のうち少なくとも一つを含む。一実施形態によると、内蔵メモリ222はSolid State Drive(SSD)の形態であってもよい。外付メモリ224は、例えばCF(compact flash)、SD(secure digital)、Micro−SD(micro secure digital)、Mini−SD(mini secure digital)、xD(extreme digital)又はmemorystickなどを更に含む。
通信部230は、無線通信部231又はRF部234を含む。通信部230は、例えば図1に示した通信部160であってもよい。無線通信部231は、例えばWiFi233、BT235、GPS237又はNFC239を含む。例えば、無線通信部231は、無線周波数を利用して無線通信機能を提供する。追加的に又は代替的に、無線通信部231は、ハードウェア200をネットワーク(例えば、Internet、LAN、WAN、telecommunication network、celluar network、satellite network又はPOTSなど)と接続するためのネットワークインタフェース(例えば、LAN card)又はモデムなどを含む。
RF部234は、データの送受信、例えば、RF信号又は呼び出された電子信号の送受信を担当する。RF部234は、図示していないが、例えばトランシーバ(trasceiver)、PAM(power amp module)、周波数フィルタ(frequency filter)又はLNA(low noise amplifier)などを含む。また、RF部234は、無線通信で自由空間上の電磁波を送受信するための部品、例えば、導体又は導線などを更に含む。
センサ部240は、例えばジェスチャーセンサ240A、ジャイロセンサ240B、気圧センサ240C、マグネチックセンサ240D、加速度センサ240E、グリップセンサ240F、近接センサ240G、RGB(red, green, blue)センサ240H、生体センサ240I、温・湿度センサ240J、照度センサ240K、及びUV(ultra violet)センサ240Mのうち少なくとも一つを含む。センサ部240は、物理量を計測するか電子装置の作動状態を感知し、計測又は感知された情報を電気信号に変換する。追加的に/代替的に、センサ部240は例えば、嗅覚センサ(E−nose sensor、図示せず)、EMGセンサ(electromyography sensor、図示せず)EEGセンサ(electroencephalogram sensor、図示せず)ECGセンサ(electrocardiogram sensor、図示せず)又は指紋センサなどを含んでもよい。センサ部240は、その中に属する少なくとも一つ以上のセンサを制御するための制御回路を更に含んでもよい。
ユーザ入力部250は、タッチパネル(touch panel)252、(デジタル)ペンセンサ(pen sensor)245、キー(key)256又は超音波入力装置258を含む。ユーザ入力部250は、例えば、図1に示したユーザ入力部140であってもよい。タッチパネル252は、例えば、静電式、感圧式、赤外線方式又は超音波方式のうちの少なくとも一つの方式でタッチ入力を認識する。また、タッチパネル252は、コントローラ(図示せず)を更に含んでもよい。静電式の場合、直接タッチだけでなく近接認識も可能である。タッチパネル252は、タクタイルレイヤー(tactile layer)を更に含んでもよい。この場合、タッチパネル252はユーザに触覚による応答を提供する。
(デジタル)ペンセンサ245は、例えばユーザのタッチ入力を受けることと同一又は類似の方法又は別途の認識用シート(sheet)を利用して具現化される。キー256として、例えばキーパッド又はタッチキーが利用される。超音波入力装置258は、超音波信号を発生するペンを介して端末においてマイク(例えば、マイク288)によって音波を感知してデータを確認する装置であって、ワイヤレスによる認識が可能である。一実施形態によると、ハードウェア200は、通信部230を利用してそれと接続された外部装置(例えば、ネットワーク、コンピュータ又はサーバー)からユーザの入力を受信してもよい。
ディスプレー部260は、パネル262又はホログラム264を含む。ディスプレー部260は、例えば図1に示したディスプレー部150であってもよい。パネル262は、例えばLCD(liquid crystal display)又はAM−OLED(active−matrix organic light−emitting diode)などであってもよい。パネル262は、例えば、柔軟に(flexible)、透明に(transparent)又はウェアラブルに(wearable)に具現化される。パネル262は、タッチパネル252と一つのユニットで構成されてもよい。ホログラム264は、光の干渉を利用して立体映像を空間中に示す。一実施形態によると、ディスプレー部260はパネル262又はホログラム264を制御するための制御回路を更に含んでもよい。本発明において、ディスプレー部260は、電子装置のディスプレーを介して表示されたページの少なくとも一つのフィールドに対応する領域を入力に基づいて選択し、電子装置に対する外部装置又はユーザから入力を受信する。また、ディスプレー部260は、属性が第1属性に相当し、入力が複数の指定されたインタラクションのうち第1に指定されたインタラクションに相当する場合、電子装置の外部からコンテンツを入力するためのユーザインタフェースをディスプレーの少なくとも一部に提供し、ユーザインタフェースを介してコンテンツを電子装置の外部から入力し、ユーザインタフェースを介して入力されたコンテンツを少なくとも一つのフィールドに表示する。また、ディスプレー部260は、属性が第1属性に相当し、入力が複数の指定されたインタラクションのうち第2に指定されたインタラクションに相当する場合、少なくとも一つのフィールドに、コンテンツを入力する入力フィールド領域及び入力フィールド領域に入力されたコンテンツが表示される結果フィールド領域を表示し、入力フィールド領域に入力されたコンテンツを結果フィールド領域に表示し、結果フィールド領域に表示されたコンテンツを領域に表示する。また、ディスプレー部260は、入力フィールド領域に入力されたコンテンツを指定されたビジュアルガイド領域に表示する。また、ディスプレー部260は、属性が第1属性に相当し、入力が複数の指定されたインタラクションのうち第3に指定されたインタラクションに相当する場合、少なくとも一つの指定されたコンテンツを表示し、入力に応じて少なくとも一つの指定されたコンテンツのうち少なくとも一部を選択し、少なくとも一部を領域に提供する。また、ディスプレー部260は、属性が第2属性に相当し、入力が複数の指定されたインタラクションのうち第1に指定されたインタラクションに相当する場合、ディスプレーの少なくとも一部の領域に少なくとも一つのコンテンツを表示し、複数の指定されたインタラクションのうち第2インタラクションに相当する追加入力を受け、追加入力に基づいて少なくとも一つのコンテンツのうち少なくとも一部を選択し、選択された少なくとも一部を少なくとも一部の領域又はディスプレーの他の領域に提供する。また、ディスプレー部260は、属性が第3属性に相当し、入力が複数の指定されたインタラクションのうち第2に指定されたインタラクションに相当する場合、ディスプレーの少なくとも一部の領域に編集メニューを表示する。
インタフェース270は、例えばHDMI(登録商標)(high−difinition multimedia interface)272、USB(universal serial bus)274、プロジェクタ276又はD−sub(D−subminiature)278を含む。追加的に又は代替的に、インタフェース270は、例えばSD/MMC(multi−media card、図示せず)又はIrDA(infrared data association、図示せず)を含む。
オーディオコーデック280は、音声と電気信号を双方に変換する。オーディオコーデック280は、例えばスピーカ282、レシーバー284、イヤホン286又はマイク288などを介して入力又は出力される音声情報を変換する。
カメラ部291は画像及び動画を撮影する装置であって、一実施形態によると一つ以上のイメージセンサ(例えば、前面レンズ又は後面レンズ)、ISP(image signal processor、図示せず)又はフラッシュLED(flash LED、図示せず)を含む。
電力管理部295はハードウェア200の電力を管理する。図示していないが、電力管理部295は、例えばPMIC(power management integrated circuit)、充電IC(charger integrated circuit)又はバッテリゲージ(battery fuel gauge)を含む。
PMICは、例えば集積回路又はSoC半導体内に搭載される。充電方式は有線と無線に分類される。充電ICは、バッテリを充電し、充電器からの過電圧又は過電流の流入を防止する。一実施形態によると、充電ICは有線充電方式又は無線充電方式のうち少なくとも一つの方式のための充電ICを含む。無線充電方式としては、例えば磁気共鳴方式、磁気誘導方式又は電磁波方式などがあり、無線充電のための負荷的な回路、例えばコイルループ、共振回路、整流器などの回路が追加されてもよい。
バッテリゲージは、例えばバッテリ296の残量、充電中の電圧、電流又は温度を測定する。バッテリ296は電気を生成して電源を供給し、例えば充電式電池(rechargeable battery)であってもよい。
インジケータ297はハードウェア200又はその一部(例えば、AP211)の特定状態、例えばブーティング状態、メッセージ状態又は充電状態などを表示する。モータ298は電気的信号を機械的振動に変換する。プロセッサ210はセンサ部240を制御する。
図示していないが、ハードウェア200はモバイルTVをサポートするための処理装置(例えば、GPU)を含む。モバイルTVをサポートするための処理装置は、例えばDMB(digital multimedia broadcasting)、DVB(digital video broadcasting)又はメディアフロー(media flow)などの規格に応じたメディアデータを処理する。
本発明によるハードウェアの上述した構成要素の名称は電子装置の種類に応じて異なり得る。本発明によるハードウェアは、上述した構成要素のうち少なくとも一つを含んで構成されてもよく、一部の構成要素を省略するか又は追加的な他の構成要素を更に含んでもよい。また、本発明による他のハードウェアの構成要素のうち一部が互いに結合して一つの個体(entity)として構成されることで、結合する前の該当構成要素の機能を同じように行ってもよい。
図3は、一実施形態によるプログラミング部300のブロック図である。プログラミング部300は、図1に示した電子装置100(例えば、メモリ130)に含まれても(例えば、記憶されても)よい。プログラミング300の少なくとも一部は、ソフトウェア、ファームウェア、ハードウェア又はそれらのうちの少なくとも2つ以上の組み合わせで構成される。プログラミング部300は、ハードウェア(例えば、ハードウェア200)に具現化されて電子装置(例えば、電子装置100)に関する資源を制御するオペレーティングシステム(OS:operating System)又はオペレーティングシステム上で駆動される多様なアプリケーション(例えば、アプリケーション370)を含む。例えば、オペレーティングシステムはアンドロイド(Android)、iOS、ウィンドウズ(登録商標)(Windows(登録商標))、シンビアン(Symbian)、タイゼン(Tizen)又はバダ(Bada)であってもよい。図3を参照すると、プログラミング部300は、カーネル310、ミドルウェア330、API(application programming interface)360又はアプリケーション370を含む。
カーネル310(例えば、カーネル131)は、システムリソースマネージャ311又はデバイスドライバー312を含む。 システムリソースマネージャ311は、例えば、プロセス管理部、メモリ管理部又はファイルシステム管理部などを含む。システムリソースマネージャ311は、システムリソースの制御、割当又は回収などを行う。デバイスドライバー312は、例えば、ディスプレードライバー、カメラドライバー、ブルートゥース(登録商標)ドライバー、共有メモリドライバー、USBドライバー、キーパッドドライバー、WiFiドライバー又はオーディオドライバーを含む。また、一実施形態によると、デバイスドライバー312はIPC(inter−process communication)ドライバーを含む。
ミドルウェア330は、アプリケーション370が共通に必要とする機能を提供するために予め実装された複数のユニットを含む。また、ミドルウェア330は、アプリケーション370が電子装置の内部の制限されたシステム資源を効率的に使用するようにAPI360を介して機能を提供する。例えば、図3に示したように、ミドルウェア330(例えば、ミドルウェア132)は、ランタイムライブラリー335、アプリケーションマネージャ(application manager)341、ウィンドウマネージャ(window manager)342、マルチメディアマネージャ(multimedia manager)343、リソースマネージャ(resource manager)344、パワーマネージャ(power manager)345、データベースマネージャ(database manager)346、パッケージマネージャ347、接続性管理マネージャ(connectivity manager)348、通知マネージャ(notification manager)349、位置マネージャ(location manager)350、グラフィックマネージャ(graphic manager)351又はセキュリティマネージャ(security manager)352のうち少なくとも一つを含む。
ランタイムライブラリー335は、例えば、アプリケーション370が実行される間にプログラミング言語を介して新たな機能を追加するためにコンパイラが使用するライブラリー部を含む。一実施形態によると、ランタイムライブラリー335は、入出力、メモリ管理又は算術関数に対する機能を行う。
アプリケーションマネージャ341は、例えば、アプリケーション370のうち少なくとも一つのアプリケーションのライフサイクル(life cycle)を管理する。ウィンドウマネージャ342は、画面で使用するGUI資源を管理する。マルチメディアマネージャ343は、多様なメディアファイルの再生に必要なフォーマットを把握し、該当フォーマットに合うコーデック(codec)を利用してメディアファイルのエンコーディング(encording)又はデコーディング(decoding)を行う。リソースマネージャ344は、アプリケーション370のうち少なくとも一つのアプリケーションのソースコード、メモリ又はストレージ空間などの資源を管理する。
パワーマネージャ345は、バイオス(BIOS:basic input/output system)などと共に動作してバッテリ(battery)又は電源を管理し、動作に必要な電力情報などを提供する。データベースマネージャ346はアプリケーション370のうち少なくとも一つのアプリケーションが使用するデータベースを生成、検索又は変更するように管理する。パッケージマネージャ347は、パッケージファイルの形態で配布されるアプリケーションのインストール又はアップデートを管理する。
接続性管理マネージャ348は、例えばWiFi又はブルートゥース(登録商標)などの無線接続を管理する。通知マネージャ349は、到着メッセージ、約束、近くに来たことによるお知らせなどのイベント(event)を、ユーザを妨害しない方式で表示又は通知する。位置マネージャ350は、電子装置の位置情報を管理する。グラフィックマネージャ351は、ユーザに提供されるグラフィック効果又はそれに関するユーザインタフェースを管理する。セキュリティマネージャ352は、システムセキュリティ又はユーザ認証などに必要な全般的なセキュリティ機能を提供する。一実施形態によると、電子装置(例えば、電子装置100)が電話機能を具備する場合、ミドルウェア330は電子装置の音声又はビデオ通話機能を管理するための通話マネージャ(telephony manager、図示せず)を更に含む。
ミドルウェア330は、上述した内部構成要素の多様な機能の組み合わせを介して新しいミドルウェアを生成して使用する。ミドルウェア330は、差別化した機能を提供するためにOSの種類別に特化したユニットを提供する。また、ミドルウェア330は、動的に従来の構成要素を一部削除するか新たな構成要素を追加する。よって、本発明の実施形態に記載された構成要素は、一部省略されるか、他の構成要素が更に具備されるか、類似した機能を行う他の名称を有する構成要素で代替されてもよい。
API360(例えば、API133)は、APIプログラミング関数の集合であって、OSに応じて他の構成で提供される。例として、アンドロイド又はiOSの場合には、例えばフラットフォーム別に一つのAPIセットが提供され、タイゼンの場合には例えば2つ以上のAPIセットが提供される。
アプリケーション370(例えば、アプリケーション134)は、例えばプリロードアプリケーション(preloaded application)又はサードパーティのアプリケーション(third party application)を含む。
プログラミング部300の少なくとも一部は、コンピュータで判読可能な記憶媒体(computer−readable storage media)に記憶されたコマンドによって実装される。コマンドは、一つ以上のプロセッサ(例えば、プロセッサ210)によって実行される場合、一つ以上のプロセッサがコマンドに当たる機能を実行する。コンピュータで判読可能な記憶媒体は、例えばメモリ260であってもよい。プログラミング部300の少なくとも一部は、例えばプロセッサ210によって実装(implement)(例えば、実行)される。プログラミング部300の少なくとも一部は、一つ以上の機能を行うための、例えばユニット、プログラム、ルーティン、命令語セット(sets of instructions)又はプロセスなどを含む。
本発明によるプログラミング部(例えば、プログラミングモジュール300)の構成要素の名称はOSの種類に応じて異なり得る。また、本発明によるプログラミング部は、上述した構成要素のうち少なくとも一つを含むか、一部を省略するか、又は追加的な他の構成要素を更に含んでもよい。
図4A〜Dは、本発明による電子装置において、選択された領域のフィールド属性及びインタラクション毎に分けて設定されたコンテンツを提供する第1実施形態を示す図である。まず、図4Aに示すように、電子装置では入力ツールにより任意の領域401が選択される。より詳しくは、電子装置ではコンテンツを入力される任意の領域410が入力ツールによって選択される。ここで、入力ツールには、スタイラスペン(stylus pen)及びユーザの指のように電子装置に入力可能な全てのツールが含まれる。
また、電子装置では、設定された複数のインタラクションのうちいずれか一つのインタラクションによって任意の領域401が選択される。ここで、設定された複数のインタラクションは、入力ツールとしてスタイラスペンのようなツールが使用される場合、ペンホバー、ペンホバー及びホールド、ペンタッチ、ペンタッチ及びホールド、ボタン入力によるペンホバー、ボタン入力によるペンホバー及びホールド、ボタン入力によるペンタッチ、並びに、ボタン入力によるペンタッチ及びホールド機能を含む。もし、入力ツールがユーザの指である場合、上述した機能のうちボタン入力を除く全ての機能が含まれる。
次に、電子装置は、入力ツールによって選択された領域が、設定された複数のフィールド(field)のうちどのフィールドに含まれるのかを判定する。ここで、設定された複数のフィールドには、入力フィールド(input field)、ボタンフィールド(button field)、コンテンツフィールド(contents field)が含まれる。より詳しくは、入力フィールドはテキスト、イメージのようなコンテンツを入力するフィールドであり、ボタンフィールドは設定されたコンテンツを入力するフィールドであり、コンテンツフィールドは選択されたコンテンツのサイズを設定されたサイズだけ拡大又は縮小し、設定されたメニューを提供するフィールドである。
もし、電子装置で入力ツールによって選択された領域が設定された複数のフィールドのうちの入力フィールドであると確認される場合、電子装置は入力ツールによって選択された際に入力されたインタラクションを確認する。
もし、図4Bに示したように、入力ツールから設定された第1インタラクションが入力されたことを電子装置が確認した場合、電子装置は選択された領域にコンテンツが入力されるビジュアルアフォーダンス(visual affordance)領域402を設定された領域に表示する。より詳しくは、入力ツールから設定された第1インタラクションとして選択されたことを確認した場合、電子装置は選択された領域の上にビジュアルアフォーダンス領域402を表示する。次に、電子装置で表示されたビジュアルアフォーダンス領域402にコンテンツの入力が完了されたことを確認した場合、電子装置は選択された領域に入力が完了されたコンテンツを表示する。例えば、電子装置がビジュアルアフォーダンス領域402に「meeting」というテキストを入力されてからビジュアルアフォーダンス領域402以外の領域を選択された場合、電子装置はテキストの入力が完了されたことを確認して表示されたアフォーダンス領域402を削除し、選択された領域に入力された「meeting」というテキストを表示する。
ここで、アフォーダンス領域402はタッチスクリーンの全体領域にコンテンツを入力される。即ち、アフォーダンス領域402は、コンテンツが入力されることで上下に領域が拡張又は縮小される。また、電子装置はアフォーダンス領域402に入力されたコンテンツがカーソルの最大領域まで入力された場合、自動的に下端に余分の領域を生成する。また、電子装置はアフォーダンス領域402に予め作成されている内容がある場合、ポート変換後に設定されたサイズに合わせて表示してもよい。また、電子装置では、キーバッドが活性化されている場合でも入力ツールからアフォーダンス領域402にコンテンツが入力されてもよい。
もし、図4Cに示したように、入力ツールから設定された第2インタラクションが入力されたことを電子装置が確認した場合、電子装置は選択された領域にコンテンツが入力される入力フィールド領域403、及び入力フィールド領域403に入力されたコンテンツが表示される結果フィールド(result field)領域404を表示する。次に、電子装置は入力フィールド領域403にコンテンツを入力されると共に結果フィールド領域404に入力されたコンテンツが表示されることを確認した後、入力フィールド領域403にコンテンツの入力が完了された場合、選択された領域に結果フィールド領域404に表示されたコンテンツを表示する。
例えば、電子装置において、入力フィールド領域403に「meeting」というテキストが入力された場合、電子装置は、入力フィールド領域403に入力された「meeting」というテキストを結果フィールド領域404に同時に表示する。次に、電子装置で入力フィールド領域403にコンテンツの入力が完了されたことを確認した場合、電子装置は結果フィールド領域404に表示された「meeting」というテキストを選択された領域に表示する。
もし、図4Dに示したように、入力ツールから設定された第3インタラクションが入力されたことを電子装置が確認した場合、電子装置は設定された複数のコンテンツ405を表示する。より詳しくは、電子装置は選択された領域に表示された複数のコンテンツ405のうちいずれか一つのコンテンツを入力するために設定された複数のコンテンツ405を表示する。次に、表示された複数のコンテンツ405のうちいずれか一つのコンテンツが選択された場合、電子装置は選択されたコンテンツが選択された領域に入力されることを確認する。
図5A〜Dは、本発明による電子装置において、入力フィールド領域の画面が設定された方向だけ自動的にスクロールされる一実施形態を示す図である。まず、図5Aに示したように、入力ツールから設定された第1インタラクションが入力されたことを電子装置が確認した場合、電子装置は選択された領域にコンテンツを入力する入力フィールド領域501及び入力フィールド領域501に入力されたコンテンツを表示する結果フィールド領域502を表示する。
ここで、入力フィールド領域501には、ビジュアルガイド領域503が含まれて表示されてもよい。ビジュアルガイド領域503とは、入力フィールド領域にコンテンツが入力された場合、入力フィールド領域501の画面を設定した方向だけ自動的にスクロールさせる領域である。
例えば、図5B乃至図5Dに示したように、入力フィールド領域501に「S pen meeting」というテキストが入力された場合、電子装置はビジュアルガイド領域503に入力されたテキストが入力されることを確認し、設定された方向である右側にカーソルを自動的にスクロールする。もし、ユーザが自動的にスクロールされたテキストを更に確認しようとする際には入力フィールド領域501を左側又は右側にスクロールして確認する。
次に、電子装置は入力フィールド領域501にコンテンツを入力されると共に結果フィールド領域502に入力されたコンテンツが表示されることを確認した後、入力フィールド領域501にコンテンツの入力が完了された場合、選択された領域に結果フィールド領域502に表示されたコンテンツを設定されたフォントで表示する。
例えば、入力フィールド領域501に「meeting」というテキストを手書きの形態で入力された場合、電子装置は入力フィールド領域501に入力された「meeting」というテキストを結果フィールド領域502に同時に表示する。次に、入力フィールド領域501にコンテンツの入力が完了されたことを電子装置が確認した場合、電子装置は結果フィールド領域502に表示された「meeting」というテキストを設定されたフォントに変形して選択された領域に表示する。
図6は、本発明による電子装置において、入力フィールド領域の拡張概念の第1実施例を示す図である。まず、図6の(a)に示すように、電子装置は入力フィールド領域に表示されたコンテンツをコントロールする複数のボタンを表示する。より詳しくは、電子装置は入力フィールド領域に表示されたコンテンツをコントロールするmoreボタン601及び完了ボタン602などを表示し、ユーザの入力を受け付ける。
例えば、図6の(b)及び(c)に示すように、moreボタンが入力された場合、電子装置は入力フィールド領域に表示されたテキストの言語を変換するボタン603、空間を空けるスペースボタン604及び作成されたテキストを削除するバックスペースボタン605などを追加して表示する。また、電子装置は入力フィールド領域に表示されたテキストの言語を変換するボタン606、空間を空けるスペースボタン607及び作成されたテキストを削除するバックスペースボタン608及び行を変換するエンターボタン609などを追加して表示してもよい。
ここで、表示されたコンテンツをコントロールするボタンは、入力フィールド領域に表示されると説明したが、これは上述したアフォーダンス領域のように入力可能な全ての入力フィールド領域が含まれることを意味してもよい。
図7は、本発明による電子装置において、入力フィールド領域の拡張概念の第2実施例を示す図である。まず、入力フィールドに手書きでテキストが入力された場合、電子装置は入力されたテキストを設定されたフォントに変換して表示する。
例えば、図7の(a)乃至(b)に示すように、手書きで「It‘s easy build」というテキストが入力された場合、電子装置は入力された「It’s easy build」というテキストを設定されたフォントに変換し入力フィールド領域に表示する。次に、電子装置が手書きで「your」というテキストを追加に入力された場合、電子装置は追加に入力された「your」というテキストを「It’s easy build」というテキストに追加して「It’s easy build your」というテキストを入力フィールド領域に表示する。
もし、電子装置でカーソルの最大領域にテキストが入力されたことを確認した場合、電子装置は下端に余分の領域を生成する。例えば、図7の(b)に示すように、「It’s easy build your」というテキストのうちから「your」というテキストが追加に入力されることでカーソルの最大領域まで入力されたことを電子装置が確認した場合、電子装置は次のテキストを入力するために下端に余分の領域を生成する。
また、電子装置は入力フィールド領域に表示されたテキストの行間に余分の領域を生成することもできる。例えば、図7の(c)乃至(d)に示すように電子装置が現在のカーソル領域がホバリングされた状態で下に移動されることを確認した場合、電子装置は入力フィールド領域に表示されたテキストのうちテキストの行間に余分の領域を生成する。即ち、電子装置が「easy」というテキストに位置しているカーソルがホバリングされた状態で下に移動されることを確認した場合、電子装置は「It’s easy build your own」というテキストと「camera」というテキストの間の行間に点線で表示された余分の領域を生成する。よって、電子装置では点線で表示された余分の領域に新しいテキストが入力される。
図8は、本発明による電子装置において、入力フィールド領域の拡張概念の第3実施例を示す図である。まず、入力フィールドに手書きでテキストが入力された場合、電子装置は入力されたテキストを設定されたフォントに変換して表示する。
次に、電子装置はプリディクション(prediction)機能が実行されているのか否かを確認する。もし、プリディクション機能が実行されていると判定される場合、電子装置は現在入力されたテキストに基づいて予想単語の候補群を設定された領域に表示する。例えば、図8の(a)に示したように、電子装置が手書きで「Par」までのテキストを入力された場合、電子装置は入力された「par」というテキストで予想可能な候補群である「part」、「par」及び「party」などを設定された領域に表示する。
もし、電子装置がテキストの中間で予想単語の候補群を表示する場合、電子装置は該当単語の上に予想単語の候補群を表示する。また、電子装置で予想単語の候補群が多いと判断される場合、電子装置は左右スクロールをサポートすることもできる。
例えば、図8の(b)に示すように、手書きで「of seeing the Conne」というテキストまで入力された場合、電子装置は「Conne」というテキストで「Connect」、「Connected」及び「Connectedly」などのような予想可能な候補群を「Conne」という単語の上に表示する。また、電子装置で予想単語の候補群を設定された領域に全て表示することができない場合、電子装置は一部の予想単語の候補群を表示した後、左側又は右側スクロールを入力されることで表示されていない予想単語の候補群を表示する。
また、設定された領域に表示された予想単語の候補群のうちいずれか一つの予想単語を選択された場合、電子装置はカーソルが位置している領域に現在まで入力された単語を選択された単語に変更する。次に、電子装置は設定された領域に表示された予想単語の候補群を削除し、現在まで入力されたテキストを入力フィールド領域に表示する。
例えば、図8の(c)及び(d)に示すように、電子装置が「of seeing the Dance Conne」というテキストまで入力された後、設定された領域に表示された予想単語の候補群のうち「connectedness」という単語を選択された場合、電子装置は選択された「connectedness」という単語を追加して「Tonight I had the pleasure of seeing the Dance connectedness」というテキストを表示する。
ここで、電子装置が予想単語の候補群を設定された領域に表示する際、表示されたテキストの言語を変換するボタン、空間を空けるスペースボタン及び作成されたテキストを削除するバックスペースボタンなどのような機能ボタンが表示されている場合、電子装置は表示されている機能ボタンを削除してもよい。
図9は、本発明による電子装置において、入力フィールド領域の拡張概念の第4実施例を示す図である。まず、電子装置はテキストを入力される入力フィールド領域を設定された領域に表示した後、テキストが入力されることで最初の入力フィールド領域が形成された地点から、入力フィールド領域は下の方向に拡張される。
例えば、図9の(a)及び(b)に示すように、電子装置は、入力フィールド領域にテキストを入力されることで最初の入力フィールド領域が形成された地点から下の方向に入力フィールド領域を拡張し続ける。
次に、テキストを入力され続けることで入力フィールド領域が下の方向に最大限に拡張されたことを電子装置が確認した場合、電子装置は入力フィールド領域の上端部分を継続的に上側に拡張する。次に、入力フィールド領域が上方向に最大限に拡張されたことを電子装置が確認した場合、電子装置は最初に表示されたテキストを最上端部分から画面上でスクロールする。
例えば、図9の(c)及び(d)に示すように、入力フィールド領域にテキストが続けて入力されて入力フィールド領域に下の方向に最大限に拡張されてからも続けてテキストが入力される場合、電子装置は上端に表示されていたテキストである「It’s easy to build your own camera if you’re determined to capture image on the cheep;it’s」というテキストを上側の方向に自動的にスクロールする。
図10は、本発明による電子装置において、入力フィールド領域の拡張概念の第4実施例を示す図である。まず、電子装置は、設定された領域に表示された削除ボタン1001がタッチされた場合、現在カーソルが位置している地点を基準に入力フィールド領域に表示されたテキストを順に削除する。もし、入力フィールド領域が最初に形成された地点よりも上端に拡張された場合、電子装置は、削除ボタン1002が入力されることによって入力フィールド領域の上端から入力フィールド領域を縮小する。
例えば、図10の(a)及び(b)に示すように、入力フィールド領域が初めて形成された地点より上方に拡張された状態で削除ボタン1001が押下された場合、電子装置は順に表示されたテキストを削除した後、削除ボタン1002が入力されることによって入力フィールド領域の上端が下がることによって入力フィールド領域が縮小されることを確認する。即ち、削除ボタン1002が押下されて「The pack gives DIY types everything they need to build」というテキストが削除されることで、電子装置は、入力フィールド領域の上端を下方に移動させて入力フィールド領域を縮小する。
もし、入力フィールド領域の上端領域が最初に入力フィールド領域が形成された地点まで縮小されたことを電子装置が感知した場合、電子装置は入力フィールド領域の下端領域を上方に移動させて入力フィールド領域を縮小する。
例えば、図10の(c)及び(d)に示すように、削除ボタン1003が押下されることによって入力フィールド領域が初めて形成された地点まで縮小されたことを電子装置が感知してから、さらに削除ボタン1003が押下され続けた場合、電子装置は、入力フィールド領域の下端領域を上方に移動させることにより入力フィールド領域を縮小する。
図11は、本発明による電子装置において、入力フィールド領域の拡張概念の第5実施例を示す図である。まず、電子装置は表示されているテキストを編集するコマンドを受け取る。より詳しくは、電子装置は設置された領域を選択されて表示されているテキストを編集する編集モードに転換する。例えば、図11の(a)に示すように、電子装置のタッチスクリーンの設定された領域が選択されて表示されているテキストを編集する編集モードに、電子装置は転換する。
次に、電子装置はテキストを入力及び削除する編集モードに転換するが、入力フィールド領域が最初に形成される際にページがめくられる場合、電子装置は常に最後の行を基準に表示する。例えば、図11の(b)に示すように、電子装置に表示されているテキストを編集する編集モードに転換される際、入力フィールド領域が最初に形成される際にページがめくられる場合、最後のラインである「customizable panels」という行を基準に、電子装置は入力フィールド領域を表示する。
次に、表示されたテキストを削除するコマンドが入力された場合、電子装置は選択された領域まで表示されたテキストを削除する。例えば、図11の(c)乃至(d)に示すように、電子装置は「refined if that’s the case,Lomography」というテキストを削除する。
図12は、本発明による電子装置において、入力フィールド領域の拡張概念の第6実施例を示す図である。まず、電子装置では、コンテンツを入力されるために表示された領域のうち設定された領域が選択される。例えば、図12の(a)に示すように、電子装置のタッチスクリーンの下端領域に表示された領域のうち設定された領域が選択される。
次に、図12の(b)に示すように、電子装置は設定された領域にコンテンツを入力するための入力フィールド領域を表示する。より詳しくは、電子装置は、電子装置のタッチスクリーンの下端を基準にコンテンツを入力するための入力フィールド領域を形成する。
次に、入力フィールド領域にコンテンツが入力されることで、電子装置は、フィールド領域のサイズを上方に拡大する。例えば、図12の(c)及び(d)に示すように、入力フィールド領域にテキストが入力されることで、電子装置は、入力フィールド領域の上端が上方に移動するように入力フィールド領域を拡大する。
ここで、カーソルは最後に位置してもよく、電子装置は最後の行を基準に入力内容を表示してスクロールを提供する。
図13は、本発明による電子装置において、入力フィールド領域の拡張概念の第7実施例を示す図である。まず、表示されたテキストのカーソル領域が選択された状態で上側方向又は下側方向に表示されたテキストがスクロールされることを電子装置は感知する。なぜならば、表示された入力フィールド領域全体がドローイング(drawing)領域であるためである。例えば、図13の(a)及び(b)に示すように、電子装置は、下端に表示されたカーソル領域が選択された状態で上側方向又は下側方向に入力フィールド領域がスクロールされることを感知する。
また、電子装置は、入力フィールド領域に表示されたカーソルをホールドした状態で画面の最上端又は最下端の外側にカーソルが移動する動作を感知した場合、入力フィールド領域が感知された方向にスクロールされることを感知する。例えば、図13の(c)及び(d)に示すように、電子装置は、入力フィールド領域に表示されたカーソルをホールドした状態で画面の最上端の外側にカーソルが移動する動作を感知した場合、上側の方向に入力フィールド領域がスクロールされることを感知して表示されていなかったテキストを表示する。
図14は、本発明による電子装置において、入力フィールド領域の拡張概念の第8実施例を示す図である。まず、電子装置は、表示された入力フィールド領域のうち任意の領域を2本の指で選択した状態で上側又は下側の方向にスクロールされることを感知した場合、一本の指で選択した状態でスクロールされるより速い状態で入力フィールド領域がスクロールされることを感知する。この際、電子装置は入力フィールド領域の任意の領域に表示されたカーソルは画面のスクロールに応じて現状を維持することを確認する。
例えば、図14の(a)乃至(c)に示すように、電子装置は表示された入力フィールド領域のうち任意の領域を2本の指で選択された状態で下側の方向に入力フィールド領域がスクロールされることを感知した場合、一本の指で選択された状態でスクロールされるより速い状態で入力フィールド領域がスクロールされることを感知する。この際、電子装置は入力フィールド領域の下端に表示されたカーソルが画面のスクロールに応じて下端に維持され続けることを確認する。
また、図14の(d)に示すように、電子装置は入力フィールド領域の下端に表示されたカーソルがテキスト及び空白の位置に応じて左右に移動されることを確認する。
図15は、本発明による電子装置において、入力ツールから時間を入力する一実施例を示す図である。ここで、インタラクションは、入力ツールとしてスタイラスペンのようなツールが使用される場合、ペンホバー、ペンホバー及びホールド、ペンタッチ、ペンタッチ及びホールド、ボタン入力によるペンホバー、ボタン入力によるペンホバー及びホールド、ボタン入力によるペンタッチ、並びに、ボタン入力によるペンタッチ及びホールド機能を含む。もし、入力ツールがユーザの指である場合、上述した機能のうちボタン入力を除く全ての機能が含まれる。
まず、図15の(a)に示すように、電子装置において、ミーティングスケジュールが入力されたカレンダーアプリケーションを設定する設定領域が選択される。例えば、電子装置は「S pen meeting」というタイトルで2013年1月27日の18時から19時までに予定されているミーティングの細部事項が表示された設定領域が選択される。
まず、図15の(a)に示すように、電子装置において、ミーティングスケジュールが入力されたカレンダーアプリケーションを設定する設定領域が選択される。例えば、電子装置は「S pen meeting」というタイトルで2013年1月27日の18時から19時までに予定されているミーティングの細部事項が表示された設定領域が選択される。
次に、図15の(b)に示すように、ミーティングが始まる時間である18:00が第1インタラクションとして選択された場合、電子装置はミーティング時間が更に入力されるように入力フィールド領域を表示する。
次に、図15の(c)及び(d)に示すように、時間が入力される入力フィールド領域が第2インタラクションとして選択された場合、電子装置は入力されている時間を削除して新しいミーティング時間を入力する。もし、図15の(d)に示すように、ミーティング時間として09時35分を入力されてから完了ボタンを入力された場合、電子装置は従来のミーティング時間を18時から09時35分に変更する。
この際、電子装置は入力されていないフィールドの場合、従来のフィールド値をそのまま維持する。
図16は、本発明による電子装置において、入力ツールから特定ジェスチャを認識して表示されたテキストを編集する一実施例を示す図である。まず、電子装置は入力ツールからそれぞれの設定されたジェスチャを認識して表示されているテキストを編集する。いくつかの例を挙げると、図16に示すように、入力ツールから表示されたテキストの上に手書き入力された場合、電子装置は手書き入力されたテキストに基づいて表示されたテキストを変更する。また、電子装置は入力ツールから表示されたテキストの上に削除するジェスチャを入力された場合、削除するように選択されたテキストを削除する。また、電子装置は分かち書き、べた書き、削除表記などのような設定されたジェスチャを認識して表示されたテキストを編集する。
図17は、本発明による電子装置において、選択された領域のフィールド属性及びインタラクション毎に分けて設定されたコンテンツを提供する第2実施形態を示す図である。まず、図17の(a)に示すように、電子装置では入力ツールから任意の領域が選択される。より詳しくは、電子装置はコンテンツが入力される任意の領域が入力ツールから選択される。
次に、電子装置は入力ツールによって選択された領域が設定された複数のフィールドのうちいずれか一つのフィールドに含まれるのか否かを判定する。ここで、設定された複数のフィールドには、入力フィールド、ボタンフィールド、コンテンツフィールドが含まれる。より詳しくは、入力フィールドはテキスト、イメージのようなコンテンツを入力するフィールドであり、ボタンフィールドは設定されたコンテンツを入力するフィールドであり、コンテンツフィールドは選択されたコンテンツのサイズを設定されたサイズだけ拡大又は縮小することができ、設定された編集メニューを提供するフィールドである。
もし、電子装置において入力ツールによって選択された領域が設定された複数のフィールドのうちボタンフィールドであると確認される場合、電子装置は入力ツールによって選択される際に入力されたインタラクションを確認する。
次に、入力ツールから入力されたインタラクションが設定された第1インタラクションとして確認される場合、電子装置は設定された領域に設定された少なくとも一つのコンテンツを表示する。より詳しくは、図17の(b)に示すように、電子装置はボタンが表示された位置から始まって設定された複数のコンテンツを表示する。例えば、電子装置は最も間近に撮影された複数のイメージ及びビデオを表示し、キャプチャーしたイメージを表示する。また、電子装置は最近共有したイメージ及びビデオ、最近修正したイメージ及びビデオ、共有したイメージ及びビデオの頻度が他のコンテンツと比べて相対的に高いコンテンツを表示する。また、電子装置は追加された連絡先が含まれたコンテンツ、通話頻度が他の連絡先と比べて相対的に高い連絡先が含まれたコンテンツ、アップデートされた連絡先が含まれたコンテンツを表示する。
また、電子装置は表示された複数のコンテンツがフリック(flick)される動作を感知し、表示されたコンテンツが時計方向、反時計方向、上方向及び下方向などのように設定された方向に移動することを感知する。
もし、図17(b)及び(c)に示すように、表示されたイメージのうち第2イメージが設定された第1インタラクションとして選択されることを確認した場合、電子装置は第2インタラクションとして選択された第2イメージが設定された領域に入力されることを確認する。
即ち、ユーザの立場では相手と会話アプリケーションを介して会話をしている途中に会話アプリケーションを逸脱することなく、インタラクションのみを変えて容易にユーザの所望のコンテンツをすぐに入力することができる長所がある。
図18は、本発明による電子装置において、選択された領域のフィールド属性及びインタラクション毎に分けて設定されたコンテンツを提供する第3実施形態を示す図である。まず、図18の(a)に示すように、電子装置では入力ツールから任意の領域が選択される。より詳しくは、コンテンツが入力される任意の領域が入力ツールから選択される。
次に、電子装置は入力ツールによって選択された領域が設定された複数のフィールドのうちいずれか一つのフィールドに含まれるのか否かを判定する。ここで、設定された複数のフィールドには、入力フィールド、ボタンフィールド、コンテンツフィールドが含まれる。より詳しくは、入力フィールドはテキスト、イメージのようなコンテンツを入力するフィールドであり、ボタンフィールドは設定されたコンテンツを入力するフィールドであり、コンテンツフィールドは選択されたコンテンツのサイズを設定されたサイズだけ拡大又は縮小することができ、設定された編集メニューを提供するフィールドである。
もし、電子装置において入力ツールによって選択された領域が設定された複数のフィールドのうちボタンフィールドであると確認される場合、電子装置は入力ツールによって選択される際に入力されたインタラクションを確認する。
次に、電子装置が入力ツールから入力されたインタラクションが設定された第1インタラクションとして確認される場合、電子装置は設定された領域に設定された少なくとも一つのコンテンツを表示する。より詳しくは、図18の(b)に示したように、電子装置はボタンが表示された位置から始まって設定された複数のコンテンツを表示する。例えば、電子装置はよく使用する連絡先が含まれたイメージを表示する。
また、電子装置は表示された複数のコンテンツがフリックされる動作を感知し、表示されたコンテンツが時計方向、反時計方向、上方向及び下方向などのように設定された方向に移動することを感知する。
もし、図18(b)及び(c)に示すように、電子装置が表示されたイメージのうち第2イメージが設定された第2インタラクションとして選択されることを確認した場合、電子装置は第2インタラクションとして選択された第2イメージが設定された領域に入力されることを確認する。
図19A及び図19Bは、本発明による電子装置の動作手順を示すフローチャートである。まず、図19Aに示すように、入力ツールから任意の領域が選択される(1901)。より詳しくは、電子装置はコンテンツが入力される任意の領域を選択するための入力を外部装置又はユーザから受信する。ここで、外部装置はスタイラスペンなどのような入力ツールであってもよい。
次に、電子装置は、選択された領域が、コンテンツが入力される第1フィールドであるか否かを判定する(1902)。ここで、第1フィールドは、テキスト、イメージのようなコンテンツを入力するフィールドである。
もし、上述した判定動作1902において、選択されたコンテンツが入力される第1フィールドでないと電子装置が判定した場合、電子装置は選択された領域が設定されたコンテンツが提供される第2フィールドであるのか否かを判定する(1903)。ここで、第2フィールドは設定されたコンテンツが提供されるフィールドである。
もし、上述した判定動作1903において、選択された領域が設定されたコンテンツが提供される第2フィールドでないと電子装置が判定した場合、電子装置は選択された領域が設定されたメニューが提供される第3フィールドであることを確認する(1904)。ここで、第3フィールドは設定されたコンテンツのサイズを設定されたサイズだけ拡大又は縮小し、設定された編集メニューが提供されるフィールドである。
次に、電子装置は選択された領域が設定された第1インタラクションとして選択されたか否かを判定する(1905)。ここで、設定された複数のインタラクションは、入力ツールとしてスタイラスペンのようなツールが使用される場合、ペンホバー、ペンホバー及びホールド、ペンタッチ、ペンタッチ及びホールド、ボタン入力によるペンホバー、ボタン入力によるペンホバー及びホールド、ボタン入力によるペンタッチ、並びに、ボタン入力によるペンタッチ及びホールド機能を含む。もし、入力ツールがユーザの指である場合、上述した機能のうちボタン入力を除く全ての機能が含まれる。
もし、上述した判定動作1905において、選択された領域が設定された第1インタラクションとして選択されたことを電子装置が確認した場合、電子装置は選択された領域を含むコンテンツのサイズが設定されたサイズだけ拡大又は縮小されることを確認する(1906)。
もし、上述した判定動作1902において、選択された領域がコンテンツを入力される第1フィールドとして判定される場合、電子装置は選択された領域が設定された第1インタラクションとして選択されたか否かを判定する(1907)。
もし、上述した判定動作1907において、選択された領域が設定された第1インタラクションとして選択されたことを電子装置が確認した場合、電子装置は設定された領域にビジュアルアフォーダンス領域を表示し、ビジュアルアフォーダンス領域にコンテンツの入力が完了された場合、選択された領域に入力が完了されたコンテンツを表示する(1908)。例えば、ビジュアルアフォーダンス領域に「meeting」というテキストを入力されてからビジュアルアフォーダンス領域以外の領域が選択された場合、電子装置はテキストの入力が完了されたことを確認して表示されたアフォーダンス領域を削除し、選択された領域に入力された「meeting」というテキストを表示する。ここで、ビジュアルアフォーダンスはユーザインタフェースに含まれる。
もし、上述した判定動作1908において、選択された領域が設定された第1インタラクションとして選択されなかったことを電子装置が確認した場合、電子装置は選択された領域が設定された第2インタラクションとして選択されたか否かに対して判定する(1909)。
もし、上述した判定動作1909において、選択された領域が設定された第2インタラクションとして選択されたと電子装置が判定した場合、電子装置は入力フィールド領域及び結果フィールド領域を表示し、入力フィールド領域にコンテンツの入力が完了された場合、選択された領域内の結果フィールド領域に入力されたコンテンツを表示する(1910)。例えば、入力フィールド領域に「meeting」というテキストが入力された場合、電子装置は入力フィールド領域に入力された「meeting」というテキストを結果フィールド領域に同時に表示する。次に、入力フィールド領域にコンテンツの入力が完了されたことを電子装置が確認した場合、電子装置は結果フィールド領域に表示された「meeting」というテキストを選択された領域に表示する。
もし、上述した判定動作1909において、選択された領域が設定された第2インタラクションとして選択されたことを電子装置が確認しなかった場合、電子装置は選択された領域が設定された第3インタラクションとして選択されたことを確認する(1911)。
次に、電子装置は設定された少なくとも一つのコンテンツを表示し、表示された少なくとも一つのコンテンツのうち選択されたコンテンツが選択された領域に入力されることを確認する(1912)。ここで、設定された複数のインタラクションは、入力ツールとしてスタイラスペンのようなツールが使用される場合、ペンホバー、ペンホバー及びホールド、ペンタッチ、ペンタッチ及びホールド、ボタン入力によるペンホバー、ボタン入力によるペンホバー及びホールド、ボタン入力によるペンタッチ、並びに、ボタン入力によるペンタッチ及びホールド機能を含む。もし、入力ツールがユーザの指である場合、上述した機能のうちボタン入力を除く全ての機能が含まれる。
もし、上述した判定動作1903において、選択された領域が設定されたコンテンツが提供される第2フィールドであると電子装置が判定する場合、電子装置は選択された領域が設定された第1インタラクションとして選択されたことを確認した場合、設定された領域に少なくとも一つのコンテンツを表示する(1913)。
次に、電子装置は表示された少なくとも一つのコンテンツのうちいずれか一つのコンテンツが設定された第2インタラクションとして選択されたことを確認し、第2インタラクションとして選択されたコンテンツが設定された領域に入力されることを確認する(1914)。
もし、上述した判定動作1905において、選択された領域が設定された第1インタラクションとして選択されなかったと電子装置が判定した場合、電子装置は選択された領域が設定された第2インタラクションとして選択されたことを確認する(1915)。
次に、電子装置は設定された領域に編集メニューを表示し、表示された編集メニューのうち少なくとも一つが選択されて編集機能を行う(1916)。
図20は、本発明によるフィールドの属性に応じて電子装置がコンテンツを提供する方法を示すフローチャートである。まず、図20に示すように、電子装置は、電子装置のディスプレーを介して表示されたページの少なくとも一つのフィールドに対応する領域を入力に基づいて選択する(2001)。より詳しくは、電子装置は、コンテンツが入力される任意の領域を選択する入力を外部装置又はユーザから受信する。ここで、外部装置は、スタイラスペンなどのような入力ツールであってもよい。
次に、電子装置は、第1属性及び第2属性を含む複数の属性のうち少なくとも一つのフィールドに対応する属性を確認する(2002)。より詳しくは、電子装置は、選択された領域がテキスト、イメージのようなコンテンツを入力する入力フィールド、設定されたコンテンツを入力するボタンフィールド、選択されたコンテンツのサイズを設定されたサイズだけ拡大又は縮小することができ、設定された編集メニューが提供されるコンテンツフィールドのうちいずれか一つのフィールドに含まれることを確認する。
次に、電子装置は、確認された属性に応じて第1コンテンツ及び第2コンテンツを含む少なくとも一つのコンテンツのうち属性に対応するコンテンツを選択的に提供する(2003)。もし、電子装置で確認されたフィールドが入力フィールドであると判定される場合、電子装置はテキスト、イメージのようなコンテンツを入力するコンテンツを提供する。また、電子装置で確認されたフィールドがボタンフィールドであると判定される場合、電子装置は設定されたコンテンツを入力するコンテンツを提供する。また、電子装置で確認されたフィールドがコンテンツフィールドであると判定される場合、電子装置は設定された編集メニューを提供するコンテンツを表示する。また、電子装置の外部から入力されるコンテンツとしては、例えばユーザが手や電子ペンのような入力ツール又はマイクなどを介して入力するテキスト、イメージ又は音声のうち少なくとも一つを含む。
図21は、本発明による電子装置において、選択された領域のフィールド属性及びインタラクション毎に分けて設定されたコンテンツを提供する第4実施形態を示す図である。まず、図21の(a)に示すように、入力ツールによって表示されたコンテンツのうちいずれか一つのコンテンツが選択される。
次に、電子装置は、入力ツールによって選択された領域が設定された複数のフィールドのうちどのフィールドに含まれるのかを判定する。ここで、設定された複数のフィールドには、入力フィールド、ボタンフィールド、コンテンツフィールドが含まれる。より詳しくは、入力フィールドはテキスト、イメージのようなコンテンツを入力するフィールドであり、ボタンフィールドは設定されたコンテンツを入力するフィールドであり、コンテンツフィールドは選択されたコンテンツのサイズを設定されたサイズだけ拡大又は縮小することができ、設定されたメニューが提供されるフィールドである。
もし、入力ツールによって選択された領域が設定された複数のフィールドのうちコンテンツフィールドであると電子装置が確認する場合、電子装置は入力ツールによって選択される際に入力されたインタラクションを確認する。
次に、入力ツールから入力されたインタラクションが設定された第1インタラクションであると確認される場合、電子装置は入力ツールから選択されたコンテンツを拡大又は縮小して表示する。例えば、図21の(b)に示すように、電子装置のタッチスクリーンに表示されたコンテンツのうちいずれか一つのコンテンツが第1インタラクションとして選択された場合、電子装置は選択されたコンテンツを拡大して表示する。
同じく、図21の(b)には示していないが、電子装置のタッチスクリーンに表示されたコンテンツのうちいずれか一つのコンテンツが第2インタラクションとして選択された場合、電子装置は選択されたコンテンツを縮小して表示する。
もし、電子装置が入力ツールから入力されたインタラクションが設定された第3インタラクションであると確認される場合、電子装置は入力ツールから選択されたコンテンツを編集する編集メニューを設定された領域に表示する。例えば、図21の(c)に示すように、電子装置のタッチスクリーンに表示されたコンテンツのうちいずれか一つのコンテンツが第3インタラクションとして選択された場合、電子装置は選択されたコンテンツを編集する編集アイコンが含まれた編集メニューを設定された領域に表示する。例えば、電子装置は選択された頻度が相対的に高い編集メニュー及び最も間近に選択された編集メニューなどを優先的に設定された領域に表示する。
これまで説明した本発明は、本発明の属する技術分野における通常の知識を有する者によって多様な変形や応用が可能であり、本発明による技術的思想の範囲は下記特許請求の範囲によって決められるべきである。
Claims (17)
- 電子装置の動作方法において、
客体(object)を表示する過程と、
第1インタラクションを有する第1入力が前記客体に入力されることを感知したことに対応して、第1ユーザインタフェース(user interface、UI)を表示する過程と、
第2インタラクションを有する第2入力が前記客体に入力されることを感知したことに対応して、第2ユーザインタフェースを表示する過程と、を含み、
前記第2インタラクションは前記第1インタラクションと異なり、
前記第1ユーザインタフェースは前記第1ユーザインタフェースの領域にテキスト(text)を入力できることを前記電子装置のユーザに示すためのビジュアルアフォーダンスを含み、
前記第2ユーザインタフェースは前記テキストが入力される入力フィールド領域と、前記テキストを出力する出力フィールド領域と、を含む方法。 - 第3インタラクションを有する第3入力が前記客体に入力されることを感知したことに対応して、予め決定されたコンテンツ(content)を含む第3ユーザインタフェースを表示する過程をさらに含み、
前記第3インタラクションは前記第1インタラクション及び前記第2インタラクションと異なる請求項1に記載の方法。 - 前記入力フィールド領域に前記テキストがハンドライティング(handwriting)で入力されることを感知したことに対応して、前記テキストの形態を前記ハンドライティングから予め決定されたフォント(font)に変換する過程と、
前記変換されたテキストを前記結果フィールド領域に表示する過程と、をさらに含む請求項1に記載の方法。 - 前記入力フィールド領域に含まれたビジュアルガイド領域を表示する過程と、
前記ビジュアルガイド領域に前記テキストが入力されることを感知したことに対応して、前記ビジュアルガイドに入力されたテキストの大きさに応じて前記入力フィールド領域のスクリーンを自動スクロールリング(auto−scrolling)する過程と、をさらに含む請求項1に記載の方法。 - 予め指定されたジェスチャ(gesture)を感知したことに対応して、前記テキストを前記感知されたジェスチャに応じて変換する過程と、
前記変換されたテキストを表示する過程と、をさらに含む請求項1に記載の方法。 - スケジュール(schedule)を設定するアプリケーション(application)のための第2客体を表示する過程と、
前記第2客体に前記第1入力が入力されることを感知したことに対応して、予め決定された時間情報を示す第4ユーザインタフェースを表示する過程と、
前記第2客体に前記第2入力が入力されることを感知したことに対応して、新しい時間情報を入力されるための第4ユーザインタフェースを表示する過程と、をさらに含む請求項1に記載の方法。 - 予め決定されたコンテンツを示す第3客体を表示する過程と、
前記第3客体に前記第1入力が入力されることを感知したことに対応して、前記電子装置に記憶された少なくとも一つのコンテンツを予め決定された領域に表示する過程と、
前記少なくとも一つのコンテンツのうち一つのコンテンツに前記第2入力が入力されることを感知したことに対応して、前記一つのコンテンツを表示する過程と、をさらに含む請求項1に記載の方法。 - コンテンツを編集(edit)するための第4客体を表示する過程と、
前記第4客体に前記第1入力又は前記第2入力が入力されることを感知したことに対応して、前記感知された入力に応じて前記コンテンツの大きさを調節する過程と、
前記調整された大きさのコンテンツを表示する過程と、
前記第4客体に第3インタラクションを有する第3入力が入力されることを感知したことに対応して、前記コンテンツを編集するためのメニューを表示する過程と、をさらに含む請求項1に記載の方法。 - 電子装置において、
ディスプレー部と、
前記ディスプレー部と機能的に(operatively)結合されたプロセッサと、を含み、
前記プロセッサは、
前記ディスプレー部を介して客体(object)を表示し、
第1インタラクションを有する第1入力が前記客体に入力されることを感知したことに対応して、前記ディスプレー部を介して第1ユーザインタフェース(user interface、UI)を表示し、
第2インタラクションを有する第2入力が前記客体に入力されることを感知したことに対応して、前記ディスプレー部を介して第2ユーザインタフェースを表示し、
前記第2インタラクションは前記第1インタラクションと異なり、
前記第1ユーザインタフェースは前記第1ユーザインタフェースの領域にテキスト(text)を入力できることを前記電子装置のユーザに示すためのビジュアルアフォーダンスを含み、
前記第2ユーザインタフェースは前記テキストが入力される入力フィールド領域と、前記テキストを出力する出力フィールド領域と、を含む装置。 - 前記プロセッサは、
第3インタラクションを有する第3入力が前記客体に入力されることを感知したことに対応して、前記ディスプレー部を介して、予め決定されたコンテンツ(content)を含む第3ユーザインタフェースを表示するようにさらに構成され、
前記第3インタラクションは前記第1インタラクション及び前記第2インタラクションと異なる請求項9に記載の装置。 - 前記プロセッサは、
前記入力フィールド領域に前記テキストがハンドライティング(handwriting)で入力されることを感知したことに対応して、前記テキストの形態を前記ハンドライティングから予め決定されたフォント(font)に変換し、
前記ディスプレー部を介して、前記変換されたテキストを前記結果フィールド領域に表示するようにさらに構成される請求項9に記載の装置。 - 前記プロセッサは、
前記ディスプレー部を介して、前記入力フィールド領域に含まれたビジュアルガイド領域を表示し、
前記ビジュアルガイド領域に前記テキストが入力されることを感知したことに対応して、前記ビジュアルガイドに入力されたテキストの大きさに応じて前記入力フィールド領域のスクリーンを自動スクロールリング(auto−scrolling)するようにさらに構成される請求項9に記載の装置。 - 前記プロセッサは、
予め指定されたジェスチャ(gesture)を感知したことに対応して、前記テキストを前記感知されたジェスチャに応じて変換し、
前記ディスプレー部を介して、前記変換されたテキストを表示するようにさらに構成される請求項9に記載の装置。 - 前記プロセッサは、
前記ディスプレー部を介して、スケジュール(schedule)を設定するアプリケーション(application)のための第2客体を表示し、
前記第2客体に前記第1入力が入力されることを感知したことに対応して、前記ディスプレー部を介して、予め決定された時間情報を示す第4ユーザインタフェースを表示し、
前記第2客体に前記第2入力が入力されることを感知したことに対応して、前記ディスプレー部を介して、新しい時間情報を入力されるための第4ユーザインタフェースを表示するようにさらに構成される請求項9に記載の装置。 - 前記プロセッサは、
前記ディスプレー部を介して、予め決定されたコンテンツを示す第3客体を表示し、
前記第3客体に前記第1入力が入力されることを感知したことに対応して、前記ディスプレー部を介して、前記電子装置に記憶された少なくとも一つのコンテンツを予め決定された領域に表示し、
前記少なくとも一つのコンテンツのうち一つのコンテンツに前記第2入力が入力されることを感知したことに対応して、前記ディスプレー部を介して、前記一つのコンテンツを表示するようにさらに構成される請求項9に記載の装置。 - 前記プロセッサは、
前記ディスプレー部を介して、コンテンツを編集(edit)するための第4客体を表示し、
前記第4客体に前記第1入力又は前記第2入力が入力されることを感知したことに対応して、前記感知された入力に応じて前記コンテンツの大きさを調節し、
前記ディスプレー部を介して、前記調整された大きさのコンテンツを表示し、
前記第4客体に第3インタラクションを有する第3入力が入力されることを感知したことに対応して、前記ディスプレー部を介して、前記コンテンツを編集するためのメニューを表示するようにさらに構成される請求項9に記載の装置。 - 電子装置のディスプレーを介して客体(object)を表示する過程と、第1インタラクションを有する第1入力が前記客体に入力されることを感知したことに対応して、第1ユーザインタフェース(user interface、UI)を表示する過程と、第2インタラクションを有する第2入力が前記客体に入力されることを感知したことに対応して、第2ユーザインタフェースを表示する過程と、を含み、
前記第2インタラクションは前記第1インタラクションと異なり、
前記第1ユーザインタフェースは前記第1ユーザインタフェースの領域にテキスト(text)を入力できることを前記電子装置のユーザに示すためのビジュアルアフォーダンスを含み、
前記第2ユーザインタフェースは前記テキストが入力される入力フィールド領域と、前記テキストを出力する出力フィールド領域と、を含むプログラムを記録したコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130104302A KR102162836B1 (ko) | 2013-08-30 | 2013-08-30 | 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법 |
KR10-2013-0104302 | 2013-08-30 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014145482A Division JP2015049901A (ja) | 2013-08-30 | 2014-07-16 | フィールドの属性に応じてコンテンツを提供する電子装置及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016197455A true JP2016197455A (ja) | 2016-11-24 |
Family
ID=51485457
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014145482A Pending JP2015049901A (ja) | 2013-08-30 | 2014-07-16 | フィールドの属性に応じてコンテンツを提供する電子装置及び方法 |
JP2016149939A Pending JP2016197455A (ja) | 2013-08-30 | 2016-07-29 | フィールドの属性に応じてコンテンツを提供する電子装置及び方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014145482A Pending JP2015049901A (ja) | 2013-08-30 | 2014-07-16 | フィールドの属性に応じてコンテンツを提供する電子装置及び方法 |
Country Status (10)
Country | Link |
---|---|
US (2) | US10088977B2 (ja) |
EP (2) | EP3534275A1 (ja) |
JP (2) | JP2015049901A (ja) |
KR (1) | KR102162836B1 (ja) |
CN (1) | CN104424359B (ja) |
AU (1) | AU2014216029B2 (ja) |
BR (1) | BR112016002674A2 (ja) |
RU (1) | RU2016106644A (ja) |
TW (1) | TWI522894B (ja) |
WO (1) | WO2015030390A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3005175B1 (fr) | 2013-04-24 | 2018-07-27 | Myscript | Systeme de synchronisation permanente pour la saisie manuscrite |
US9411508B2 (en) * | 2014-01-03 | 2016-08-09 | Apple Inc. | Continuous handwriting UI |
US9946516B2 (en) * | 2014-03-14 | 2018-04-17 | Starbucks Corporation | Application workflow framework |
CN107077258B (zh) | 2014-11-13 | 2019-12-17 | 麦克赛尔株式会社 | 投射型影像显示装置以及影像显示方法 |
KR101860910B1 (ko) * | 2015-12-29 | 2018-05-28 | 삼성전자주식회사 | 영상 표시 장치, 영상 표시 장치의 제어 방법 및 의료 기기 |
KR102648551B1 (ko) * | 2016-01-28 | 2024-03-18 | 삼성전자주식회사 | 콘텐트를 선택하기 위한 방법 및 그 전자 장치 |
US10416868B2 (en) * | 2016-02-29 | 2019-09-17 | Myscript | Method and system for character insertion in a character string |
US20170285931A1 (en) * | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Operating visual user interface controls with ink commands |
CN108536653B (zh) * | 2017-03-03 | 2022-09-30 | 北京搜狗科技发展有限公司 | 一种输入方法、装置和用于输入的装置 |
USD872100S1 (en) | 2017-03-07 | 2020-01-07 | CommuniCare Technology, Inc. | Display screen or portion thereof with a graphical user interface of an electronic device |
JP6958018B2 (ja) * | 2017-03-16 | 2021-11-02 | 株式会社デンソーウェーブ | 情報表示システム |
US10481791B2 (en) * | 2017-06-07 | 2019-11-19 | Microsoft Technology Licensing, Llc | Magnified input panels |
US20190155895A1 (en) * | 2017-11-20 | 2019-05-23 | Google Llc | Electronic text pen systems and methods |
KR102149513B1 (ko) * | 2018-03-28 | 2020-08-31 | 미쓰비시덴키 가부시키가이샤 | 선정 장치, 선정 방법 및 선정 프로그램 |
US11177804B2 (en) * | 2018-12-20 | 2021-11-16 | Sanko Tekstil Isletmeleri San. Ve Tic. A.S. | Wearable touch sensitive garment |
US10783323B1 (en) * | 2019-03-14 | 2020-09-22 | Michael Garnet Hawkes | Analysis system |
US12093523B2 (en) * | 2019-05-06 | 2024-09-17 | Apple Inc. | Handwriting entry on an electronic device |
JP7490967B2 (ja) * | 2020-01-27 | 2024-05-28 | 富士通株式会社 | 表示制御プログラム、表示制御方法、及び表示制御装置 |
CN111459378A (zh) * | 2020-03-23 | 2020-07-28 | 广州视源电子科技股份有限公司 | 笔迹的处理方法和装置 |
US20210349627A1 (en) | 2020-05-11 | 2021-11-11 | Apple Inc. | Interacting with handwritten content on an electronic device |
JP7521372B2 (ja) * | 2020-10-15 | 2024-07-24 | セイコーエプソン株式会社 | 表示方法、及び表示装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01261720A (ja) * | 1988-04-13 | 1989-10-18 | Fujitsu Ltd | 文字記入枠表示方式 |
JPH08235119A (ja) * | 1995-02-24 | 1996-09-13 | Casio Comput Co Ltd | 入力装置 |
JP2002278683A (ja) * | 2001-03-19 | 2002-09-27 | Mitsubishi Electric Corp | フォーム入力支援装置及びフォーム入力支援方法 |
US20070130502A1 (en) * | 2005-12-01 | 2007-06-07 | Microsoft Corporation | Grid entry user interface extensions |
JP2010020658A (ja) * | 2008-07-14 | 2010-01-28 | Panasonic Corp | 情報端末装置およびその入力制御方法 |
JP2010128666A (ja) * | 2008-11-26 | 2010-06-10 | Sharp Corp | 情報処理装置 |
JP2011022961A (ja) * | 2009-07-21 | 2011-02-03 | Panasonic Corp | 入力制御装置 |
JP2013054745A (ja) * | 2011-08-31 | 2013-03-21 | Samsung Electronics Co Ltd | 携帯端末機の入力装置及び方法 |
Family Cites Families (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5267327A (en) * | 1990-03-30 | 1993-11-30 | Sony Corporation | Apparatus and method for registering the handwriting of a user so it can be translated into block characters |
US5347295A (en) * | 1990-10-31 | 1994-09-13 | Go Corporation | Control of a computer through a position-sensed stylus |
EP0585944B1 (en) * | 1992-09-04 | 2002-12-11 | Canon Kabushiki Kaisha | Method and apparatus for displaying characters |
US6295372B1 (en) * | 1995-03-03 | 2001-09-25 | Palm, Inc. | Method and apparatus for handwriting input on a pen based palmtop computing device |
JP2000010691A (ja) * | 1998-04-21 | 2000-01-14 | Casio Comput Co Ltd | データ入力装置およびそのプログラム記録媒体 |
US6957768B1 (en) | 1999-05-25 | 2005-10-25 | Silverbrook Research Pty Ltd | Computer system control via interface surface |
US20040205525A1 (en) * | 2001-04-30 | 2004-10-14 | Murren Brian T. | Automatic identification of form contents |
US6661409B2 (en) * | 2001-08-22 | 2003-12-09 | Motorola, Inc. | Automatically scrolling handwritten input user interface for personal digital assistants and the like |
US7804489B1 (en) * | 2001-08-29 | 2010-09-28 | Palmsource Inc. | Method and apparatus for displaying information in a display screen region identified by permanent printing |
US20030071850A1 (en) * | 2001-10-12 | 2003-04-17 | Microsoft Corporation | In-place adaptive handwriting input method and system |
US20030214531A1 (en) * | 2002-05-14 | 2003-11-20 | Microsoft Corporation | Ink input mechanisms |
US9124447B2 (en) * | 2002-07-26 | 2015-09-01 | International Business Machines Corporation | Interactive client computer communication |
US20040126017A1 (en) * | 2002-12-30 | 2004-07-01 | Giovanni Seni | Grammar-determined handwriting recognition |
EP1591875A4 (en) * | 2003-01-30 | 2007-12-05 | Fujitsu Ltd | DEVICE AND METHOD FOR HANDWRITTEN ENTRIES |
US7490296B2 (en) * | 2003-01-31 | 2009-02-10 | Microsoft Corporation | Utility object for specialized data entry |
JP2003296029A (ja) * | 2003-03-05 | 2003-10-17 | Casio Comput Co Ltd | 入力装置 |
US7296017B2 (en) * | 2003-03-28 | 2007-11-13 | Microsoft Corporation | Validation of XML data files |
US7567239B2 (en) * | 2003-06-26 | 2009-07-28 | Motorola, Inc. | Method and system for message and note composition on small screen devices |
US7164410B2 (en) | 2003-07-28 | 2007-01-16 | Sig G. Kupka | Manipulating an on-screen object using zones surrounding the object |
US8688529B2 (en) * | 2004-01-17 | 2014-04-01 | Thomas M. Jacobs | System and method for associating requests with potential respondents to said requests |
US7698159B2 (en) * | 2004-02-13 | 2010-04-13 | Genworth Financial Inc. | Systems and methods for performing data collection |
US7412447B2 (en) * | 2004-03-01 | 2008-08-12 | Fuji Xerox Co., Ltd. | Remote file management using shared credentials for remote clients outside firewall |
US7692636B2 (en) | 2004-09-30 | 2010-04-06 | Microsoft Corporation | Systems and methods for handwriting to a screen |
US8487879B2 (en) * | 2004-10-29 | 2013-07-16 | Microsoft Corporation | Systems and methods for interacting with a computer through handwriting to a screen |
US7561145B2 (en) | 2005-03-18 | 2009-07-14 | Microsoft Corporation | Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface |
US7693958B2 (en) * | 2005-06-20 | 2010-04-06 | Microsoft Corporation | Instant messaging with data sharing |
US8001459B2 (en) * | 2005-12-05 | 2011-08-16 | Microsoft Corporation | Enabling electronic documents for limited-capability computing devices |
US7945612B2 (en) * | 2006-03-28 | 2011-05-17 | Microsoft Corporation | Aggregating user presence across multiple endpoints |
US7783983B1 (en) * | 2006-04-13 | 2010-08-24 | Emc Corporation | User interface for controls |
US7503007B2 (en) * | 2006-05-16 | 2009-03-10 | International Business Machines Corporation | Context enhanced messaging and collaboration system |
US8077974B2 (en) * | 2006-07-28 | 2011-12-13 | Hewlett-Packard Development Company, L.P. | Compact stylus-based input technique for indic scripts |
JP2008053765A (ja) * | 2006-08-22 | 2008-03-06 | Sanyo Electric Co Ltd | カメラ付通信端末 |
US8564544B2 (en) * | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
JP4375377B2 (ja) | 2006-09-19 | 2009-12-02 | 富士ゼロックス株式会社 | 筆記情報処理システム、筆記情報生成装置およびプログラム |
WO2008121930A1 (en) * | 2007-03-29 | 2008-10-09 | Nesticon, Llc | Creating a report having computer generated narrative text |
CN101286093A (zh) * | 2007-04-09 | 2008-10-15 | 谷歌股份有限公司 | 客户端输入方法 |
US7849398B2 (en) * | 2007-04-26 | 2010-12-07 | Xerox Corporation | Decision criteria for automated form population |
US8555186B2 (en) * | 2007-05-08 | 2013-10-08 | Adobe Systems Incorporated | Interactive thumbnails for transferring content among electronic documents |
US20090043799A1 (en) * | 2007-08-06 | 2009-02-12 | Morris Robert P | Methods And Apparatus For Using Annotated User Interface Widgets In Search Operations |
JP2009070189A (ja) * | 2007-09-13 | 2009-04-02 | Access Co Ltd | 入力支援サーバ、入力支援システムおよび入力支援プログラム |
CN101398812B (zh) * | 2007-09-27 | 2012-05-30 | 国际商业机器公司 | 生成带业务逻辑的电子表单的装置和方法 |
KR20090046142A (ko) * | 2007-11-05 | 2009-05-11 | 삼성전자주식회사 | 입력 필체 자동 변환 시스템 및 방법 |
US8689139B2 (en) * | 2007-12-21 | 2014-04-01 | Adobe Systems Incorporated | Expandable user interface menu |
US20090198782A1 (en) * | 2008-02-04 | 2009-08-06 | Shannon Hsinhen Chang | Apparatus, system, and method for retrieving email attachments |
KR101447752B1 (ko) * | 2008-03-25 | 2014-10-06 | 삼성전자주식회사 | 터치스크린에서 화면 분할과 화면 표시장치 및 방법 |
WO2009126591A1 (en) * | 2008-04-07 | 2009-10-15 | Express Mobile, Inc. | Systems and methods for programming mobile devices |
US8610672B2 (en) * | 2008-04-10 | 2013-12-17 | Nokia Corporation | Device and method for stroke based graphic input |
CN101266533A (zh) * | 2008-04-24 | 2008-09-17 | 广东国笔科技股份有限公司 | 用于触摸屏的输入法 |
US7958143B1 (en) * | 2008-11-04 | 2011-06-07 | A9.Com, Inc. | Context search to refine a search |
KR101640460B1 (ko) * | 2009-03-25 | 2016-07-18 | 삼성전자 주식회사 | 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기 |
US8312390B2 (en) * | 2009-06-10 | 2012-11-13 | Microsoft Corporation | Dynamic screentip language translation |
US20110041177A1 (en) * | 2009-08-14 | 2011-02-17 | Microsoft Corporation | Context-sensitive input user interface |
US8766928B2 (en) * | 2009-09-25 | 2014-07-01 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US9479838B2 (en) * | 2009-11-24 | 2016-10-25 | Sam Makhlouf | System and method for distributing media content from multiple sources |
KR101123615B1 (ko) * | 2009-12-23 | 2012-03-20 | 주식회사 디오텍 | 필기 입력 장치 및 그 방법 |
EP2517125A1 (en) * | 2009-12-24 | 2012-10-31 | Xelion B.V. | Method for generating a search query |
US8495508B2 (en) * | 2010-03-30 | 2013-07-23 | George Lebrun | Method and apparatus for contextual based search engine and enterprise knowledge management |
US8683377B2 (en) * | 2010-05-12 | 2014-03-25 | Adobe Systems Incorporated | Method for dynamically modifying zoom level to facilitate navigation on a graphical user interface |
US20110314376A1 (en) * | 2010-06-18 | 2011-12-22 | Michael Dearman | Method and system that displays a tooltip |
US20120011449A1 (en) * | 2010-07-09 | 2012-01-12 | Ori Sasson | Messaging system |
KR101701151B1 (ko) * | 2010-09-20 | 2017-02-02 | 삼성전자주식회사 | 휴대 단말기를 이용한 통합 메시지 송수신 방법 및 장치 |
US8924883B2 (en) * | 2010-09-28 | 2014-12-30 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Content presentation utilizing moveable fly-over on-demand user interfaces |
WO2012050251A1 (ko) * | 2010-10-14 | 2012-04-19 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
WO2012056726A1 (ja) * | 2010-10-29 | 2012-05-03 | パナソニック株式会社 | コミュニケーションサービスシステム |
KR101232623B1 (ko) * | 2010-12-07 | 2013-02-13 | 삼성메디슨 주식회사 | 사용자 메뉴의 편집기능을 구현하는 방법 |
US8751967B2 (en) * | 2010-12-15 | 2014-06-10 | Blackberry Limited | Method for selecting files on a portable electronic device |
US20120173633A1 (en) * | 2010-12-29 | 2012-07-05 | International Business Machines Corporation | Email conversation management support |
US8707199B2 (en) * | 2011-02-18 | 2014-04-22 | Blackberry Limited | Quick text entry on a portable electronic device |
US20120216113A1 (en) * | 2011-02-18 | 2012-08-23 | Google Inc. | Touch gestures for text-entry operations |
US20120223935A1 (en) * | 2011-03-01 | 2012-09-06 | Nokia Corporation | Methods and apparatuses for facilitating interaction with a three-dimensional user interface |
KR101852428B1 (ko) * | 2011-03-09 | 2018-04-26 | 엘지전자 주식회사 | 이동 단말기 및 그의 3d객체 제어방법 |
US9455939B2 (en) * | 2011-04-28 | 2016-09-27 | Microsoft Technology Licensing, Llc | Most recently used list for attaching files to messages |
KR20130034747A (ko) * | 2011-09-29 | 2013-04-08 | 삼성전자주식회사 | 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치 |
KR101789626B1 (ko) * | 2011-10-10 | 2017-10-25 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어 방법 |
US8634807B2 (en) * | 2011-10-17 | 2014-01-21 | Blackberry Limited | System and method for managing electronic groups |
US20130097037A1 (en) * | 2011-10-17 | 2013-04-18 | Johnson Controls Technology Company | Battery selection and feedback system and method |
US8601079B2 (en) * | 2011-11-29 | 2013-12-03 | Yahoo! Inc. | Fast maneuvering and high-speed data attachments for message services |
US9317305B2 (en) * | 2011-12-29 | 2016-04-19 | Iii Holdings 1, Llc | Systems and methods for data brick creation and use |
US20130205189A1 (en) * | 2012-01-25 | 2013-08-08 | Advanced Digital Systems, Inc. | Apparatus And Method For Interacting With An Electronic Form |
JP5859330B2 (ja) * | 2012-02-02 | 2016-02-10 | 株式会社コナミデジタルエンタテインメント | メッセージ送信システム、制御方法およびプログラム |
US9473730B1 (en) * | 2012-02-13 | 2016-10-18 | Nbcuniversal Media, Llc | Method and system for personalized recommendation modeling |
CN104272322B (zh) * | 2012-05-17 | 2017-06-27 | 夏普株式会社 | 显示控制装置、以及显示装置的控制方法 |
US8997021B2 (en) * | 2012-11-06 | 2015-03-31 | Lytro, Inc. | Parallax and/or three-dimensional effects for thumbnail image displays |
CN102945137A (zh) * | 2012-11-13 | 2013-02-27 | 广东欧珀移动通信有限公司 | 触摸式移动终端手写输入方法 |
US9575635B2 (en) * | 2013-01-04 | 2017-02-21 | Apple Inc. | Return to sender |
US20140258003A1 (en) * | 2013-03-07 | 2014-09-11 | Microsoft Corporation | Online advertising with integrated interfaces |
KR20140132171A (ko) | 2013-05-07 | 2014-11-17 | 삼성전자주식회사 | 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법 |
EP3011415B1 (en) * | 2013-06-19 | 2018-12-05 | Nokia Technologies Oy | Electronic-scribed input |
US9201592B2 (en) * | 2013-08-09 | 2015-12-01 | Blackberry Limited | Methods and devices for providing intelligent predictive input for handwritten text |
-
2013
- 2013-08-30 KR KR1020130104302A patent/KR102162836B1/ko active IP Right Grant
-
2014
- 2014-07-16 JP JP2014145482A patent/JP2015049901A/ja active Pending
- 2014-08-12 RU RU2016106644A patent/RU2016106644A/ru not_active Application Discontinuation
- 2014-08-12 BR BR112016002674A patent/BR112016002674A2/pt not_active IP Right Cessation
- 2014-08-12 WO PCT/KR2014/007470 patent/WO2015030390A1/en active Application Filing
- 2014-08-22 AU AU2014216029A patent/AU2014216029B2/en active Active
- 2014-08-26 EP EP19170291.9A patent/EP3534275A1/en active Pending
- 2014-08-26 EP EP14182322.9A patent/EP2843531A3/en not_active Withdrawn
- 2014-08-29 TW TW103129765A patent/TWI522894B/zh active
- 2014-09-01 CN CN201410440374.5A patent/CN104424359B/zh active Active
- 2014-09-02 US US14/475,194 patent/US10088977B2/en active Active
-
2016
- 2016-07-29 JP JP2016149939A patent/JP2016197455A/ja active Pending
-
2018
- 2018-08-16 US US15/998,486 patent/US20180356947A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01261720A (ja) * | 1988-04-13 | 1989-10-18 | Fujitsu Ltd | 文字記入枠表示方式 |
JPH08235119A (ja) * | 1995-02-24 | 1996-09-13 | Casio Comput Co Ltd | 入力装置 |
JP2002278683A (ja) * | 2001-03-19 | 2002-09-27 | Mitsubishi Electric Corp | フォーム入力支援装置及びフォーム入力支援方法 |
US20070130502A1 (en) * | 2005-12-01 | 2007-06-07 | Microsoft Corporation | Grid entry user interface extensions |
JP2010020658A (ja) * | 2008-07-14 | 2010-01-28 | Panasonic Corp | 情報端末装置およびその入力制御方法 |
JP2010128666A (ja) * | 2008-11-26 | 2010-06-10 | Sharp Corp | 情報処理装置 |
JP2011022961A (ja) * | 2009-07-21 | 2011-02-03 | Panasonic Corp | 入力制御装置 |
JP2013054745A (ja) * | 2011-08-31 | 2013-03-21 | Samsung Electronics Co Ltd | 携帯端末機の入力装置及び方法 |
Non-Patent Citations (1)
Title |
---|
クーパー アランほか2名: ""13.4 マニュアルアフォーダンス", "19.3 ポインティングとカーソル"", ABOUT FACE 3 インタラクションデザインの極意, vol. 初版, JPN6017047609, 23 July 2008 (2008-07-23), JP, pages 287 - 289, ISSN: 0003701148 * |
Also Published As
Publication number | Publication date |
---|---|
BR112016002674A2 (pt) | 2017-08-01 |
US20150067504A1 (en) | 2015-03-05 |
WO2015030390A1 (en) | 2015-03-05 |
EP3534275A1 (en) | 2019-09-04 |
RU2016106644A (ru) | 2017-08-31 |
US20180356947A1 (en) | 2018-12-13 |
EP2843531A3 (en) | 2015-10-14 |
JP2015049901A (ja) | 2015-03-16 |
AU2014216029B2 (en) | 2016-04-14 |
KR20150026022A (ko) | 2015-03-11 |
KR102162836B1 (ko) | 2020-10-07 |
TWI522894B (zh) | 2016-02-21 |
TW201510844A (zh) | 2015-03-16 |
CN104424359A (zh) | 2015-03-18 |
CN104424359B (zh) | 2018-02-23 |
US10088977B2 (en) | 2018-10-02 |
AU2014216029A1 (en) | 2015-03-19 |
EP2843531A2 (en) | 2015-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2014216029B2 (en) | Electronic device and method for providing content according to field attribute | |
EP2854013B1 (en) | Method for displaying in electronic device and electronic device thereof | |
US20150309704A1 (en) | Method and electronic device for managing object | |
CN104102484B (zh) | App操作方法和设备以及支持app操作方法的app输出设备 | |
US20150020013A1 (en) | Remote operation of applications using received data | |
US10545663B2 (en) | Method for changing an input mode in an electronic device | |
KR20150111221A (ko) | 페이지 구성 방법 및 이를 지원하는 전자장치 | |
KR102215178B1 (ko) | 전자장치에서 사용자 입력 방법 및 장치 | |
US9625979B2 (en) | Method for reducing power consumption and electronic device thereof | |
KR20150073354A (ko) | 디스플레이를 통하여 제공되는 오브젝트 처리 방법 및 장치 | |
KR20150051278A (ko) | 오브젝트 이동 방법 및 이를 구현하는 전자 장치 | |
EP3035313B1 (en) | Method and apparatus for remote control | |
US10303351B2 (en) | Method and apparatus for notifying of content change | |
KR20150131542A (ko) | 입력 제어 객체 운용 방법 및 이를 지원하는 전자 장치 | |
KR20150050882A (ko) | 다국어 입력 방법 및 이를 이용하는 다국어 입력 장치 | |
KR20200086653A (ko) | 컨텐츠의 스크롤 시 대표 정보를 표시하는 전자 장치 및 그 제어 방법 | |
EP2897033A1 (en) | Method for processing data and electronic device thereof | |
KR20150080242A (ko) | 터치스크린을 갖는 전자장치에서 특수 기능을 이용한 입력 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180731 |