JP5705131B2 - 異種のタッチ領域を利用した電子機器の動作制御方法及び装置 - Google Patents

異種のタッチ領域を利用した電子機器の動作制御方法及び装置 Download PDF

Info

Publication number
JP5705131B2
JP5705131B2 JP2011544370A JP2011544370A JP5705131B2 JP 5705131 B2 JP5705131 B2 JP 5705131B2 JP 2011544370 A JP2011544370 A JP 2011544370A JP 2011544370 A JP2011544370 A JP 2011544370A JP 5705131 B2 JP5705131 B2 JP 5705131B2
Authority
JP
Japan
Prior art keywords
touch
touch area
input
area
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011544370A
Other languages
English (en)
Other versions
JP2012514268A (ja
Inventor
ソン ウ シン,
ソン ウ シン,
ミョン ファン ハン,
ミョン ファン ハン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2012514268A publication Critical patent/JP2012514268A/ja
Application granted granted Critical
Publication of JP5705131B2 publication Critical patent/JP5705131B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、電子機器のタッチ入力を基にした制御技術に関し、より詳細には、タッチスクリーン(Touch−screen)とタッチパッド(Touch−pad)を備える電子機器において、タッチスクリーン及びタッチパッドに配置された異なるタッチ領域の連続的な接触により電子機器の特定の動作を制御する方法、装置、及びシステムに関する。
通信技術の急速な発展に伴い、携帯端末での新たな技術及び機能が着実に拡大され、これに合わせて多様なユーザインターフェース(UI:User Interface)が提供されている。
特に、最近、一般的なキーパッドの代わりにタッチスクリーン(Touch−screen)を使用するか、又はこれらを組み合わせた携帯端末が提供されている。また、一部の携帯端末では、タッチパッド(Touch−pad)を採用することによって、ドームキー(Domekey)を代替している。
このようなタッチスクリーンやタッチパッドは、ユーザに容易且つより直観的な入力インターフェースを提供することができる。しかし、タッチスクリーン又はタッチパッドが1つだけ備えられた携帯端末では、入力インターフェースを通じて携帯端末の動作を制御するのに限界がある。
従って、タッチスクリーン及びタッチパッドの2つの形態を共に備える携帯端末が開発されてその制御効率を高めている。しかし、このような従来の携帯端末の場合は、2つの形態が同時に適用されても、タッチスクリーン及びタッチパッドが各々独立して活用されるという不具合を有している。従って、従来の携帯端末は、タッチスクリーン及びタッチパッドの両方に連続的に入力イベントが発生した場合、入力イベントを別個の入力命令として認識し、2つの入力形態を有しているにも拘わらず、連続的な接触による携帯端末の制御機能を支援していない。
また、携帯端末と同様にテレビなどの在来の電子機器も、単に放送を視聴する機能を超えて、ネットサーフィン、写真ディスプレイ、ゲーム機能などの多様な付加サービスを提供している。また、このような電子機器は、携帯端末と同様に、付加サービスをより便利に管理し利用することができるユーザインターフェース(UI)が必須となる。
本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、電子機器における異種のタッチ領域の連続的な入力を1つのジェスチャー入力として処理し、電子機器の特定の動作を制御する方法、装置、及びシステムを提供することにある。
また、本発明の目的は、電子機器のタッチスクリーン及びタッチパッドの両方に発生した連続的な入力を1つのジェスチャー入力として認識することによって、電子機器の特定の動作を制御する方法、装置、及びシステムを提供することにある。
また、本発明の目的は、隣接して対称的に配置された異種のタッチ領域よりなる入力領域を通じて電子機器の特定の動作を制御する技術を提供することにある。
また、本発明の目的は、連続的に配置されたタッチスクリーン及びタッチパッドの両方に発生したタップイベントやスウィープイベントなどの相互作用に対して継続的に応答する技術を提供することにある。
また、本発明の目的は、グラフィックUI領域及び物理的UI領域の両方で生じた連続的な接触(continuous contact)を1つの連続的な入力として受信する技術を提供することにある。
上記目的を達成するためになされた本発明の一態様による電子機器の入力システムは、第1タッチ領域を有するグラフィックユーザインターフェース(GUI)と、前記第1タッチ領域と隣接して配置され、第2タッチ領域を有する物理的ユーザインターフェース(PUI)と、を備え、前記第1タッチ領域及び前記第2タッチ領域の各々は、連結された他のタッチ領域から連続的な接触(continuous contact)を受けることを特徴とする。
また、本発明の一態様による携帯端末は、第1タッチ領域を有するタッチスクリーンと、前記タッチスクリーンの近くに配置され、前記第1タッチ領域と隣接して配置された第2タッチ領域を有するタッチパッドと、前記タッチスクリーン及びタッチパッドで継続して発生する連続的な接触を1つのジェスチャー入力として処理する制御部と、を含む。
また、本発明の一態様による電子機器は、第1タッチ領域を有する第1入力部と、前記第1タッチ領域と隣接して対称的に配置された第2タッチ領域を有する第2入力部と、前記第1入力部及び第2入力部で継続して発生する連続的な接触(continuous contact)を1つのジェスチャー入力として処理する制御部と、を備え、前記第1タッチ領域及び前記第2タッチ領域は、前記連続的な接触を継続的に感知することを特徴とする。
また、本発明の一態様による電子機器の動作制御方法は、第1タッチ領域の連続的な接触の発生に応じた該連続的な接触による機能を制御する過程と、前記第1タッチ領域から第2タッチ領域に移動する連続的な接触を感知する過程と、前記連続的な接触を1つのジェスチャー入力として処理する過程と、前記第2タッチ領域の連続的な接触の発生に応じた該連続的な接触による機能を継続的に制御する過程と、を有する。
本発明による異種のタッチ領域を利用した電子機器の動作制御方法及び装置によれば、GUI領域及びPUI領域を用いた統合的且つ相互作用によって、電子機器の活用性を高めることができる。即ち、本発明による電子機器は、タッチスクリーンとタッチパッドとの有機的な連結から入力信号を構成し、タッチスクリーンとタッチパッドを実行アプリケーションによって各々独立的な入力媒体として利用するか、又は統合された1つの入力媒体として利用することができる。これにより、入力及び制御の実行の効用性を高めることができる。
また、本発明において定義されたタッチ領域をホイール(Wheel)のような回転する入力手段の形態でグラフィカルに提供することによって、直観的なインターフェースによる可視性(visibility)を高めることができる。また、タッチスクリーンに実行アプリケーションに適したGUI様式による仮想イメージを出力し、多様な機能をより直観的に提供することができる。
本発明の一実施形態による異種のタッチ領域を有する電子機器の例を示す図である。 本発明の一実施形態による電子機器の異種のタッチ領域でのタッチ入力の種類を説明するための図である。 本発明の一実施形態による異種のタッチ領域を有する電子機器の特定の動作制御方法を示すフロー図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による異種のタッチ領域を利用した電子機器のタッチ制御の画面表示例を示す図である。 本発明の一実施形態による電子機器の構成を概略的に示すブロック図である。
以下、本発明を実施するための形態の具体例を、図面を参照しながら詳しく説明する。ここで、図面において、同一の参照符号は、同一又は類似の部分を参照するために使用する。公知の機能又は構成に対する具体的な説明が本発明の要旨を不明瞭にすることを防止するために、その詳細な説明を省略することがある。
本発明は、電子機器の動作制御方法、装置、及びシステムに関する。特に、本発明の実施形態においては、異種のタッチ領域(different touch zone)を利用して電子機器の動作を制御する方法、装置、及びシステムを提案する。このために、本発明の実施形態においては、電子機器にタッチパッド(Touch−pad)とタッチスクリーン(Touch−screen)を備え、タッチパッドとタッチスクリーンとの間に有機的な連結を通じてユーザ入力のための新しいタッチ技術を提案する。また、本発明では、物理的ユーザインターフェース(PUI:Physical User Interface)領域とグラフィックユーザインターフェース(GUI:Graphical User interface)領域とで構成された入力手段を有する電子機器を提案する。本発明において、PUI領域の第1タッチ領域とGUI領域の第2タッチ領域とは、互いに隣接して連結され、第1タッチ領域及び第2タッチ領域は、対称構造を有することができる。特に、第1タッチ領域と第2タッチ領域との間に連続的な接触(continuous contact)が発生すると、これを1つのジェスチャー入力(single gesture input)として認知し、それに対応する電子機器の特定の動作を制御する。
以下、本発明の実施形態においては、電子機器が携帯端末である場合を代表的な例として説明する。しかし、本発明の方法、装置、及びシステムが必ずしも携帯端末を利用する場合にのみ限定されるものではなく、下記の実施形態に基づいてユーザジェスチャー入力が可能な全ての形態の入力手段を含む全ての形態の電子機器に適用することができる。例えば、本発明の電子機器は、ユーザジェスチャー入力が可能な入力手段を含む携帯端末、テレビ、LFD(Large Format Display)、DS(Digital Signage)、メディアポール(media pole)などのディスプレイデバイスを含むことができる。また、本発明においてユーザのジェスチャー入力のための入力手段は、タッチパッド、タッチスクリーンなどを含む。
本発明の実施形態において、PUIは、ボタン、スイッチ、把持部、レバー、ローテーター、ホイールなどのように人間がツールや装備と相互作用(interaction)することを補助する一連の物理的媒体を代表する用語として示し、GUIは、ユーザが携帯端末と情報を交換する際、グラフィックを通じて作業することができる媒体を代表する用語として示す。
以下では、本発明の実施形態を説明するにあたって、PUI領域としてタッチパッドを利用する場合を代表的な例として説明し、GUI領域としてタッチスクリーンを利用する場合を代表的な例として説明する。しかし、本発明は必ずしもこれに限定されるものではなく、タッチパッド及びタッチスクリーンに対応する機能が提供される多様なPUI及びGUIを利用することができることに留意しなければならない。
本発明の実施形態において、タッチパッドの第1タッチ領域とタッチスクリーンの第2タッチ領域との有機的な連結構造を通じて両者間に行われる連続的な入力を1つのジェスチャー入力(single gesture input)として認知し、それによる特定の動作を処理する。本明細書では、第1タッチ領域及び第2タッチ領域のように異なるタッチ領域を異種のタッチ領域と称する。
本発明の実施形態において、タッチスクリーンのようなデバイスのタッチ領域とタッチパッドのようなデバイスのタッチ領域が互いに隣接するように連結された異種のタッチ領域は、物理的な形態では一般的なホイール(Wheel)と類似の形態を有し、タッチスクリーンに該当するタッチ領域では、携帯端末で実行するアプリケーションに適したGUIを出力し、多様な機能を提供することができる。
本発明の実施形態において、異種のタッチ領域で、携帯端末の動作制御は、スウィープ(Sweep)イベント及びタップ(Tap)イベントなどの相互作用によって行うことができる。以下では、このようなスウィープイベント及びタップイベントを総称して‘ジェスチャー’又は‘ユーザジェスチャー’と命名し、説明に応じて各々を混用して記載する。
本発明の実施形態において、例えば、タッチパッドのタッチ領域で発生したユーザジェスチャー(スウィープイベント又はタップイベント)による入力が隣り合うタッチスクリーンのタッチ領域で連続的に発生すると、これを1つのジェスチャー入力として認識する。これにより、異種のタッチ領域の間にタッチ領域の変更が発生しても、ジェスチャーによる連続した制御によって実行中のアプリケーションに対する制御動作を中断せずに連続して処理することができる。
以下、本発明の実施形態によるタッチスクリーン及びタッチパッドを備える携帯端末において、異種のタッチ領域を利用して携帯端末の動作を制御する方法について説明する。しかし、本発明の携帯端末が下記に記述する内容に限定されるものではなく、下記の実施形態に基づいて多様な実施形態に適用することができることに留意しなければならない。
図1は、本発明の一実施形態による異種のタッチ領域を有する携帯端末の例を示す図である。
図1を参照すると、本実施形態の携帯端末は、大きくGUI領域110とPUI領域120とに分けられる。GUI領域110は、タッチスクリーンに対応し、PUI領域120は、タッチパッドに対応する。即ち、本実施形態において、携帯端末は、タッチスクリーン110とタッチパッド120を含み、タッチスクリーン110とタッチパッド120とは、互いに隣接するように連結される構造を有する。図1の例では、タッチスクリーン110の下側にタッチパッド120が隣接するように配列された場合を示す。
タッチスクリーン110は、表示領域130とタッチ領域140とに区分することができる。ここで、表示領域130とタッチ領域140は、説明の便宜のために区分したものであって、表示領域130は、画面データ表示と共に、ユーザのタッチ入力も可能であることは勿論である。また、タッチ領域140は、ユーザのタッチ入力のための領域として示すが、タッチ領域140でも画面データ表示が可能であることは勿論である。特に、タッチ領域140上に表示される画面データは、実行アプリケーションに対応するように適応的に変更されるGUI、即ち特定のアイテムを表示することができる。ここで、特定のアイテムは、実行アプリケーションによって適応的に変更提供され、当該アプリケーションの多様な機能付与のための多様な形態のアイコン、テキスト、イメージなどを示すことができる。このような特定のアイテムは、固定的に割り当てられるものではなく、実行アプリケーションに対応するように変更される仮想アイテム(virtual item)として提供される。このような例については、後述する図面を参照して説明する。
タッチパッド120は、ユーザと携帯端末間の相互作用によりユーザの入力を処理する物理的媒体を示し、特にタッチパッド120は、ユーザのタッチ入力のためのタッチ領域150を含む。
一方、図1に示す携帯端末の形態は、必ずしも上述した形態に限定されず、タッチスクリーン110とタッチパッド120が隣接して有機的な連結構造を有する全ての形態の携帯端末を含むことができる。
図2は、本発明の一実施形態による携帯端末の異種のタッチ領域でのタッチ入力の種類を説明するための図である。
図1及び図2を参照すると、本実施形態による携帯端末では、タッチスクリーン110とタッチパッド120が隣接するように配列され、タッチスクリーン110の第1タッチ領域140とタッチパッド120の第2タッチ領域150による異種のタッチ領域140、150にタップイベント及びスウィープイベントなどを発生することができる。本実施形態は、タップイベント及びスウィープイベントなどの相互作用を有機的に適用することができるようにする。
タップイベントは、参照符号210に示すように、タッチスクリーン110の第1タッチ領域140及びタッチパッド120の第2タッチ領域150に形成される多数のタップポイント(Tap point)230により行うことができる。タップポイント230は、実行アプリケーションごとに異なるように定義され、各実行アプリケーションで当該タップポイント230に割り当てられた所定の機能を遂行することができる。
スウィープイベントは、参照符号220に示すように、タッチスクリーン110の第1タッチ領域140及びタッチパッド120の第2タッチ領域150に形成される円形の構造240で時計方向又は反時計方向に行われうる。このような例については、後述する図面を参照して説明する。
タッチパッド120の第2タッチ領域150と有機的な連結関係にあるタッチスクリーン110の第1タッチ領域140の形状は、タッチパッド120の第2タッチ領域150の形状(例えば、半円形状)と対称の形状(例えば、半円形状)よりなることができる。本発明の携帯端末は、このような対称構造を有する異種のタッチ領域を利用して入力手段として活用することができる。
上述したように、異種のタッチ領域140、150は、連続的な接触(continuous contact)(例えば、touch and sweep、touch and movingなど)が可能となるように互いに連結された有機的な形態を有する。従って、異種のタッチ領域140、150の間に連続的に行われる接触(continuous contact)は、1つのジェスチャー入力(single gestural input)として認識する。
1つのジェスチャー入力は、携帯端末で実行中のアプリケーションモード内の1つ以上の値(value)を調節し(例えば、volume up/down、zoom in/outなど)、1つ以上のアイテム間のナビゲーション(navigation)を行う。このような例については、後述する図面を参照して説明する。
また、連続的な接触による値の変化をタッチスクリーン110の第1タッチ領域140上にGUIを通じて仮想イメージ(virtual image)で表示することによって、第1タッチ領域140で入力機能及び出力機能が遂行されるようにする。
以下、上述したような異種のタッチ領域を含む携帯端末において、異種のタッチ領域を利用した携帯端末の動作制御方法について説明する。しかし、本発明の携帯端末は、下記に記述する内容に限定されるものではなく、下記の実施形態に基づいて多様な実施形態に適用することができることに留意しなければならない。
図3は、本発明の一実施形態による異種のタッチ領域を有する携帯端末の特定の動作制御方法を示すフロー図である。
図1〜図3を参照すると、先ず、携帯端末は、ユーザ入力を感知すると(S301段階)、ユーザ入力が発生する領域を判断する(S303段階)。即ち、携帯端末は、ユーザ入力がタッチ領域で発生したか、入力領域で発生したかを判断する(S305段階)。ここで、ユーザ入力は、タッチ入力であると仮定する。なお、入力領域及びタッチ領域は、説明の便宜のために区分したものである。入力領域は、タッチスクリーン110の表示領域130又はタッチパッド120に形成される物理的な領域を示し、タッチ領域は、タッチスクリーン110のタッチ領域140又はタッチパッド120のタッチ領域150を示す。
次に、S305段階の判断結果、タッチ領域による入力でなければ、携帯端末は、入力領域による入力として判断し(S307段階)、ユーザの入力、即ちタッチ入力による当該動作を行う(S309段階)。例えば、表示領域130又はタッチパッド120の物理的な領域でタッチ入力が発生するポイントの特定アイテムに対する機能を遂行することができる。
次に、S305段階の判断結果、タッチ領域による入力であると判断すると、携帯端末は、タッチ領域の発生位置を識別する(S311段階)。携帯端末は、ユーザ入力が発生したタッチ領域がPUIタッチ領域、即ちタッチパッド120のタッチ領域150であるか、GUIタッチ領域、即ちタッチスクリーン110のタッチ領域140であるかを判断する。
S311段階の判断結果、PUIタッチ領域であれば、ユーザ入力がジェスチャー入力(例えば、スウィープイベント)であるか、又は一般入力(例えば、タップイベント)であるかを確認する(S313段階)。ここで、ジェスチャー入力は、あらかじめ設定された特定パターンによって行われるユーザの入力動作を示す。
S313段階の判断結果、ジェスチャー入力でなければ、携帯端末は、ユーザ入力が一般タッチ入力であると判断し(S331段階)、当該動作を行う(S333段階)。例えば、PUIタッチ領域でタップイベント入力が発生すると、タップイベント入力が発生するタップポイント(TAP Point)にマッピングされた当該機能に対する動作を行う。
S313段階の判断結果、ジェスチャー入力であれば、携帯端末は、ユーザジェスチャーによる機能を制御する(S315段階)。例えば、携帯端末で実行中のアプリケーションモード内の1つ以上の値(value)を調節(例えば、再生音楽ファイルのボリューム制御、カメラ機能のズームイン/ズームアウト制御など)するか、又は1つ以上のアイテム間のナビゲーションを行う。
次に、携帯端末は、S315段階のように、ユーザジェスチャーによる機能の制御中に、タッチ領域の変更を感知することができる(S317段階)。携帯端末は、PUIタッチ領域から伝達された入力情報による機能の制御中に、GUIタッチ領域から入力情報を伝達することができる。即ち、PUIタッチ領域による入力情報の伝達が中断されると同時に、GUIタッチ領域から入力情報を伝達することができる。
このような場合、携帯端末は、タッチ領域の変更として認知する。即ち、携帯端末は、PUIタッチ領域による入力情報の伝達が中断されても、これを入力終了として処理せず、GUIタッチ領域による入力情報と連携して処理する。ここで、ユーザジェスチャーは、異種のタッチ領域で連続的な接触であると仮定し、リリース(release)後に発生する新しいユーザジェスチャーに対しては、新しい入力の開始として認知することができる。このような例については後述する。
次に、携帯端末は、タッチ領域の変更を感知すると、GUIタッチ領域で発生するユーザジェスチャーをPUIタッチ領域で発生したジェスチャーと連続するジェスチャー、即ち1つのジェスチャーとして処理する(S319段階)。次に、携帯端末は、GUIタッチ領域で発生するユーザジェスチャーによってPUIタッチ領域の入力情報により行った機能制御を続いて行う(S321段階)。例えば、実行中のアプリケーション、例えば、再生音楽ファイルのボリューム、カメラ機能のズームイン/ズームアウトなどによる値を調節するか、又は1つ以上のアイテム間のナビゲーションを続いて行うことができる。
一方、S311段階の判断結果、入力領域の発生位置がPUIタッチ領域でなければ、携帯端末は、GUIタッチ領域として判断する(S341段階)。次に、携帯端末は、ユーザ入力がジェスチャー入力(例えば、スウィープイベント)であるか又は一般入力(例えば、タップイベント)であるかを確認する(S343段階)。
S343段階の判断結果、ジェスチャー入力でなければ、携帯端末は、ユーザ入力が一般タッチ入力であると判断し(S331段階)、上述した例で説明したような動作を行う。
S343段階の判断結果、ジェスチャー入力であれば、携帯端末は、ユーザジェスチャーによる機能を制御する(S345段階)。例えば、携帯端末で実行中のアプリケーションモード内の1つ以上の値を調節(例えば、再生音楽ファイルのボリューム制御、カメラ機能のズームイン/ズームアウト制御など)するか、又は1つ以上のアイテム間のナビゲーションを行う。
次に、携帯端末は、S345段階のように、ユーザジェスチャーによる機能の制御中に、タッチ領域の変更を感知することができる(S347段階)。携帯端末は、GUIタッチ領域から伝達される入力情報による機能の制御中に、PUIタッチ領域から入力情報を伝達することができる。即ち、GUIタッチ領域による入力情報の伝達が中断されると同時に、PUIタッチ領域から入力情報を伝達することができる。
このような場合、携帯端末は、タッチ領域の変更として認知する。即ち、携帯端末は、GUIタッチ領域による入力情報の伝達が中断されても、これを入力終了として処理せずに、PUIタッチ領域による入力情報と連携して処理する。ここで、ユーザジェスチャーは、異種のタッチ領域で連続的な接触であると仮定し、リリース後に発生する新しいユーザジェスチャーについては、新しい入力の開始として認知することができる。このような例については後述する。
次に、携帯端末は、タッチ領域の変更を感知すると、PUIタッチ領域で発生するユーザジェスチャーをGUIタッチ領域で発生したジェスチャーと連続するジェスチャー、即ち1つのジェスチャーとして処理する(S349段階)。従って、携帯端末は、PUIタッチ領域で発生するユーザジェスチャーによって、GUIタッチ領域の入力情報によって行った機能制御を続いて行う(S351段階)。例えば、実行中のアプリケーション、例えば、再生音楽ファイルのボリューム、カメラ機能のズームイン/ズームアウトなどの値を調節するか、又は1つ以上のアイテム間のナビゲーションを続いて行うことができる。
以上では、本発明の一実施形態による携帯端末において、タッチスクリーン及びタッチパッド上に発生する連続的な接触のジェスチャー入力によって携帯端末の動作を制御する方法について説明した。次に、以下では、図1〜図3で説明したような本発明の動作を、図4〜図13の画面表示例を参照して説明する。しかし、本発明の画面表示例が下記で記述する内容に限定されるものではなく、下記の実施形態に基づいて多様な実施形態に適用することができることに留意しなければならない。
図4は、本発明の一実施形態による異種のタッチ領域上でタップポイントに割り当てられた所定の機能を遂行する場合の画面表示例を示す図である。
図4を参照すると、本実施形態では、タッチスクリーン110のタッチ領域140とタッチパッド120のタッチ領域150に実行アプリケーションに対応するタップポイントを割り当てることによって、携帯端末の動作を制御することができる。図4は、タッチスクリーン110のタッチ領域140に所定個数のタップポイントが割り当てられた場合の例を示す。しかし、他の実施形態として、タップポイントの割り当ては、タッチスクリーン110のタッチ領域140とタッチパッド120のタッチ領域150の区分なしに割り当てて構成することができる。但し、タップポイントに割り当てられる機能に対するGUI、即ち特定のアイテムは、タッチスクリーン110のタッチ領域140に表示することができる。
図4は、携帯端末の提供機能のうちの電卓機能によるアプリケーションの実行画面の例を示す。図4では、タッチスクリーン110のタッチ領域140に演算符号(/、−、+、×、=)のような仮想アイテムが表示された場合の例を示す。ユーザは、タッチ領域140上の演算符号のうちの所望の演算符号がマッピングされたタップポイントにタップイベントを発生することによって、当該演算符号を演算式に反映し、携帯端末は、演算符号に対応する計算を処理することができる。
更に、タッチ領域140上に表示されるアイテムは、実行アプリケーションによって当該タップポイントに異なる機能をマッピングすることができる。このように、特定アプリケーションにマッピングされるアイテムは、製造時に基本値として提供されるか、又はユーザ設定によることができる。
一方、図4で、上記のような機能の実行中に、タッチパッド120のタッチ領域150上でユーザジェスチャー入力による機能を制御することもできる。このような例を図5に示す。
図5は、本発明の一実施形態による異種のタッチ領域上でスウィープイベントによる携帯端末の動作を制御する画面表示例を示す図である。
図5は、図4のような電卓機能によるアプリケーションの実行画面の例を示す。特に、図5は、タッチパッド120のタッチ領域150上にジェスチャー(スウィープイベント)入力を通じてユーザ希望による数字を入力し、タッチスクリーン110のタッチ領域140上にタップイベント入力を通じて演算符号を入力する場合の例を示す。ここで、参照符号520から参照符号530に示すような、タッチパッド120のタッチ領域150に表示された数字及びライン(line)は、説明の便宜のために示すもので、実際の携帯端末ではその表示が省略される。
先ず、参照符号510に示すように、電卓機能による画面データを表示することができ、タッチスクリーン110のタッチ領域140上に演算符号が表示され、表示領域130には、ユーザ入力に対応する数字情報が表示される。
参照符号510の状態で、ユーザは、計算のための数字を入力する。この時、数字入力は、参照符号520及び参照符号530に示すように、ユーザジェスチャーによって入力することができる。
例えば、ユーザは、反時計方向のスウィープイベント入力によって所望の数字情報を入力することができる。即ち、電卓機能の実行によって、タッチパッド120のタッチ領域150は、0〜9の数字がマッピングされるタップポイントが活性化され、タッチ領域150上でのスウィープイベントに対応して、各タップポイントにマッピングされた当該数字情報を、タッチスクリーン110のタッチ領域140のうちの数字情報表示のために割り当てられた特定のタップポイントに表示することができる。
特定タップポイントの数字情報は、スウィープイベントに対応して適応的に変更されながら表示される。ユーザは、スウィープイベント入力及びスウィープイベントリリースによって所望の数字情報を入力することができる。
例えば、参照符号520に示すように、スウィープイベント入力が、数字‘0’が割り当てられたタップポイントから始まり、数字‘3’が割り当てられたタップポイントに移動すると、スウィープイベントによって、タッチ領域140の特定のタップポイントに、数字0〜3の数字情報が順次に表示される。その後、ユーザがスウィープイベント中に数字‘3’が位置する部分でスウィープイベントをリリースすると、数字‘3’が表示領域130上に入力される。即ち、スウィープイベントがリリースされるタップポイント位置の数字、即ちタッチ領域140の特定のタップポイントに最終的に表示される数字情報が表示領域130上に表示される計算式に反映される。
ここで、数字情報がマッピングされるタップポイントは、電卓機能によるアプリケーションの実行によって活性化することができ、電卓機能以外に他の機能を利用する場合、各タップポイントの数字情報マッピング機能は省略され、当該アプリケーションに対応するタップポイントが形成される。
次に、ユーザは、参照符号520の説明と対応する動作により参照符号530のように数字‘2’を計算式に反映することができる。ここで、スウィープイベントによる数字情報の選択手続きが続く間、計算式の入力ラインを変更することなく、数字の桁数が増加する形態を有することができる。
次に、ユーザは、数字‘32’を計算式の一番目の演算子とし、数字‘32’と計算を行う二番目の演算子を入力することができる。この時、ユーザは、所望の演算符号が割り当てられたタップポイントにタップイベントを発生することによって、二番目の演算子の入力を行うことができる。このような例を参照符号540に示す。
例えば、ユーザは、演算符号のうちの‘+’が割り当てられたタップポイントにタップイベントを発生することによって、足し算を決定することができる。この時、参照符号540に示すように、スウィープイベント入力がない時には、タッチ領域140上の特定のタップポイントは、最初に表示された演算符号‘=’が再び表示される。
その後、ユーザは、上述の参照符号520から参照符号530で行うスウィープイベント入力及びスウィープイベントリリース動作に対応して二番目の演算子‘235’を入力することができる。例えば、参照符号550に示すように、ユーザが‘+’演算符号を選択することによって、数字‘235’には、演算が足し算であることを示す‘+235’が表示される。
次に、ユーザは、各演算子による計算結果を要請するタップイベントを発生し、計算式による結果を出力することができる。即ち、参照符号550に示すように、ユーザは、タッチスクリーン110のタッチ領域140上に演算結果を要請する演算符号(=)が割り当てられたタップポイントにタップイベントを発生することによって、結果値を要請することができる。
図6は、本発明の一実施形態による異種のタッチ領域上でタップポイントに割り当てられた所定の機能を遂行する場合の他の画面表示例を示す図である。
図6を参照すると、本実施形態では、タッチスクリーン110のタッチ領域140とタッチパッド120のタッチ領域150に実行アプリケーションに対応するタップポイントを割り当てることによって、携帯端末の動作を制御することができる。
図6は、タッチスクリーン110のタッチ領域140及びタッチパッド120のタッチ領域150に所定個数のタップポイントが割り当てられた場合の例を示す。この時、タップポイントに割り当てされる機能に対するGUI、即ち特定アイテムは、タッチスクリーン110のタッチ領域140に表示することができる。即ち、図6でタッチパッド120のタッチ領域150に表示されたアイテムは、説明の便宜のために示すものであって、実際に提供される携帯端末では、その表示が省略されるか、物理的な形態に刻印されて提供される。
図6に示すように、携帯端末の提供機能のうちのアルバム機能によるアプリケーションの実行画面(メニューリスト)の例を示す。図6は、タッチスクリーン110のタッチ領域140及びタッチパッド120のタッチ領域150にナビゲーションのための方向指示アイテムが割り当てられた場合の例を示す。ユーザは、各タッチ領域140、150上でナビゲーションしようとする方向に対応するタップポイントにタップイベントを発生することによって、表示領域130に提供されるメニューリストの各項目間のナビゲーションを行うことができる。
例えば、図6で、左方向又は右方向へのナビゲーションは、タッチスクリーン110のタッチ領域140又はタッチパッド120のタッチ領域150のうちの少なくとも1つで発生するタップイベントによって行うことができる。即ち、タッチスクリーン110とタッチパッド120の区分なしに同一にタップポイントを活用することができる。
一方、タッチ領域140上に表示されるアイテムは、実行アプリケーションによって当該タップポイントに異なる機能をマッピングすることができる。このように、特定のアプリケーションにマッピングされるアイテムは、製造時に基本値として提供されるか、又はユーザ設定によることができる。
また、図6で、上記のような機能の実行中に、タッチスクリーン110のタッチ領域140及びタッチパッド120のタッチ領域150上でユーザジェスチャー入力による機能を制御することもできる。このような例を図7に示す。
図7は、本発明の一実施形態による異種のタッチ領域上でスウィープイベントによる携帯端末の動作を制御する画面表示例を示す図である。
図7は、図6のようなアルバム機能によるアプリケーションの実行画面(メニュー(写真ファイル)リスト)の例を示す。特に、図7は、タッチスクリーン110のタッチ領域140及びタッチパッド120のタッチ領域150上にジェスチャー(スウィープイベント)入力を通じてメニューリスト(ブロック形態)の各項目間のナビゲーションを行う場合の例を示す。ここで、各タッチ領域140、150に表示されたテキスト(next、pre.)及びラインは、発明の動作説明のために示すもので、実際の携帯端末では、その表示が省略される。
先ず、参照符号710に示すように、ユーザは、タッチスクリーン110のタッチ領域140又はタッチパッド120のタッチ領域150で時計方向(又は反時計方向)のスウィープイベントによってメニューリストの各項目間のナビゲーションを行うことができる。参照符号710では、1つのタッチ領域で発生する時計方向又は反時計方向のスウィープイベントによって現在のカテゴリー内に属する“A項目”から“I項目”間のナビゲーションを行うことができる。
しかし、本発明は、上記のように、いずれか1つのタッチ領域だけでナビゲーションが行われるものではなく、設定方式によって異種のタッチ領域140、150の両方を利用して現在のカテゴリー内に属する項目間のナビゲーションを行うこともできることは勿論である。図7では、いずれか1つのタッチ領域内で発生するスウィープイベントによって現在のカテゴリー内に属する項目間のナビゲーションを行い、各タッチ領域140、150間の変更があると、当該スウィープイベントの進行方向によって以前(previous)のカテゴリー又は次(next)のカテゴリーに切り替える場合を例として説明する。
即ち、ユーザは、参照符号710のようなナビゲーション実行中に、スウィープイベントを発生するいずれか1つのタッチ領域(例えば、タッチスクリーン110のタッチ領域140)から他の1つのタッチ領域(例えば、タッチパッド120のタッチ領域150)に切り替え、連続的な接触によるスウィープイベントを続いて発生することができる。このような例を参照符号720に示す。
参照符号710に示すように、ユーザは、タッチスクリーン110のタッチ領域140で時計方向又は反時計方向のスウィープイベントによって現在のカテゴリーに属するメニューリストの項目間のナビゲーションを行う。その後、参照符号720に示すように、ユーザは、タッチスクリーン110のタッチ領域140からタッチパッド120のタッチ領域150に時計方向に対応する連続的な移動(例えば、touch and moving)によって次(next)のカテゴリー(J項目からR項目よりなるカテゴリー)に属するメニューリストに切り替えることができる(710→720)。同様に、ユーザは、タッチスクリーン110のタッチ領域140からタッチパッド120のタッチ領域150に反時計方向に対応する連続的な移動(例えば、touch and moving)によって以前(pre.)のカテゴリー(A項目〜I項目よりなるカテゴリー)に属するメニューリストに切り替えることができる(720→710)。
連続的な接触によるカテゴリー切替えは、タッチパッド120のタッチ領域150から始まり、タッチスクリーン110のタッチ領域140への連続的な移動によって行うこともできることは勿論である。このような例を参照符号730及び参照符号740に示す。
上述の参照符号710及び参照符号720を参照して説明したように、ユーザは、対応する動作によってナビゲーションを行うことができる。参照符号740では、参照符号720とは異なり、タッチパッド120のタッチ領域150からタッチスクリーン110のタッチ領域140に連結される連続したスウィープイベントの発生によってカテゴリーを変更する場合の例を示す。
一方、図7は、現在のカテゴリー内でナビゲーションの実行中に以前又は次のカテゴリーを切り替える場合の例を示すが、本発明によると、ユーザは、各タッチ領域140、150間の切替えポイントでのジェスチャーを通じてカテゴリー切替えを直ちに行うこともできる。例えば、タッチスクリーン110のタッチ領域140とタッチパッド120のタッチ領域150が隣接するいずれか1つの終端タッチ領域から他の1つの終端タッチ領域に連結される短いスウィープイベントを通じて以前又は次のカテゴリーへの切替えを直ちに行うことができる。
図8は、本発明の一実施形態による異種のタッチ領域上でスウィープイベントによる携帯端末の動作を制御する他の画面表示例を示す図である。
図8を参照すると、文字メッセージ機能によるアプリケーション実行画面(メニュー(受信メッセージ)リスト)の例を示す。特に、図8は、タッチスクリーン110のタッチ領域140及びタッチパッド120のタッチ領域150上にジェスチャー(スウィープイベント)入力を通じてメニューリストの各項目間のナビゲーションを行う場合の例を示す。ここで、各タッチ領域140、150に表示されたテキスト(next、pre.)及びラインは、発明の動作説明のために示すものであって、実際の携帯端末ではその表示が省略される。
先ず、参照符号810及び参照符号820に示すように、ユーザは、タッチスクリーン110のタッチ領域140又はタッチパッド120のタッチ領域150で時計方向(又は反時計方向)のスウィープイベントによってメニューリストの各項目間のナビゲーションを行うことができる。参照符号810及び参照符号820では、いずれか1つのタッチ領域で発生する時計方向又は反時計方向のスウィープイベントによって現在のカテゴリー内に属する“1番項目”から“6番項目”間のナビゲーションが行われる。
しかし、本発明は、上述のようにいずれか1つのタッチ領域だけでナビゲーションが行われるものではなく、設定方式によって異種のタッチ領域140、150の両方を利用して現在のカテゴリー内に属する項目間のナビゲーションを行うこともできることは勿論である。図8では、いずれか1つのタッチ領域内で発生するスウィープイベントによって現在のカテゴリー内に属する項目間のナビゲーションを行い、各タッチ領域140、150間の変更がある時、当該スウィープイベントの進行方向によって以前(previous)のカテゴリー又は次(next)のカテゴリーに切り替える場合を例として説明する。
即ち、ユーザは、参照符号820のようなナビゲーションの実行中に、スウィープイベントを発生するいずれか1つのタッチ領域(例えば、タッチスクリーン110のタッチ領域140)から他の1つのタッチ領域(例えば、タッチパッド120のタッチ領域150)に切り替え、連続的な接触によるスウィープイベントを発生することができる。このような例を参照符号830に示す。
参照符号810から参照符号830に示すように、ユーザは、タッチスクリーン110のタッチ領域140で時計方向又は反時計方向のスウィープイベントによって現在のカテゴリーに属するメニューリストの項目間のナビゲーションを行う。その後、ユーザは、タッチスクリーン110のタッチ領域140からタッチパッド120のタッチ領域150に時計方向に対応する連続的な移動(例えば、touch and moving)によって次(next)のカテゴリー(7番項目から12番項目よりなるカテゴリー)に属するメニューリストに切り替えることができる(820→830)。また、ユーザは、タッチスクリーン110のタッチ領域140からタッチパッド120のタッチ領域150に反時計方向に対応する連続的な移動(例えば、touch and moving)によって以前(pre.)のカテゴリー(1番項目から6番項目よりなるカテゴリー)に属するメニューリストに切り替えることができる(830→820)。
連続的な接触によるカテゴリー切替えは、タッチパッド120のタッチ領域150から始まり、タッチスクリーン110のタッチ領域140への連続的な移動によって行うこともできることは勿論である。
一方、ユーザは、参照符号820及び参照符号830で行われるスウィープイベントを続いて発生する場合、参照符号840に示すように、次のカテゴリーに対する切替えを続いて行うことができる。参照符号840は、タッチ領域の変更が2回発生する場合の例を示す。即ち、ユーザのジェスチャー入力がリリースなしにタッチスクリーン110のタッチ領域140→タッチパッド120のタッチ領域150→タッチスクリーン110のタッチ領域140に続いて入力される場合の例を示す。
上述したように、異種のタッチ領域140、150で連続的な接触が続いて発生すると、これを1つのジェスチャー入力として認知する。従って、ユーザのスウィープイベントが発生するタッチ領域の変更があっても、これを1つのジェスチャー入力として処理することによって、以前に行った制御を引き続いて行うことができる。
図9は、本発明の一実施形態による異種のタッチ領域上でスウィープイベントによる携帯端末の動作を制御する画面表示例を示す図である。
図9を参照すると、メニューリストのアイテムは、鎖(chain)のような形態で配置され、タッチスクリーン110の表示領域130に表示される。鎖形態のアイテムは、タッチスクリーン110のタッチ領域140でかみ合わされるように配置される。即ち、タッチ領域140である方向にスウィープイベントが発生すると、鎖形態のアイテムは、スウィープイベントの進行方向と反対方向に回転するようになる。
図9に示した例のスウィープイベントによる特定動作の制御方法は、上述した図7及び図8に対応する動作によって行うことができる。即ち、参照符号910、参照符号920に示すように、タッチスクリーン110のタッチ領域140で発生したスウィープイベントによる鎖形態のアイテム間でナビゲーションを行うことができる。また、参照符号930に示すように、ユーザは、異種のタッチ領域で引き続き発生するスウィープイベントの継続によってナビゲーションを続けて行うことができる。特に、タッチ領域の鎖形態のアイテムは、互いにかみ合うように、即ちギアの様に連結されて隣接して配置される。
一方、参照符号940は、カテゴリーを以前又は次に切り替える動作の例を示す。
図7及び図8を参照して上述したように、連続するスウィープジェスチャーにより、次のカテゴリーへの切替えとナビゲーションを続いて行うことができる。
また、参照符号940に示すように、ユーザは、各タッチ領域140、150間の切替えポイントでのジェスチャーを通じてカテゴリー切替えを直ちに行うこともできる。例えば、タッチスクリーン110のタッチ領域140とタッチパッド120のタッチ領域150が隣接するいずれか1つの終端タッチ領域から他の1つの終端タッチ領域に連結される短いスウィープイベントを通じて以前又は次のカテゴリーへの切替えを直ちに行うことができる。この時、図9では、時計方向への進行を次の項目(又はカテゴリー)選択のための命令として指定し、反時計方向への進行を以前の項目(又はカテゴリー)選択のための命令として指定された場合を仮定するが、これは、ユーザ設定又は製造時に設定される情報によることができる。
一方、参照符号940で異種のタッチ領域140、150の各々に表示されるテキスト(next、pre.)は、説明の便宜のために示すものであって、実際の携帯端末では、その表示が省略される。また、表示領域130及びタッチスクリーン110のタッチ領域140に回転方向を指示する仮想イメージは、設定方式によって省略するか、表示することができる。また、タッチパッド120のタッチ領域150に回転方向を指示する仮想イメージは、実際の携帯端末ではその表示が省略される。特に、タッチスクリーン110のタッチ領域140では、GUIを通じてユーザのスウィープイベント進行方向に対応する仮想イメージ(virtual image)で表示することによって、タッチ領域140で入力機能及び出力機能が遂行されるようにする。
図10〜図12は、本発明の一実施形態による異種のタッチ領域上でスウィープイベントによる携帯端末の動作を制御する画面表示例を示す図である。
図10〜図12を参照すると、携帯端末で実行中のアプリケーションモード内で1つ以上の値(value)を調節(加減)する場合の動作例を示す。図10〜図12では、カメラ機能によるアプリケーションの実行画面で異種のタッチ領域140、150間の相互作用によってズームイン(zoom in)又はズームアウト(zoom out)のような値を調節する動作の例を示す。
具体的に、図10及び図12は、タッチスクリーン110のタッチ領域140及びタッチパッド120のタッチ領域150上にジェスチャー(スウィープイベント)入力を通じて実行アプリケーション内の値、特にズームイン(zoom in)を調節する場合の例示を示す。特に、図10は、ズームイン制御のためのジェスチャー入力がタッチスクリーン110のタッチ領域140から始まる場合の例を示し、図12は、ズームイン制御のためのジェスチャー入力がタッチパッド120のタッチ領域150から始まる場合の例を示す。
図11は、タッチスクリーン110のタッチ領域140及びタッチパッド120のタッチ領域150上にジェスチャー(スウィープイベント)入力を通じて実行アプリケーション内の値、特にズームアウト(zoom out)を調節する場合の例を示す。特に、図11は、ズームアウト制御のためのジェスチャー入力がタッチスクリーン110のタッチ領域140から始まる場合の例を示すが、図12の応用によってズームアウト制御のためのジェスチャー入力がタッチパッド120のタッチ領域150から始まることもできることは勿論である。
一方、図10〜図12は、ズームイン及びズームアウトによる当該動作を行う場合を示すが、例えば、ユーザは、異種のタッチ領域140、150で時計方向に対応する連続的な移動(例えば、touch and moving)によってズームインを継続的に行うことができる。これとは反対に、ユーザは、異種のタッチ領域140、150で反時計方向に対応する連続的な移動(例えば、touch and moving)によってズームアウトを継続的に行うことができる。
また、図10〜図12では省略したが、ユーザは、異種のタッチ領域140、150のうちのいずれか1つのタッチ領域で時計及び反時計方向に繰り返すスウィープイベントによってズームイン及びズームアウトのような値の調節を適応的に行うことができることは勿論である。
図10〜図12は、ズームイン/ズームアウトのためのジェスチャー入力が各タッチ領域の一方の終端ポイントから始まり、他方の終端ポイントに移動し、順次に値を調節する場合を示す。しかし、このようなジェスチャーによる値の調節制御は、必ずしも終端ポイントから始まるものではない。
例えば、図10〜図12で、ズームイン/ズームアウトの開始は、ユーザ希望によるいずれか1つのタッチ領域で任意のポイントから始まることができ、携帯端末は、ジェスチャー入力が発生する当該ポイントから始まり、ユーザ制御によるズームイン/ズームアウトを処理する。
また、図10に示すように、ズームイン制御により6倍拡大された後、ユーザのジェスチャー入力がリリースされることがある。その後、ユーザが6倍拡大された画面に追加ズームインを行うか、又はズームアウトを行うことができ、このような場合、ユーザは、異種のタッチ領域のうちの所望のタッチ領域の任意のポイントでズームイン/ズームアウトのためのジェスチャー入力を行うことができる。従って、携帯端末は、ジェスチャー入力が発生する当該ポイントから始まり、ユーザ制御によるズームイン/ズームアウトを処理する。
一方、図10〜図12では、時計方向への進行をズームインのための命令として指定し、反時計方向への進行をズームアウトのための命令として指定された場合を仮定するが、これは、ユーザ設定又は製造時に設定される情報によることができる。
また、図10〜図12に示すような制御動作は、再生音楽ファイルのボリューム調節、特定の量を調節することなどにも応用することができることは自明である。即ち、本発明によると、携帯端末で実行中のアプリケーションモード内で1つ以上の値(value)を調節(加減)する全ての場合に適用することができる。
図10〜図12に示すように、タッチスクリーン110のタッチ領域140では、GUIを通じてユーザのスウィープイベントによって値の制御程度を指示する仮想イメージ(virtual image)を表示することにより、タッチ領域140で入力機能及び出力機能が遂行されるようにする。この時、タッチパッド120のタッチ領域150に表示された仮想イメージは、説明の便宜のために示すものであって、実際の携帯端末ではその表示が省略される。
図13は、本発明の一実施形態による異種のタッチ領域でタップイベント及びスウィープイベントによる携帯端末の動作を制御する画面表示例を示す図である。
図13を参照すると、本実施形態では、タッチスクリーン110のタッチ領域140とタッチパッド120のタッチ領域150に実行アプリケーションに対応するタップポイントを割り当てることによって、タップイベントによる携帯端末の動作を制御することができる。また、異種のタッチ領域140、150を活用してスウィープイベントによる携帯端末の動作を制御することができる。
図13に示すように、携帯端末の提供機能のうちの音楽再生機能によるアプリケーションの実行画面の例を示す。図13では、タッチスクリーン110のタッチ領域140に音楽再生と関連した機能とマッピングされる仮想アイテムを表示することができる。ユーザは、異種のタッチ領域140、150の各タップポイントにタップイベントを発生することによって、各タップポイントにマッピングされた仮想アイテムに対応する機能を遂行することができる。ここで、タッチパッド120のタッチ領域150に表示される仮想アイテムは、説明の便宜のために示すものであって、実際の携帯端末では、その表示が省略され、タッチスクリーン110のタッチ領域140の仮想アイテムだけが表示される。
また、ユーザは、上記のように、タップポイントに対するタップイベントを通じて機能を遂行すると共に、異種のタッチ領域140、150上にスウィープイベントを発生することによって、アプリケーションに対応してマッピングされた当該機能を遂行することができる。例えば、図13では、時計方向のスウィープイベントを通じて早送り(FF:Fast Forward)を行うか、反時計方向のスウィープイベントを通じて巻き戻し(REW:Rewind)を行うことができる。
また、携帯端末の表示領域130には、実行アプリケーションに対応する設定された画面データを表示することができる。図13では、音楽ファイル再生と関連したアプリケーションの実行によって、グラフィックイコライザー(graphic equalizer)、プログレスバー(progress bar)、曲名、歌詞などの画面データを表示することができる。
以上、図1〜図13を参照して本発明の実施形態によるタッチスクリーン及びタッチパッドに備えられる異種のタッチ領域間の相互作用によって携帯端末の動作を制御する方法及びそれによる画面表示例について説明した。次に、以下では、図1〜図13で説明したような本発明の動作を行う携帯端末について説明する。しかし、本発明の携帯端末は、下記で記述する内容に限定されるものではなく、下記の実施形態に基づいて多様な実施形態に適用することができることに留意しなければならない。
本発明の携帯端末についての詳細な説明に先立って、以下では、本発明の携帯端末を移動通信端末(mobile communication terminal)として説明する。しかし、本発明は、必ずしも移動通信端末のみに限定されない。
従って、本発明の携帯端末は、多様な通信システムに対応する通信プロトコル(communication protocols)に基づいて作動する全ての移動通信端末をはじめとして、タッチスクリーン及びタッチパッドが隣接するように連結されて構成されるPMP(Portable Multimedia Player)、デジタル放送プレーヤー、PDA(Personal Digital Assistant)、携帯ゲーム端末、及びスマートフォン(Smart Phone)などの全ての情報通信機器とマルチメディア機器及びそれに対する応用機器を含むことができる。以下では、本発明の携帯端末の概略的な構成を、図14を参照して説明する。
図14は、本発明の一実施形態による携帯端末の構成を概略的に示すブロック図である。
図14を参照すると、本実施形態による携帯端末は、無線通信部1210、オーディオ処理部1220、入力部1230、タッチスクリーン110、保存部1250、及び制御部1260などを含む。また、タッチスクリーン110は、表示領域130及びタッチ領域140を含み、入力部1230は、タッチパッド120を含む。
無線通信部1210は、携帯端末の通信を行う。無線通信部1210は、サポート可能な移動通信ネットワークと設定された通信チャネル(communication channel)を形成し、音声通信(voice call)、画像通信(video telephony call)、及びデータ通信(data call)などのような通信を行う。無線通信部1210は、送信される信号の周波数を上昇変換及び増幅するRF(Radio Frequency)送信部と、受信した信号を低雑音増幅し、周波数を下降変換するRF受信部などを含むことができる。無線通信部1210は、携帯端末の形態によって省略することができる。
オーディオ処理部1220は、マイク(MIC:Microphone)及びスピーカー(SPK:Speaker)と接続され、マイク(MIC)から入力された音声信号をデータ化して制御部1260に出力し、制御部1260から入力された音声信号を、スピーカー(SPK)を通じて出力する。即ち、オーディオ処理部1220は、マイク(MIC)から入力されたアナログ音声信号をデジタル音声信号に変換するか、制御部1260から入力されたデジタル音声信号をアナログ音声信号に変換する処理をする。オーディオ処理部1220は、携帯端末で発生する様々なオーディオ成分(例えば、MP3ファイル再生などによるオーディオ信号など)をユーザ選択によって再生することができる。オーディオ処理部1220の音声信号処理機能は、携帯端末の形態によって省略することができる。
入力部1230は、様々な文字情報を入力し、各種機能の設定及び携帯端末の機能制御と関連して入力される信号を制御部1260に伝達する。入力部1230は、ユーザの行為による入力信号を発生し、このためのキーパッド(Keypad)とタッチパッド(Touch pad)120などのような入力手段を含むことができる。本実施形態において、入力部1230は、タッチパッド120に形成され、ユーザのジェスチャーを入力することができる。
タッチパッド120は、ユーザと携帯端末間の相互作用によってユーザの入力を処理する物理的媒体であって、特に、タッチパッド120は、図1〜図11を参照して説明したようなユーザジェスチャーが入力されるタッチ領域150を含む。タッチパッド120は、タッチ領域150でユーザジェスチャー入力を感知すると、ユーザジェスチャー入力を制御部1260に伝達する。これにより、制御部1260は、ジェスチャーに対応して携帯端末の特定の動作を処理する。
タッチスクリーン110は、入力機能と表示機能を同時に遂行する入出力手段であって、特に、本実施形態において、タッチスクリーン110は、表示領域130とタッチ領域140を含む。
表示領域130は、携帯端末の動作に応じて発生する画面データを表示し、ユーザのキー操作及び機能設定などによる状態情報を表示する。即ち、表示領域130は、携帯端末の状態及び動作に関連した各種画面データを表示することができる。表示領域130は、制御部1260から出力される様々な信号と色情報を視覚的に表示する。特に、表示領域130は、表示と共に、ユーザの多様なタッチ信号を入力することができる。表示領域140は、ユーザによって発生したタッチを感知し、感知されたタッチによる信号を生成し、制御部1260に伝達する。
タッチ領域140は、ユーザジェスチャーが入力される。特に、タッチ領域140は、実行アプリケーションによる機能制御のためのタップイベント及びスウィープイベントが入力される。タッチ領域140は、実行アプリケーションに対応して変更される仮想アイテムをGUIで表示する。タッチ領域140は、ユーザジェスチャーが入力されると、ユーザジェスチャーが発生した座標情報を制御部1260に伝達する。即ち、タッチ領域140はユーザによって発生したタッチを感知し、感知されたタッチによる信号を生成し、制御部1260に伝達する。
本発明の実施形態によると、入力部1230のタッチパッド120とタッチスクリーン110は、隣接するように配置され、タッチパッド120のタッチ領域150とタッチスクリーン110のタッチ領域140が互いに隣り合って連結される構造を有する。
保存部1250は、ROM(Read Only Memory)やRAM(Random Access Memory)などで構成することができる。保存部1250は、携帯端末で生成及び活用される多様なデータなどを保存することができる。データは、携帯端末のアプリケーションの実行によって発生するデータ及び携帯端末を利用して生成するか、外部(基地局、相手携帯端末、パソコンなど)から受信して保存可能な全ての形態のデータなどを含む。特に、データは、携帯端末で提供されるユーザインターフェース、携帯端末の利用による様々な設定情報、実行アプリケーション毎に設定された仮想アイテム、及びユーザジェスチャーによる動作制御のための設定情報などを含むことができる。
また、保存部1250は、携帯端末の一般的な動作を制御するためのアプリケーション及びユーザジェスチャーを利用した携帯端末の動作を制御するためのアプリケーションなどを保存することができる。アプリケーションは、上述した図1〜図14で説明したような本発明の動作に対応するアプリケーションでありうる。このようなアプリケーションは、保存部1250のアプリケーション保存領域(図示せず)に保存することができる。また、保存部1250は、上述したアプリケーションの実行中に発生するデータを一時保存する1つ以上のバッファー(buffer)を含むことができる。
制御部1260は、携帯端末に対する全般的な制御機能を遂行し、携帯端末内の各ブロック間の信号フローを制御する。制御部1260は、無線通信部1210、オーディオ処理部1220、入力部1230、タッチスクリーン110、及び保存部1250などのような各ブロック間の信号フローを制御する。特に、制御部1260は、本実施形態において、タッチスクリーン110とタッチパッド120から伝達されるタッチ信号を処理する。
制御部1260は、タッチスクリーン110のタッチ領域140とタッチパッド120のタッチ領域150に亘って発生する連続的な入力を1つのジェスチャー入力として処理する。
制御部1260は、タッチスクリーン110及びタッチパッド120のように隣接する他のタッチ領域から連続的な接触(continuous contact)が入力されると、これを連続した1つのユーザジェスチャーとして認知し、タッチ領域の変更が発生しても、以前のタッチ領域による機能制御を、変更されたタッチ領域によって連続するように制御する。
また、制御部1260は、タッチスクリーン110のタッチ領域140上に実行アプリケーションに対応する仮想アイテムの表示を制御する。制御部1260は、異種のタッチ領域140、150で発生するタップイベント及びスウィープイベントの相互作用による動作制御を担当する。
以上のような動作を制御する制御部1260は、上述した図1〜図14を参照して説明したような本発明の全般的な動作を制御することができる。制御部1260の上述した機能制御は、ソフトウェアで具現され、本発明の動作を処理することもできる。
また、制御部1260は、携帯端末の移動通信サービスのためのベースバンド(Baseband)モジュールを備えることができる。また、ベースバンドモジュールは、制御部1260及び無線通信部1210に各々備えられるか、又は制御部1260及び無線通信部1210と分離して備えることができる。
一方、図14では、説明の便宜のために携帯端末の概略的な構成例を図示した。しかし、本発明の携帯端末は、必ずしも上述した構成に限定されるものではない。
従って、本発明の携帯端末は、図14では示していないが、その提供形態によって被写体撮影を通じてそれによる映像データを獲得することができるカメラモジュール、デジタル放送を受信することができるデジタル放送受信モジュール、近距離通信のための近距離通信モジュール、及びインターネット網と通信してインターネット機能を遂行するインターネット通信モジュールなどのように上記で言及していない構成を追加的に更に含むことができる。このような構成要素は、デジタル機器のコンバージェンス(convergence)傾向によって変形が非常に多様なので、全て列挙することはできないが、言及する構成要素と同等な水準の構成要素を携帯端末に追加的に更に含んで構成することができる。また、本発明の携帯端末は、その提供形態によって、上述した構成から特定ブロックが除外されるか、他のブロックに代替することもできることは勿論である。これは、この技術分野における通常の知識を有する者に容易に理解されうる。
以上説明したように、本発明は、携帯端末で具現することができるが、必ずしも携帯端末に限定されるものではない。即ち、本発明は、ユーザのジェスチャー入力が可能な入力手段を含む全ての形態の電子機器(携帯端末、ディスプレイデバイスなど)に適用することができることは勿論である。電子機器は、上述のような入力手段を有するデバイスとして、携帯端末(PDA、移動通信端末、携帯ゲーム端末、PMPなど)、ディスプレイデバイス(TV、LFD、DS、メディアポールなど)などのデバイスを含む。ディスプレイデバイスを構成する表示手段は、LCD、PDP(Plasma Display Panel)、OLED(Organic Light Emitting Diodes)などの多様なディスプレイ素子で構成することができる。入力手段は、特定物体(指、スタイラスペンなど)の接触及び移動によるジェスチャー入力信号を生成するタッチパッド及びタッチスクリーンを含むことができる。
このような本発明による電子機器は、上述の携帯端末の構成要素に対応する構成よりなることができる。即ち、電子機器の入力システムは、隣接する他のタッチ領域から連続的な接触(continuous contact)が入力されるタッチ領域を有するグラフィックユーザインターフェース(GUI)と、GUIのタッチ領域と隣接して対称構造で連結され、GUIのタッチ領域から連続的な接触が入力されるタッチ領域を有する物理的ユーザインターフェース(PUI)とを含む。
このような電子機器は、第1タッチ領域を含む第1入力部と、第1入力部と隣接して配置され、第1タッチ領域と連結される第2タッチ領域を含む第2入力部と、第1入力部と第2入力部に亘って発生する連続的な入力を1つのジェスチャー入力として処理する制御部とを含む。本発明の実施形態として、第1入力部の第1タッチ領域と第2入力部の第2タッチ領域は互いに対称的に配置され、第1タッチ領域と第2タッチ領域は、連続的な接触(continuous contact)が可能な有機的な連結構造を有する。また、第1入力手段は、タッチパッド(PUI領域)(又はタッチスクリーン(GUI領域))よりなり、第2入力手段は、タッチスクリーン(GUI領域)(又はタッチパッド(PUI領域))よりなる。このような電子機器の各構成要素での詳細な動作は、携帯端末の構成及びその動作説明部分で説明したことに対応する。
また、電子機器の動作制御方法は、第1タッチ領域の連続的な接触の発生に応じた機能の制御中に第1タッチ領域から第2タッチ領域に連結される連続的な接触を感知する過程と、連続的な接触を1つのジェスチャー入力として処理する過程と、第2タッチ領域の連続的な接触の発生に応じた機能を継続的に制御する過程と、を含む。
なお、本明細書と図面に開示した本発明の実施形態は、本発明の技術内容を容易に説明し、本発明の理解を助けるために特定形態を提示したものに過ぎず、本発明の範囲を限定しようとするものではない。即ち本発明の技術的思想に基づく他の変形形態が実施可能であることは本発明の属する技術分野における通常の知識を有する者に自明である。
110 GUI領域、タッチスクリーン
120 PUI領域、タッチパッド
130 表示領域
140 (第1)タッチ領域
150 (第2)タッチ領域
230 タップポイント
240 円形の構造
1210 無線通信部
1220 オーディオ処理部
1230 入力部
1250 保存部
1260 制御部

Claims (15)

  1. 電子機器の入力システムであって、
    第1タッチ領域を有するグラフィックユーザインターフェース(GUI)と、
    前記第1タッチ領域と隣接して配置され、第2タッチ領域を有する物理的ユーザインターフェース(PUI)と、を備え、
    前記第1タッチ領域及び前記第2タッチ領域の各々は、連結された他のタッチ領域から連続的な接触(continuous contact)を受け
    前記連続的な接触は、前記第1タッチ領域及び前記第2タッチ領域のうちのいずれか1つのタッチ領域から他のタッチ領域への領域切替が行われる入力であることを特徴とする電子機器の入力システム。
  2. 前記第1タッチ領域及び前記第2タッチ領域は、前記連続的な接触を継続的に感知し、 前記連続的な接触は、前記第1タッチ領域及び前記第2タッチ領域のうちのいずれか1つのタッチ領域から始まり、他のタッチ領域で終わり、1つのジェスチャー入力として処理されることを特徴とする請求項1に記載の電子機器の入力システム。
  3. 前記1つのジェスチャー入力は、1つの値(value)を調節する第1ジェスチャー入力及び1つ以上のアイテム間のナビゲーション(navigation)を遂行する第2ジェスチャー入力のうちのいずれか1つを含むことを特徴とする請求項2に記載の電子機器の入力システム。
  4. 前記第1タッチ領域は、前記第1ジェスチャー入力及び前記第2ジェスチャー入力のうちの少なくとも1つに関連する少なくとも1つのイメージ(image)を表示することを特徴とする請求項3に記載の電子機器の入力システム。
  5. 前記GUIはタッチスクリーンを含み、前記PUIはタッチパッドを含むことを特徴とする請求項1に記載の電子機器の入力システム。
  6. 電子機器であって、
    第1タッチ領域を有する第1入力部と、
    前記第1タッチ領域と隣接して配置された第2タッチ領域を有する第2入力部と、
    前記第1入力部及び前記第2入力部で継続して発生する連続的な接触(continuous contact)を1つのジェスチャー入力として処理する制御部と、を備え、
    前記第1入力部は、グラフィックユーザインターフェース(GUI)領域及び物理的ユーザインターフェース(PUI)領域のうちのいずれか1つの領域を含み、
    前記第2入力部は、前記GUI領域及び前記PUI領域のうちの他の領域を含み、
    前記連続的な入力は、前記第1入力部及び前記第2入力部のうちのいずれか1つの入力部から他の入力部への領域切替が行われる入力であることを特徴とする電子機器。
  7. 前記第1タッチ領域及び前記第2タッチ領域は、互いに対称的に配置され、前記連続的な接触を継続的に感知することを特徴とする請求項6に記載の電子機器。
  8. 前記GUI領域はタッチスクリーンを含み、前記PUI領域はタッチパッドを含むことを特徴とする請求項7に記載の電子機器。
  9. 前記第1タッチ領域及び前記第2タッチ領域は、前記連続的な接触を継続的に感知し、 前記連続的な接触は、前記第1タッチ領域及び前記第2タッチ領域のうちのいずれか1つのタッチ領域から始まり、他のタッチ領域で終わり、
    前記制御部は、前記連続的な接触を、1つの値(value)を調節する第1ジェスチャー入力及び1つ以上のアイテム間のナビゲーション(navigation)を遂行する第2ジェスチャー入力のうちのいずれか1つとして処理することを特徴とする請求項8に記載の電子機器。
  10. 前記制御部は、少なくとも1つのイメージ(image)を前記第2タッチ領域に表示するように制御し、前記連続的な接触に応じて前記表示された少なくとも1つのイメージを変更し、タップポイント(tap point)で発生した入力によって、当該タップポイントに割り当てられた当該動作を制御することを特徴とする請求項8に記載の電子機器。
  11. 電子機器の動作制御方法であって、
    第1タッチ領域の連続的な接触(continuous contact)の発生に応じた該連続的な接触による機能を制御する過程と、
    前記第1タッチ領域から第2タッチ領域に移動する連続的な接触を感知する過程と、
    前記連続的な接触を1つのジェスチャー入力として処理する過程と、
    前記第2タッチ領域の連続的な接触の発生に応じた該連続的な接触による機能を継続的に制御する過程と、を有し、
    前記第1タッチ領域は、グラフィックユーザインターフェース(GUI)及び物理的ユーザインターフェース(PUI)のうちのいずれか1つから構成され、
    前記第2タッチ領域は、前記グラフィックユーザインターフェース(GUI)及び前記物理的ユーザインターフェース(PUI)のうちの前記第1タッチ領域と異なる残りの1つから構成されることを特徴とする電子機器の動作制御方法。
  12. 前記第1タッチ領域は、タッチパッド及びタッチスクリーンのうちのいずれか1つのデバイスで形成されるタッチ領域であり、
    前記第2タッチ領域は、前記第1タッチ領域と隣接して対称的に配置され、前記タッチパッド及びタッチスクリーンのうちの異なるデバイスで形成されるタッチ領域であることを特徴とする請求項11に記載の電子機器の動作制御方法。
  13. 前記連続的な接触を処理する過程は、
    前記第1タッチ領域からジェスチャー入力を受信し、引き続き前記第2タッチ領域からジェスチャー入力を受信する過程と、
    前記第2タッチ領域から受信されたジェスチャー入力を、前記第1タッチ領域から受信した前記ジェスチャー入力に関連する連続的な入力として認知する過程と、を含むことを特徴とする請求項12に記載の電子機器の動作制御方法。
  14. 前記第2タッチ領域からの前記ジェスチャー入力は、前記第1タッチ領域からリリース(release)された後に前記第2タッチ領域から感知された場合、新しい入力として認知されることを特徴とする請求項13に記載の電子機器の動作制御方法。
  15. 前記機能を継続的に制御する過程は、1つの値を調節する過程、1つ以上のアイテム間のナビゲーションを遂行する過程、及び少なくとも1つのイメージ(image)を表示する過程のうちの少なくとも1つの過程を含み、前記連続的な接触に応じて前記表示された少なくとも1つのイメージを変更する過程を含むことを特徴とする請求項13に記載の電子機器の動作制御方法。
JP2011544370A 2008-12-30 2009-12-29 異種のタッチ領域を利用した電子機器の動作制御方法及び装置 Expired - Fee Related JP5705131B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020080136517A KR20100078295A (ko) 2008-12-30 2008-12-30 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
KR10-2008-0136517 2008-12-30
PCT/KR2009/007851 WO2010077048A2 (en) 2008-12-30 2009-12-29 Apparatus and method for controlling particular operation of electronic device using different touch zones

Publications (2)

Publication Number Publication Date
JP2012514268A JP2012514268A (ja) 2012-06-21
JP5705131B2 true JP5705131B2 (ja) 2015-04-22

Family

ID=42284311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011544370A Expired - Fee Related JP5705131B2 (ja) 2008-12-30 2009-12-29 異種のタッチ領域を利用した電子機器の動作制御方法及び装置

Country Status (6)

Country Link
US (1) US20100164893A1 (ja)
EP (1) EP2370882A4 (ja)
JP (1) JP5705131B2 (ja)
KR (1) KR20100078295A (ja)
CN (1) CN102272700A (ja)
WO (1) WO2010077048A2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100097376A (ko) * 2009-02-26 2010-09-03 삼성전자주식회사 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
WO2011125352A1 (ja) * 2010-04-09 2011-10-13 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US20130268900A1 (en) * 2010-12-22 2013-10-10 Bran Ferren Touch sensor gesture recognition for operation of mobile devices
GB2487425A (en) * 2011-01-21 2012-07-25 Inq Entpr Ltd Gesture input on a device a first and second touch sensitive area and a boundary region
US8316319B1 (en) * 2011-05-16 2012-11-20 Google Inc. Efficient selection of characters and commands based on movement-inputs at a user-inerface
CN102298420B (zh) * 2011-09-15 2013-03-20 鸿富锦精密工业(深圳)有限公司 具触摸输入功能的电子装置
JP2013093003A (ja) * 2011-10-26 2013-05-16 Touch Panel Kenkyusho:Kk タッチパネル構造体
CN103116417A (zh) * 2013-01-30 2013-05-22 华为技术有限公司 一种触摸条及移动终端装置
USD755831S1 (en) * 2013-12-26 2016-05-10 Nikon Corporation Display screen with graphical user interface
CN103777869B (zh) * 2014-01-08 2016-10-26 宇龙计算机通信科技(深圳)有限公司 主菜单应用界面切换的方法及其装置
USD760761S1 (en) * 2015-04-07 2016-07-05 Domo, Inc. Display screen or portion thereof with a graphical user interface
CN108353126B (zh) 2015-04-23 2019-08-23 苹果公司 处理相机的内容的方法、电子设备和计算机可读存储介质
JP5906345B1 (ja) * 2015-08-05 2016-04-20 株式会社Cygames 操作履歴に基づいてタッチ対象を予測するプログラム、電子装置、システム及び制御方法
USD810758S1 (en) * 2016-02-19 2018-02-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
USD876475S1 (en) * 2018-02-22 2020-02-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
USD955429S1 (en) * 2018-11-02 2022-06-21 Honor Device Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD933700S1 (en) * 2018-11-02 2021-10-19 Honor Device Co., Ltd. Display screen or portion thereof with animated graphical user interface
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3304290B2 (ja) * 1997-06-26 2002-07-22 シャープ株式会社 ペン入力装置及びペン入力方法及びペン入力制御プログラムを記録したコンピュータ読み取り可能な記録媒体
US6331840B1 (en) * 1998-03-27 2001-12-18 Kevin W. Nielson Object-drag continuity between discontinuous touch screens of a single virtual desktop
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US6440197B1 (en) * 1999-07-27 2002-08-27 G.B.D. Corp. Apparatus and method separating particles from a cyclonic fluid flow including an apertured particle separation member within a cyclonic flow region
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP2002157086A (ja) * 2000-11-17 2002-05-31 Seiko Epson Corp 入力機能付き表示装置およびそれを備える電子機器ならびに入力機能付き表示装置の製造方法
US20050162402A1 (en) * 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
JP2005346583A (ja) * 2004-06-04 2005-12-15 Canon Inc 画像表示装置、マルチディスプレイ・システム、座標情報出力方法及びその制御プログラム
KR101307062B1 (ko) * 2006-04-19 2013-09-11 엘지전자 주식회사 터치패드의 입력 정보 제어방법 및 장치
TWI328185B (en) * 2006-04-19 2010-08-01 Lg Electronics Inc Touch screen device for potable terminal and method of displaying and selecting menus thereon
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
KR101426718B1 (ko) * 2007-02-15 2014-08-05 삼성전자주식회사 휴대단말기에서 터치 이벤트에 따른 정보 표시 장치 및방법
KR20080084156A (ko) * 2007-03-15 2008-09-19 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 인터페이스 제공 방법및 장치
US10133317B2 (en) * 2007-04-27 2018-11-20 Hewlett-Packard Development Company, L.P. Computing device with multiple displays

Also Published As

Publication number Publication date
CN102272700A (zh) 2011-12-07
EP2370882A4 (en) 2014-05-07
EP2370882A2 (en) 2011-10-05
US20100164893A1 (en) 2010-07-01
JP2012514268A (ja) 2012-06-21
WO2010077048A2 (en) 2010-07-08
WO2010077048A3 (en) 2010-10-07
KR20100078295A (ko) 2010-07-08

Similar Documents

Publication Publication Date Title
JP5705131B2 (ja) 異種のタッチ領域を利用した電子機器の動作制御方法及び装置
JP5233708B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101523979B1 (ko) 휴대 단말기 및 그 휴대 단말기에서 기능 수행 방법
KR101545875B1 (ko) 멀티미디어 아이템 조작 장치 및 방법
KR101662726B1 (ko) 전자 기기의 스크롤 방법 및 장치
EP2581819B1 (en) Method and apparatus for controlling a function in a touch device
JP5228755B2 (ja) 携帯端末装置、表示制御方法および表示制御プログラム
KR101426718B1 (ko) 휴대단말기에서 터치 이벤트에 따른 정보 표시 장치 및방법
EP2224321B1 (en) Information processing apparatus and display control method
JP5174372B2 (ja) 機能アイコンの表示システム及び方法
EP2204721A2 (en) Method and apparatus for navigation between objects in an electronic apparatus
US20100306703A1 (en) Method, device, module, apparatus, and computer program for an input interface
US20090179867A1 (en) Method for providing user interface (ui) to display operating guide and multimedia apparatus using the same
US20080288867A1 (en) Mobile communication device and method of controlling the same
KR20100097376A (ko) 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
JP6002688B2 (ja) 携帯端末機のgui提供方法及び装置
JP2008289161A (ja) 両方向スライド型移動通信端末機及びそのユーザインターフェース表示方法
JP2010152859A (ja) ユーザインタフェースの表示及び操作方法と電子デバイス
KR20100134948A (ko) 터치스크린을 구비하는 장치의 메뉴 표시 방법
US9910560B2 (en) Electronic apparatus and menu displaying method
US8185163B2 (en) Mobile communication device and method of controlling the same
JP5725867B2 (ja) 電子装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150224

R150 Certificate of patent or registration of utility model

Ref document number: 5705131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees