JP5823400B2 - 複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機 - Google Patents

複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機 Download PDF

Info

Publication number
JP5823400B2
JP5823400B2 JP2012533076A JP2012533076A JP5823400B2 JP 5823400 B2 JP5823400 B2 JP 5823400B2 JP 2012533076 A JP2012533076 A JP 2012533076A JP 2012533076 A JP2012533076 A JP 2012533076A JP 5823400 B2 JP5823400 B2 JP 5823400B2
Authority
JP
Japan
Prior art keywords
touch sensor
sensor unit
touch
input
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012533076A
Other languages
English (en)
Other versions
JP2013507681A (ja
Inventor
シ・ハク・チャン
ヒャン・ア・キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013507681A publication Critical patent/JP2013507681A/ja
Application granted granted Critical
Publication of JP5823400B2 publication Critical patent/JP5823400B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、複数のタッチセンサを用いたUI提供方法、およびこれを利用する携帯端末機に関し、特に、携帯端末機の前面と後面に形成されたタッチセンサを用いたUI提供方法、およびこのような方法を利用する携帯端末機に関する。
最近、携帯端末機の普及率の急速な増加により、携帯端末機はもはや現代人の生活必需品として位置づけられている。最近、タッチスクリーン基盤の携帯端末機が一般化していながらタッチセンサを用いたUI提供方法の重要性が増大している。
現在発売されているタッチスクリーン基盤の携帯端末機は、基本的に1つのタッチセンサを備えている。ユーザは、タッチ(touch)、ドラッグ(drag)等の動作をタッチセンサに入力することで、携帯端末機に命令を入力することになる。しかし、このように1つのタッチセンサからなる携帯端末機において、ユーザがタッチセンサに入力できる動作は、非常に制限的である。タッチスクリーン基盤の携帯端末機が一般的になっている状況で、タッチセンサを用いたUI提供技術の重要性は増大しており、多様なタッチ入力によるUI提供方法が要求されている。
本発明の目的は、複数のタッチセンサを備える携帯端末機において、多様なタッチ動作の入力によるUI提供方法を提供することにある。
本発明の他の目的は、前記方法を利用する携帯端末機を提供することにある。
本発明の態様に係る第1タッチセンサ部および第2タッチセンサ部を備える携帯端末機のUI提供方法は、第1タッチセンサ部および第2タッチセンサ部へのユーザによるタッチを感知するタッチ感知ステップと、第1タッチセンサ部および第2タッチセンサ部に入力されるタッチ位置の移動動作のパターンを認識する移動動作パターン認識ステップと、認識されたタッチ位置の移動動作のパターンに対応するUI(User Interface)を提供するUI提供ステップと、を含むことを特徴とする。
本発明の態様に係るUIを提供する携帯端末機は、第1タッチセンサ部と第1タッチセンサ部が形成される面と反対面に形成される第2タッチセンサ部とから構成されるタッチセンサ部と、UIを提供するUI部と、タッチセンサ部を制御してユーザによるタッチを感知し、入力されるタッチ位置の移動動作のパターンを認識し、UI部を制御して認識されたタッチ位置の移動動作のパターンに対応するUIを提供する制御部と、を含むことを特徴とする。
本発明により、ユーザは、多様なタッチ動作によって携帯端末機に操作命令を入力し、それぞれの入力によって互いに異なるUIを提供され、携帯端末機を用いるに当たり感性的な側面が向上する。
本発明の実施形態に係る、2つのタッチセンサを備える携帯端末機100を示す図である。 本発明の実施形態に係る、2つのタッチセンサを備える携帯端末機100の構成図を示す。 本発明の複数のタッチセンサを用いたUI提供方法の一般的な実施形態を示すフローチャートである。 本発明の複数のタッチセンサを用いたUI提供方法の具体的な実施形態のうち第1実施形態に該当するフローチャートである。 本発明の第1実施形態に係る携帯端末機100の表示画面の例示図である。 本発明の複数のタッチセンサを用いたUI提供方法の具体的な実施形態のうち第2実施形態に該当するフローチャートである。 本発明の第2実施形態に係る携帯端末機100の表示画面の例示図である。 本発明の第2実施形態に係る携帯端末機100の表示画面の他の例示図である。 本発明の複数のタッチセンサを用いたUI提供方法の具体的な実施形態のうち第3実施形態に該当するフローチャートである。 本発明の第3実施形態に係る携帯端末機100の表示画面の例示図である。 本発明の複数のタッチセンサを用いたUI提供方法の具体的な実施形態のうち第4実施形態に該当するフローチャートである。 本発明の第4実施形態に係る携帯端末機100の表示画面の例示図である。 本発明の第4実施形態に係る携帯端末機100の表示画面の他の例示図である。 本発明の第4実施形態に係る携帯端末機100の表示画面の他の例示図である。 本発明の第4実施形態に係る携帯端末機100の表示画面の他の例示図である。
以下、添付する図面を参照しながら本発明の好ましい実施形態を詳細に説明する。このとき、添付された図面で同一の構成要素は、可能な限り同一の符号で示していることに注意しなければならない。また、公知の機能および構成に対する説明が本発明の要旨を不要に曖昧にすると判断された場合、その詳細な説明は省略する。
本発明は、携帯端末機を例に挙げて説明するが、これに限定されるものではなく、タッチスクリーンが備えられた全ての装置に適用することができる。また、本発明の実施形態に係る携帯端末機は、タッチスクリーンが備えられた端末機であって、好ましくは、移動通信端末機、携帯用マルチメディア再生装置(Portable Multimedia Player;PMP)、個人情報端末機(Personal Digital Assistant;PDA)、スマートフォン(Smart Phone)、MP3プレーヤーなどのような全ての情報通信機器およびマルチメディア機器と、それに対する応用にも適用することができる。
図1は、本発明の実施形態に係る2つのタッチセンサを備える携帯端末機100を示す図である。本発明では、タッチスクリーンを備える携帯端末機のうちバー(bar)タイプの携帯端末機を中心に説明する。しかし、これに限定されるものではなく、フォルダ(folder)タイプ、スライド(slide)タイプの携帯端末機にも本発明を適用することができる。また、本発明でタッチスクリーンが位置する携帯端末機の面を「前面」といい、タッチスクリーンが位置する面の反対面を「後面」という。
図1の[a]は、携帯端末機100の前面を示す。前面には、タッチスクリーン部120と所定のキー入力部150が形成されている。図1の[b]は、携帯端末機100の後面を示し、後面には、第2タッチセンサ部130が形成されている。タッチスクリーン部120は、第1タッチセンサ部を含み、第1タッチセンサ部と第2タッチセンサ部130は、それぞれ携帯端末機の前面と後面に形成される。携帯端末機100の構成要素に対しては、図2に具体的に示されている。
図2は、本発明の実施形態に係る2つのタッチセンサを備える携帯端末機100の構成図を示す。本発明の携帯端末機100は、無線通信部110、タッチスクリーン部120、第2タッチセンサ部130、オーディオ処理部140、キー入力部150、格納部160、および制御部170を含む。
無線通信部110は、携帯端末機の無線通信のための該当データの送受信機能を行う。無線通信部110は、送信される信号の周波数を上昇変換および増幅するRF送信機と、受信される信号を低雑音増幅して周波数を下降変換するRF受信機とから構成される。また、無線通信部110は、無線チャネルを介してデータを受信して制御部170に出力し、制御部170から出力されたデータを無線チャネルを介して送信する。
タッチスクリーン部120は、第1タッチセンサ部121および表示部122を含む。第1タッチセンサ部121は、ユーザのタッチ入力を感知する。第1タッチセンサ部121は、静電容量方式(capacitive overlay)、圧力式抵抗膜方式(resistive overlay)、赤外線感知方式(infrared beam)等のタッチ感知センサで構成されてもよく、圧力センサ(pressure sensor)で構成されてもよいが、これに限定されず、物体の接触または圧力を感知することができる全ての種類のセンサが本発明の第1タッチセンサ部121に該当する。第1タッチセンサ部121は、ユーザのタッチ入力を感知し、感知信号を発生させて制御部170に送信する。
表示部122は、液晶表示装置(LCD、Liquid Crystal Display)で形成され、携帯端末機のメニュー、入力されたデータ、機能設定情報およびその他の多様な情報をユーザに視覚的に提供する。例えば、表示部122は、携帯端末機の起動画面、待機画面、表示画面、通話画面、その他のアプリケーション実行画面を出力する機能を行う。
第2タッチセンサ部130は、第1タッチセンサ部121と同一方式のタッチセンサで構成されてもよく、他の方式のタッチセンサで構成されてもよい。本発明の実施形態に係る第2タッチセンサ部130は、図1の[b]に示すように、携帯端末機100の後面に形成される。第2タッチセンサ部130は、ユーザのタッチ入力を感知し、感知信号を発生させて制御部170に送信する。本発明の実施形態に係る第2タッチセンサ部130は、「四角形」、「円形」、「十字形」などのさまざまな形状に構成してもよい。第2タッチセンサ部130が「十字形」の形状に構成される場合、第2タッチセンサ部130は、上下方向のタッチ位置の移動動作と左右方向のタッチ位置の移動動作とを感知することができる。
オーディオ処理部140は、コーデック(CODEC)から構成され、コーデックは、パケットデータなどを処理するデータコーデックと音声などのオーディオ信号を処理するオーディオコーデックとから構成してもよい。オーディオ処理部140は、デジタルオーディオ信号をオーディオコーデックを介してアナログオーディオ信号に変換し、スピーカを介して再生し、マイクロから入力されるアナログオーディオ信号をオーディオコーデックを介してデジタルオーディオ信号に変換する。本発明の実施形態に係る表示部122、オーディオ処理部140は、UI(User Interface)部を構成してもよい。
キー入力部150は、携帯端末機を制御するためのユーザのキー操作信号の入力を受けて制御部170に伝達する。キー入力部150は、数字キー、方向キーを有するキーパッドから構成されてもよく、携帯端末機の一側面に所定のファンクションキーで形成される。本発明の実施形態によって第1タッチセンサ部121および第2タッチセンサ部130のみで全ての操作が可能な携帯端末機の場合には、キー入力部150が省略されてもよい。
格納部160は、携帯端末機の動作に必要なプログラムおよびデータを格納する役割を行う。本発明の実施形態に係る格納部160は、第1タッチセンサ部121および第2タッチセンサ部130に入力されるタッチ位置の移動動作のパターンに対応するUI(User Interface)提供方法に関する情報を格納する。
制御部170は、携帯端末機の各構成要素に対する全般的な動作を制御する。制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御してユーザによるタッチを感知し、入力されるタッチ位置の移動動作のパターンを認識する。制御部170は、表示部122またはオーディオ処理部140を制御して、前記認識されたタッチ位置の移動動作のパターンに対応するUIを提供する。制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、第1タッチセンサ部121と第2タッチセンサ部130に互いに反対方向の移動動作が入力されるパターンを認識するか、第1タッチセンサ部121と第2タッチセンサ部130に互いに同一方向の移動動作が入力されるパターンを認識するか、第1タッチセンサ部121および第2タッチセンサ部130のうちいずれか1つのみに移動動作が入力されるパターンを認識する。また、制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、第1タッチセンサ部121と第2タッチセンサ部130に上下方向の移動動作が入力されるパターンを認識するか、第1タッチセンサ部121と第2タッチセンサ部130に左右方向の移動動作が入力されるパターンを認識するか、第1タッチセンサ部121と第2タッチセンサ部130に回転方向の移動動作が入力されるパターンを認識する。また、制御部170は、第1タッチセンサ部121および第2タッチセンサ部130のうちいずれか1つのみに移動動作が入力されるパターンを認識する場合、移動動作が第1タッチセンサ部121に入力されるか第2タッチセンサ部130に入力されるかを判断することができ、入力される移動動作が上下方向の移動動作であるか、左右方向の移動動作であるか、回転方向の移動動作であるかを判断することができる。
図3は、本発明の複数のタッチセンサを用いたUI提供方法の一般的な実施形態を示すフローチャートである。
301ステップで制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、ユーザによるタッチ入力を感知する。ユーザが指を第1タッチセンサ部121と第2タッチセンサ部130に接触すると、第1タッチセンサ部121および第2タッチセンサ部130は、タッチを感知し、感知信号を制御部170に送信する。制御部170は、第1タッチセンサ部121および第2タッチセンサ部130からそれぞれ感知信号を受信して、ユーザが第1タッチセンサ部121と第2タッチセンサ部130に接触を入力したことを認識する。
302ステップで制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、ユーザにより入力されるタッチ位置の移動動作のパターンを認識する。ユーザが指を第1タッチセンサ部121と第2タッチセンサ部130に接触した状態で、タッチ位置を移動させる動作を入力すると、第1タッチセンサ部121および第2タッチセンサ部130は、タッチ位置の移動を感知し、感知信号を制御部170に送信する。本発明の実施形態に係る制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、第1タッチセンサ部121と第2タッチセンサ部130に互いに反対方向の移動動作が入力されるパターンを認識するか、第1タッチセンサ部121と第2タッチセンサ部130に互いに同一方向の移動動作が入力されるパターンを認識するか、第1タッチセンサ部121および第2タッチセンサ部130のうちいずれか1つのみに移動動作が入力されるパターンを認識する。また、制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、第1タッチセンサ部121と第2タッチセンサ部130に上下方向の移動動作が入力されるパターンを認識するか、第1タッチセンサ部121と第2タッチセンサ部130に左右方向の移動動作が入力されるパターンを認識するか、第1タッチセンサ部121と第2タッチセンサ部130に回転方向の移動動作が入力されるパターンを認識する。また、制御部170は、第1タッチセンサ部121および第2タッチセンサ部130のうちいずれか1つのみに移動動作が入力されるパターンを認識する場合、移動動作が第1タッチセンサ部121に入力されるか第2タッチセンサ部130に入力されるかを判断することができ、入力される移動動作が上下方向の移動動作であるか、左右方向の移動動作であるか、回転方向の移動動作であるかを判断することができる。
303ステップで制御部170は、表示部122またはオーディオ処理部140を制御して、認識されたタッチ位置の移動動作のパターンに対応するUIを提供する。本発明の実施形態によって現在複数のアプリケーションが実行中である場合、制御部170は、表示部122を制御して、実行された複数のアプリケーションの実行画面を重畳した形態で移動動作の方向または距離により、実行画面間の間隔を設定して表示する。また、現在複数のコンテンツが実行中である場合、制御部170は、表示部122を制御して、複数のコンテンツの実行画面を重畳した形態で移動動作の方向または距離により、実行画面間の間隔を設定して表示する。本発明の実施形態によって現在画面のロック機能が実行中である場合、制御部170は、画面のロック機能を解除して表示部122を制御し、画面のロック機能が解除された画面を表示する。また、現在携帯端末機100に格納された音楽が再生中である場合、制御部170は、オーディオ処理部140を制御して、再生される音楽のボリュームを調節して出力する。本発明の実施形態によって現在携帯端末機100に格納されたイメージが表示される場合、制御部170は、表示部122を制御して、前記イメージをズームイン(zoom in)またはズームアウト(zoom out)して表示するか、タッチ位置の移動動作の方向に沿って前記イメージを回転または移動させて表示する。また、現在携帯端末機100に格納されたイメージが表示された時、制御部170は、第1タッチセンサ部121および第2タッチセンサ部130のうちいずれにタッチ位置の移動動作が入力されたかを判断した後、これにより、表示部122を制御して前記イメージをズームインまたはズームアウトして表示するか、前記イメージを移動させて表示するか、表示されたイメージが3D(Dimensional)イメージの場合には、ビューポイント(viewpoint)を変更させて表示する。以下では、4つの具体的な実施形態を中心に本発明の複数のタッチセンサを用いたUI提供方法について説明する。
図4は、本発明の複数のタッチセンサを用いたUI提供方法の具体的な実施形態のうち第1実施形態に該当するフローチャートである。
401ステップで制御部170は、携帯端末機100に含まれる複数のアプリケーションをマルチタスク(multitasking)で実行する。制御部170が実行するアプリケーションは、携帯端末機100に含まれる全てのアプリケーションに該当してもよい。第1実施形態において制御部170は、401ステップで「Application 1」、「Application 2」、「Application 3」および「Application 4」をマルチタスクで実行することと仮定する。
402ステップで制御部170は、表示部122を制御して、実行された複数のアプリケーションのうちいずれか1つのアプリケーションの実行画面を全画面として表示する。例えば、制御部170は、表示部122を制御して、実行された複数のアプリケーションのうち最後に実行されたアプリケーション、または、ユーザが全画面ビュー機能を選択したアプリケーションの実行画面を全画面として表示する。第1実施形態において制御部170は、402ステップで「Application 1」の実行画面を全画面に表示したと仮定する。図5は、本発明の第1実施形態に係る携帯端末機100の表示画面の例示図であり、図5の[a]で携帯端末機100は、「Application 1」の実行画面を全画面に表示している。
403ステップで制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、ユーザによるタッチ入力を感知する。次に、制御部170は、404ステップで第1タッチセンサ部121および第2タッチセンサ部130を制御して、タッチ位置の移動動作が入力されるか否かを判断する。タッチ位置の移動動作が入力されたと判断すれば、制御部170は、405ステップでタッチ位置の移動動作のパターンを認識する。第1実施形態においてユーザは、第1タッチセンサ部121に下方向へ、第2タッチセンサ部130に上方向へタッチ位置の移動動作を入力したと仮定する。図5の[a]には、第1タッチセンサ部121に下方向のタッチ位置の移動動作が入力され、第2タッチセンサ部130に上方向のタッチ位置の移動動作が入力された形態が示されている。
406ステップで制御部170は、表示部122を制御して、実行中である複数のアプリケーションの実行画面を重畳した形態で移動動作の方向および距離により、実行画面間の間隔を変更して表示する。現在「Application 1」、「Application 2」、「Application 3」および「Application 4」が実行されており、制御部170は、表示部122を制御して、「Application 1」、「Application 2」、「Application 3」および「Application 4」の実行画面を重畳した形態で表示する。第1実施形態では、ユーザが上下方向にタッチ位置を移動させ、これにより、制御部170は、表示部122を制御して「Application 1」、「Application 2」、「Application 3」および「Application 4」の実行画面を縦に重畳した形態で表示する。また、第1実施形態において制御部170は、表示部122を制御して、ユーザがタッチ位置を移動させた距離により、「Application 1」、「Application 2」、「Application 3」および「Application 4」の実行画面間の間隔を変更させて表示する。
407ステップで制御部170は、第1タッチセンサ部121と第2タッチセンサ部130を制御して、タッチ位置の移動動作距離が設定された臨界距離以上に該当するか否かを判断する。タッチ位置の移動動作距離が設定された臨界距離以上に該当する場合、制御部170は、408ステップで表示部122を制御して、実行中である複数のアプリケーションの実行画面間の間隔を固定させて表示する。すなわち、制御部170は、ユーザがタッチ位置の移動動作を継続的に入力しても、移動動作距離が設定された臨界距離以上に該当すれば、アプリケーションの実行画面間の間隔をこれ以上隔てずに、固定させて表示する。図5を参照すれば、図5の[b]で携帯端末機100は、「Application 1」、「Application 2」、「Application 3」および「Application 4」の実行画面を一定間隔で表示している。
409ステップで制御部170は、第1タッチセンサ部121を制御して、表示された複数の実行画面のうちいずれか1つの実行画面が選択されるか否かを判断する。ユーザが第1タッチセンサ部121を介していずれか1つの実行画面をタッチすると、第1タッチセンサ部121は、感知信号を発生させて制御部170に送信し、制御部170は、感知信号を受信して選択された実行画面を認識することになる。いずれか1つの実行画面が選択されると、410ステップで制御部170は、表示部122を制御して、選択された実行画面を全画面に表示する。例えば、「Application 1」、「Application 2」、「Application 3」および「Application 4」の実行画面が表示された状態で、ユーザが「Application 3」の実行画面を選択すれば、制御部170は、表示部122を制御して「Application 3」の実行画面を全画面に表示する。図5を参照すれば、図5の[c]で携帯端末機100は、「Application 3」の実行画面を全画面に表示している。
図6は、本発明の複数のタッチセンサを用いたUI提供方法の具体的な実施形態のうち第2実施形態に該当するフローチャートである。
601ステップで制御部170は、格納部160に格納された複数のコンテンツを実行する。例えば、コンテンツが「文書ファイル(document file)」に該当する場合、制御部170は、「文書ビューアアプリケーション」を用いてユーザにより選択された「文書ファイル」を実行する。第2実施形態で制御部170は、601ステップで「Doc 1」、「Doc 2」、「Doc 3」および「Doc 4」の文書を「文書ビューアアプリケーション」を用いて実行したと仮定する。
602ステップで制御部170は、表示部122を制御して、実行された複数のコンテンツのうちいずれか1つのコンテンツの実行画面を全画面に表示する。第2実施形態において制御部170は、602ステップで「Doc 1」の実行画面を全画面に表示したと仮定する。図7は、本発明の第2実施形態に係る携帯端末機100の表示画面の例示図に該当し、図7の[a]で携帯端末機100は、「Doc 1」の実行画面を全画面に表示している。
603ステップで制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、ユーザによるタッチ入力を感知する。次に、制御部170は、604ステップで第1タッチセンサ部121および第2タッチセンサ部130を制御して、タッチ位置の移動動作が入力されるか否かを判断する。タッチ位置の移動動作が入力されたと判断すれば、制御部170は、605ステップでタッチ位置の移動動作のパターンを認識する。第2実施形態においてユーザは、第1タッチセンサ部121に右方向へ、第2タッチセンサ部130に左方向へタッチ位置の移動動作を入力したと仮定する。図7の[a]には、第1タッチセンサ部121に右方向へタッチ位置の移動動作が入力され、第2タッチセンサ部130に左方向へタッチ位置の移動動作が入力された形態が示されている。
606ステップで制御部170は、表示部122を制御して、実行中である複数のコンテンツの実行画面を重畳した形態で移動動作の方向および距離により、実行画面間の間隔を変更して表示する。現在「Doc 1」、「Doc 2」、「Doc 3」および「Doc 4」が実行されており、制御部170は、表示部122を制御して「Doc 1」、「Doc 2」、「Doc 3」および「Doc 4」の実行画面を重畳した形態で表示する。第2実施形態において、ユーザが左右方向にタッチ位置を移動させ、これにより、制御部170は、表示部122を制御して「Doc 1」、「Doc 2」、「Doc 3」および「Doc 4」の実行画面を横に重畳した形態で表示する。また、第2実施形態において、制御部170は表示部122を制御して、ユーザがタッチ位置を移動させた距離により、「Doc 1」、「Doc 2」、「Doc 3」および「Doc 4」の実行画面間の間隔を変更させて表示する。
607ステップで制御部170は、第1タッチセンサ部121と第2タッチセンサ部130を制御して、タッチ位置の移動動作距離が設定された臨界距離以上に該当するか否かを判断する。タッチ位置の移動動作距離が設定された臨界距離以上に該当する場合、制御部170は、608ステップで表示部122を制御して、実行中である複数のコンテンツの実行画面間の間隔を固定させて表示する。図7を参照すれば、図7の[b]で携帯端末機100は、「Doc 1」、「Doc 2」、「Doc 3」および「Doc 4」の実行画面を一定間隔で表示している。
609ステップで制御部170は、第1タッチセンサ部121を制御して、表示された複数の実行画面のうちいずれか1つの実行画面が選択されるか否かを判断する。いずれか1つの実行画面が選択されれば、610ステップで制御部170は、表示部122を制御して、選択された実行画面を全画面に表示する。例えば、「Doc 1」、「Doc 2」、「Doc 3」および「Doc 4」の実行画面が表示された状態でユーザが「Doc 2」の実行画面を選択すれば、制御部170は、表示部122を制御して「Doc 2」の実行画面を全画面に表示する。図7を参照すれば、図7の[c]で携帯端末機100は、「Doc 2」の実行画面を全画面に表示している。
本発明の実施形態によって606ステップで制御部170は、表示部122を制御して、全画面に表示されている実行画面の大きさを縮小させて表示し、現在実行中であるコンテンツの実行画面が1つの画面に表示される時まで、全画面に表示された実行画面を縮小させて表示する。次に、制御部170は、607ステップでタッチ位置の移動動作距離が設定された臨界距離以上に該当するか否かを判断し、臨界距離以上に該当する場合、608ステップで表示部122を制御して、現在の画面を固定させて表示する。例えば、601ステップで制御部170が「イメージファイル(image file)」に該当するコンテンツの「image 1」、「image 2」および「image 3」を実行させ、602ステップで表示部122を制御して、「image 1」の実行画面を全画面に表示した場合、ユーザによってタッチおよびタッチ位置の移動動作が入力されれば、制御部170は、606ステップで表示部122を制御して、「image 1」の実行画面を縮小させて表示し、「image 2」および「image 3」の実行画面を「image 1」の実行画面とともに1つの画面に表示することができる。図8は、本発明の第2実施形態に係る携帯端末機100の表示画面の他の例示図である。図8の[a]には、90°回転した形態(横になっている形態)に位置した携帯端末機100が示されており、携帯端末機100は、「image 1」の実行画面を全画面に表示しており、ユーザによって左右方向のタッチ位置の移動動作が入力される形態が示されている。また、図8の[b]で携帯端末機100は、「image 1」の実行画面を縮小させて、「image 2」および「image 3」の実行画面とともに1つの画面に表示しており、ユーザによって「image 2」の実行画面が選択される形態が示されている。図8の[c]で携帯端末機100は、「image 2」の実行画面を全画面に表示している。
本発明において携帯端末機100は、第1実施形態および第2実施形態の組合によってユーザのタッチ入力を受信し、これに対応するUIを提供する。例えば、ユーザが「文書ビューアアプリケーション」、「Application 1」、「Application 2」および「Application 3」を実行し、「文書ビューアアプリケーション」を用いて「Doc 1」、「Doc 2」、「Doc 3」および「Doc 4」を実行したと仮定する。そして、携帯端末機100は、「Doc 1」の実行画面を全画面に表示していると仮定する。「Doc 1」の実行画面が全画面に表示された状態で、ユーザが第1タッチセンサ部121および第2タッチセンサ部130に上下方向のタッチ位置の移動動作を入力すれば、携帯端末機100は、「文書ビューアアプリケーション」、「Application 1」、「Application 2」および「Application 3」の実行画面を縦方向に重複して表示する。また、ユーザが第1タッチセンサ部121および第2タッチセンサ部130に左右方向のタッチ位置の移動動作を入力すれば、携帯端末機100は、「Doc 1」、「Doc 2」、「Doc 3」および「Doc 4」の実行画面を横方向に重複して表示する。
図9は、本発明の複数のタッチセンサを用いたUI提供方法の具体的な実施形態のうち第3実施形態に該当するフローチャートである。
901ステップで制御部170は、画面のロック機能を実行する。図10は、本発明の第3実施形態に係る携帯端末機100の表示画面の例示図であり、図10の[a]で携帯端末機100は、画面のロック機能が実行された状態の画面を表示している。
902ステップで制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、ユーザによるタッチ入力を感知する。次に、制御部170は、903ステップで第1タッチセンサ部121および第2タッチセンサ部130を制御して、第1タッチセンサ部121と第2タッチセンサ部130にタッチ位置の移動動作が入力されるか否かを判断する。タッチ位置の移動動作が入力されたと判断すれば、制御部170は、904ステップでタッチ位置の移動動作のパターンを認識する。第3実施形態では、ユーザが第1タッチセンサ部121および第2タッチセンサ部130、両方に下方向へタッチ位置の移動動作を入力したと仮定する。図10の[a]には、ユーザが第1タッチセンサ部121および第2タッチセンサ部130に下方向のタッチ位置の移動動作を入力した形態が示されている。
第1タッチセンサ部121と第2タッチセンサ部130に互いに同一方向(下方向)のタッチ位置の移動動作が入力されたものと認識すれば、905ステップで制御部170は、画面のロック機能を解除する。本発明の実施形態によって制御部170は、画面のロック機能の解除後に、表示部122を制御して待機画面を表示する。図10を参照すれば、図10の[b]で携帯端末機100は、画面のロック機能の解除後に、待機画面を表示している。本発明の実施形態によってタッチ位置の移動距離の臨界距離が設定されてもよく、このとき、制御部170は、タッチ位置の移動距離が臨界距離以上に該当するか否かを判断し、臨界距離以上に該当する場合のみに画面のロック機能を解除する。
図11は、本発明の複数のタッチセンサを用いたUI提供方法の具体的な実施形態のうち第4実施形態に該当するフローチャートである。
1101ステップで制御部170は、表示部122を制御して、格納部160に格納されたイメージのうちいずれか1つのイメージを表示する。図12は、本発明の第4実施形態に係る携帯端末機100の表示画面の例示図に該当し、図13は、本発明の第4実施形態に係る携帯端末機100の表示画面の他の例示図に該当する。図12および図13の[a]で携帯端末機100は、イメージを全画面に表示している
1102ステップで制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、ユーザによるタッチ入力を感知する。次に、制御部170は、1103ステップで第1タッチセンサ部121および第2タッチセンサ部130を制御して、第1タッチセンサ部121および第2タッチセンサ部130にタッチ位置の移動動作が入力されるか否かを判断する。タッチ位置の移動動作が入力されたものと判断すれば、1104ステップで制御部170は、タッチ位置の移動動作のパターンを認識する。図12および図13を参照すれば、図12の[a]は、ユーザが第1タッチセンサ部121にタッチ位置を固定させ、第2タッチセンサ部130に上方向へタッチ位置を移動させる動作を入力する場合に該当し、図13の[a]は、ユーザが第1タッチセンサ部121にタッチ位置を固定させ、第2タッチセンサ部130に元の形態にタッチ位置を回転させる動作を入力する場合に該当する。
タッチ位置の移動動作のパターンを認識した後、制御部170は、1105ステップで表示部122を制御して、認識されたタッチ位置の移動動作のパターンによりイメージを変更して表示する。本発明の実施形態によって制御部170は、表示部122を制御して、表示されたイメージをズームイン又はズームアウトして表示する。図12を参照すれば、図12の[b]で携帯端末機100は、図12の[a]に表示されたイメージのズームインされたイメージを表示している。本発明の実施形態によって制御部170は、表示部122を制御して、表示されたイメージを回転させて表示する。図13を参照すれば、図13の[b]で携帯端末機100は、図13[a]に表示されたイメージの回転したイメージを表示している。
本発明の実施形態によってタッチ位置の移動距離の臨界距離が設定されていてもよく、このとき、制御部170は、タッチ位置の移動距離が臨界距離以上に該当するか否かを判断し、臨界距離以上に該当する場合のみに表示部122を制御して、イメージをズームイン又はズームアウトして表示するか、表示されたイメージを移動または回転させて表示する。
また、本発明の実施形態によって制御部170は、第1タッチセンサ部121に入力されるタッチ位置の移動動作と、第2タッチセンサ部130に入力されるタッチ位置の移動動作とを区分して認識し、互いに異なるUIを提供する。例えば、第1タッチセンサ部121のみに上方向のタッチ位置の移動動作が入力される場合には、制御部170は表示部122を制御して、イメージを上方向に移動させて表示し、第2タッチセンサ部130のみに上方向のタッチ位置の移動動作が入力される場合には、表示部122を制御して、イメージをズームイン又はズームアウトして表示する。図14は、本発明の第4実施形態に係る携帯端末機100の表示画面の他の例示図に該当する。図14の[b]は、図14の[a]のようにイメージが表示された状態で、ユーザが第1タッチセンサ部121のみに上方向のタッチ位置の移動動作を入力した場合に、携帯端末機100が表示する画面の例示図であり、図14の[b]には、図14の[a]に表示されたイメージが上方向に移動した形態が表示されている。図14の[c]は、図14の[a]のようにイメージが表示された状態で、ユーザが第2タッチセンサ部130のみに上方向のタッチ位置の移動動作を入力した場合に、携帯端末機100が表示する画面の例示図であり、図14の[c]には、図14の[a]に表示されたイメージのズームインされた形態が表示されている。
本発明の実施形態において、1101ステップで表示されたイメージが3Dイメージに該当する時、ユーザによって第1タッチセンサ部121のみに上方向のタッチ位置の移動動作が入力される場合には、制御部170は表示部122を制御して、3Dイメージを上方向に移動させて表示し、第2タッチセンサ部130のみに上方向のタッチ位置の移動動作が入力される場合には、制御部170は表示部122を制御して、3Dイメージのビューポイントを変更して表示する。図15は、本発明の第4実施形態に係る携帯端末機100の表示画面の他の例示図である。図15の[b]は、図15の[a]のように3Dイメージが表示された状態で、ユーザが第1タッチセンサ部121のみに上方向のタッチ位置の移動動作を入力した場合に、携帯端末機100が表示する画面の例示図に該当する。図15の[b]には、図15の[a]に表示された3Dイメージが上方向に移動した形態が表示されている。図15の[c]は、図15の[a]のように3Dイメージが表示された状態で、第2タッチセンサ部130のみに上方向のタッチ位置の移動動作を入力した場合に、携帯端末機100が表示する画面の例示図に該当する。図15の[c]には、図15の[a]に表示された3Dイメージのビューポイントが変更された形態が表示されている。
また、本発明の実施形態において、1101ステップで制御部170がオーディオ処理部140を制御して、携帯端末機100に格納された音楽を再生しており、ユーザが第1タッチセンサ部121および第2タッチセンサ部130にタッチを入力すれば、1102ステップで制御部170は、第1タッチセンサ部121および第2タッチセンサ部130を制御して、ユーザによるタッチ入力を感知し、1103ステップで第1タッチセンサ部121および第2タッチセンサ部130を制御して、第1タッチセンサ部121および第2タッチセンサ部130のタッチ位置の移動動作が入力されるか否かを判断し、タッチ位置の移動動作が入力されるものと判断すれば、1104ステップでタッチ位置の移動動作のパターンを認識し、1105ステップで認識されたタッチ位置の移動パターンによりオーディオ処理部140を制御して、再生される音楽のボリュームを調節する。
本発明においてユーザは、多様なタッチ入力によって携帯端末機を操作することができ、それぞれの入力に対して互いに異なるUIを提供され、携帯端末機を用いるにあたって感性的な側面が向上される効果が発生する。
さらに実施形態で表示されたイメージやファイルが、タッチ位置の移動動作の変化を感知して移動する場合にも、この変化は実施形態で説明したものに動作が制限されない。
例えば、図15の[a]および[b]は、表示された3Dイメージを第2タッチセンサ部に入力なしで、第1タッチセンサ部のみに上方向タッチの入力を受けたタッチ入力に対応して前記3Dイメージを上側に移動させる思想について開示しているが、その他の実施形態が提示されることも可能である。
第2タッチセンサ部に入力なしで、第1タッチセンサ部に上方向の移動するタッチ入力が入力された場合、前記3Dイメージは、下方向にスクロール、回転、位置変更、形状変更などが可能となる。さらに当業者が変更実施可能な他の実施形態の場合も、本発明の権利範囲に含まれることが自明である。
一方、本明細書と図面に開示された本発明の実施形態は、本発明の技術内容を容易に説明して本発明の理解を助けるために特定例を提示したものであるだけで、本発明の範囲を限定しようとするものではない。ここに開示された実施形態の以外にも本発明の技術的思想に基づいた他の変形例が実施可能であることは、本発明が属する技術分野で通常の知識を有する者に自明である。
110 無線通信部
120 タッチスクリーン部
130 第2タッチセンサ部
140 オーディオ処理部
150 キー入力部
160 格納部
170 制御部

Claims (14)

  1. 第1タッチセンサ部と、第1タッチセンサ部が形成される面と反対面に形成される第2タッチセンサ部とを備える携帯端末機のUI提供方法において、
    複数のアプリケーションを実行する実行ステップと、
    前記第1タッチセンサ部および前記第2タッチセンサ部へのユーザによるタッチを感知するタッチ感知ステップと、
    前記第1タッチセンサ部および前記第2タッチセンサ部に入力されるタッチ位置の移動動作のパターンを認識する移動動作パターン認識ステップと、
    前記認識されたタッチ位置の移動動作のパターンに対応するUIを提供するUI提供ステップと、を含み、
    前記UI提供ステップは、実行された前記複数のアプリケーションのうちの1つのアプリケーションの実行ウィンドウを全画面に表示した状態から、ユーザによるタッチを感知すると、前記1つのアプリケーションの前記実行ウィンドウを縮小するとともに前記実行された複数のアプリケーションのうちの少なくとも2つの実行ウィンドウを、前記移動動作のパターンの方向及び距離により一定の距離を置いて重畳するように表示するステップを含むことを特徴とする携帯端末機のUI提供方法。
  2. 前記移動動作パターン認識ステップは、
    前記第1タッチセンサ部と前記第2タッチセンサ部に互いに反対方向の移動動作が入力されるパターン、前記第1タッチセンサ部と前記第2タッチセンサ部に互いに同一方向の移動動作が入力されるパターン、または、前記第1タッチセンサ部と前記第2タッチセンサ部のうちいずれか1つ以上の移動動作が入力されるパターンを認識することを特徴とする請求項1に記載の携帯端末機のUI提供方法。
  3. 前記移動動作パターン認識ステップは、
    前記第1タッチセンサ部と前記第2タッチセンサ部に上下方向の移動動作が入力されるパターン、前記第1タッチセンサ部と前記第2タッチセンサ部に左右方向の移動動作が入力されるパターン、または、前記第1タッチセンサ部と前記第2タッチセンサ部に回転方向の移動動作が入力されるパターンを認識することを特徴とする請求項1に記載の携帯端末機のUI提供方法。
  4. 前記複数のアプリケーションのうちの少なくとも1つのアプリケーションは、対応するコンテンツのアイテムにより実行されることを特徴とする請求項1に記載の携帯端末機のUI提供方法。
  5. 前記UI提供ステップは、
    前記実行された複数のアプリケーションまたは複数のコンテンツの実行画面を重畳した形態で前記移動動作の方向および距離により、前記実行画面間の間隔を変更して表示するステップと、
    前記移動動作の距離が、設定された臨界距離以上に該当するか否かを判断するステップと、
    前記移動動作の距離が前記臨界距離以上に該当する場合、前記実行画面間の間隔を固定させて表示するステップと、を含むことを特徴とする請求項4に記載の携帯端末機のUI提供方法。
  6. 前記携帯端末機の画面のロック機能を実行するステップをさらに含み、
    前記UI提供ステップは、
    前記画面のロック機能を解除することを特徴とする請求項2に記載の携帯端末機のUI提供方法。
  7. 前記携帯端末機に格納された音楽を再生するステップをさらに含み、
    前記UI提供ステップは、
    前記再生される音楽のボリュームを調節することを特徴とする請求項2に記載の携帯端末機のUI提供方法。
  8. 前記携帯端末機に格納されたイメージを表示するイメージ表示ステップをさらに含むことを特徴とする請求項2に記載の携帯端末機のUI提供方法。
  9. 前記UI提供ステップは、
    前記イメージをズームインまたはズームアウトして表示することを特徴とする請求項8に記載の携帯端末機のUI提供方法。
  10. 前記UI提供ステップは、
    前記移動動作の方向に沿って前記イメージを回転させて表示することを特徴とする請求項8に記載の携帯端末機のUI提供方法。
  11. 前記UI提供ステップは、
    前記第1タッチセンサ部のみに移動動作が入力されるパターンを認識した場合には、前記イメージを移動させて表示し、
    前記第2タッチセンサ部のみに移動動作が入力されるパターンを認識した場合には、前記イメージをズームインまたはズームアウトして表示することを特徴とする請求項8に記載の携帯端末機のUI提供方法。
  12. 前記イメージ表示ステップで表示されるイメージは、3Dイメージに該当し、
    前記UI提供ステップは、
    前記第1タッチセンサ部のみに移動動作が入力されるパターンを認識した場合には、前記3Dイメージを移動させて表示し、
    前記第2タッチセンサ部のみに移動動作が入力されるパターンを認識した場合には、前記3Dイメージのビューポイントを移動させて表示することを特徴とする請求項8に記載の携帯端末機のUI提供方法。
  13. UIを提供する携帯端末機において、
    第1タッチセンサ部と、第1タッチセンサ部が形成される面と反対面に形成される第2タッチセンサ部とから構成されるタッチセンサ部と、
    UIを提供するUI部と、
    前記タッチセンサ部を制御してユーザによるタッチを感知し、入力されるタッチ位置の移動動作のパターンを認識し、前記UI部を制御して認識されたタッチ位置の移動動作のパターンに対応するUIを提供する制御部と、を含み、
    前記制御部は、複数のアプリケーションを実行し、実行された前記複数のアプリケーションのうちの1つのアプリケーションの実行ウィンドウを全画面に表示した状態から、ユーザによるタッチを感知すると、前記1つのアプリケーションの前記実行ウィンドウを縮小するとともに実行された複数のアプリケーションのうちの少なくとも2つの実行ウィンドウを、前記移動動作のパターンの方向及び距離により一定の距離を置いて重畳するように表示することを特徴とする携帯端末機。
  14. 前記制御部は、
    前記タッチセンサ部を制御して、前記第1タッチセンサ部と前記第2タッチセンサ部に互いに反対方向の移動動作が入力されるパターン、前記第1タッチセンサ部と前記第2タッチセンサ部に互いに同一方向の移動動作が入力されるパターン、または、前記第1タッチセンサ部と前記第2タッチセンサ部のうちいずれか1つのみに移動動作が入力されるパターンを認識することを特徴とする請求項13に記載の携帯端末機。
JP2012533076A 2009-10-07 2010-10-05 複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機 Expired - Fee Related JP5823400B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020090095322A KR101648747B1 (ko) 2009-10-07 2009-10-07 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
KR10-2009-0095322 2009-10-07
PCT/KR2010/006784 WO2011043575A2 (en) 2009-10-07 2010-10-05 Method for providing user interface and mobile terminal using the same

Publications (2)

Publication Number Publication Date
JP2013507681A JP2013507681A (ja) 2013-03-04
JP5823400B2 true JP5823400B2 (ja) 2015-11-25

Family

ID=43822821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012533076A Expired - Fee Related JP5823400B2 (ja) 2009-10-07 2010-10-05 複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機

Country Status (9)

Country Link
US (1) US20110080359A1 (ja)
EP (1) EP2486663A4 (ja)
JP (1) JP5823400B2 (ja)
KR (1) KR101648747B1 (ja)
CN (1) CN102687406B (ja)
AU (1) AU2010304098B2 (ja)
BR (1) BR112012006470A2 (ja)
RU (1) RU2553458C2 (ja)
WO (1) WO2011043575A2 (ja)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
KR20110104088A (ko) * 2009-02-23 2011-09-21 후지쯔 가부시끼가이샤 정보 처리 장치, 표시 제어 방법 및 표시 제어 프로그램을 기록한 컴퓨터 판독 가능한 매체
US20120256959A1 (en) * 2009-12-30 2012-10-11 Cywee Group Limited Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US9244606B2 (en) * 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
JP5708083B2 (ja) * 2011-03-17 2015-04-30 ソニー株式会社 電子機器、情報処理方法、プログラム、及び電子機器システム
WO2012151471A2 (en) * 2011-05-05 2012-11-08 Net Power And Light Inc. Identifying gestures using multiple sensors
KR101677639B1 (ko) * 2011-05-06 2016-11-18 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US10275153B2 (en) * 2011-05-19 2019-04-30 Will John Temple Multidirectional button, key, and keyboard
JP5259772B2 (ja) * 2011-05-27 2013-08-07 株式会社東芝 電子機器、操作支援方法及びプログラム
US8640047B2 (en) 2011-06-01 2014-01-28 Micorsoft Corporation Asynchronous handling of a user interface manipulation
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013032187A1 (en) * 2011-09-01 2013-03-07 Samsung Electronics Co., Ltd. Mobile terminal for performing screen unlock based on motion and method thereof
JP5801656B2 (ja) * 2011-09-01 2015-10-28 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2014531684A (ja) * 2011-09-30 2014-11-27 インテル コーポレイション モバイルデバイスのための多次元の対話インタフェース
CN102508595B (zh) * 2011-10-02 2016-08-31 上海量明科技发展有限公司 一种用以触摸屏操作的方法及终端
CN102368197A (zh) * 2011-10-02 2012-03-07 上海量明科技发展有限公司 用以触摸屏操作的方法及系统
US9594405B2 (en) * 2011-10-19 2017-03-14 Facebook, Inc. Composite touch gesture control with touch screen input device and secondary touch input device
TW201319921A (zh) * 2011-11-07 2013-05-16 Benq Corp 觸控螢幕畫面控制方法及觸控螢幕畫面顯示方法
KR101383840B1 (ko) * 2011-11-17 2014-04-14 도시바삼성스토리지테크놀러지코리아 주식회사 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법
JP2013117885A (ja) * 2011-12-02 2013-06-13 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US9026951B2 (en) 2011-12-21 2015-05-05 Apple Inc. Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs
KR102006470B1 (ko) 2011-12-28 2019-08-02 삼성전자 주식회사 사용자 디바이스에서 멀티태스킹 운용 방법 및 장치
US10191641B2 (en) 2011-12-29 2019-01-29 Apple Inc. Device, method, and graphical user interface for navigation of information in a map-based interface
TWI528220B (zh) * 2011-12-30 2016-04-01 富智康(香港)有限公司 電子設備解鎖系統及方法
TW201329837A (zh) * 2012-01-13 2013-07-16 Fih Hong Kong Ltd 電子設備解鎖系統及方法
US8806383B2 (en) * 2012-02-06 2014-08-12 Motorola Mobility Llc Initiation of actions by a portable computing device from a locked state
KR101892567B1 (ko) * 2012-02-24 2018-08-28 삼성전자 주식회사 단말기에서 콘텐츠 이동 방법 및 장치
JP5580873B2 (ja) * 2012-03-13 2014-08-27 株式会社Nttドコモ 携帯端末およびロック解除方法
JP2013235344A (ja) * 2012-05-07 2013-11-21 Sony Computer Entertainment Inc 入力装置、入力制御方法、及び入力制御プログラム
WO2013169070A1 (en) * 2012-05-11 2013-11-14 Samsung Electronics Co., Ltd. Multiple window providing apparatus and method
EP2850510A2 (en) 2012-05-18 2015-03-25 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9280282B2 (en) * 2012-05-30 2016-03-08 Huawei Technologies Co., Ltd. Touch unlocking method and apparatus, and electronic device
CN102722331A (zh) * 2012-05-30 2012-10-10 华为技术有限公司 触控解锁方法、装置和电子设备
CN102915182B (zh) * 2012-09-03 2016-01-13 广州市久邦数码科技有限公司 一种三维锁屏方法和装置
JP5935610B2 (ja) * 2012-09-07 2016-06-15 富士通株式会社 操作制御プログラム、携帯電子機器及び操作制御方法
JP5658211B2 (ja) * 2012-09-11 2015-01-21 株式会社コナミデジタルエンタテインメント 情報表示装置、情報表示方法、ならびに、プログラム
CN102902481B (zh) * 2012-09-24 2016-12-21 东莞宇龙通信科技有限公司 终端和终端操作方法
CN102929528A (zh) * 2012-09-27 2013-02-13 鸿富锦精密工业(深圳)有限公司 具有图片切换功能的装置及图片切换方法
TWI506476B (zh) * 2012-11-29 2015-11-01 Egalax Empia Technology Inc 解除觸摸屏鎖定狀態的方法、電子裝置及其儲存媒體
US20150339028A1 (en) * 2012-12-28 2015-11-26 Nokia Technologies Oy Responding to User Input Gestures
CN103513917A (zh) * 2013-04-23 2014-01-15 展讯通信(上海)有限公司 触控设备及其解锁的检测方法及装置、解锁方法和装置
KR102179056B1 (ko) * 2013-07-19 2020-11-16 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102130797B1 (ko) 2013-09-17 2020-07-03 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102129594B1 (ko) * 2013-10-30 2020-07-03 애플 인크. 관련 사용자 인터페이스 객체를 표시
US9058480B2 (en) * 2013-11-05 2015-06-16 Google Inc. Directional touch unlocking for electronic devices
US9483763B2 (en) 2014-05-29 2016-11-01 Apple Inc. User interface for payments
CN104111781B (zh) * 2014-07-03 2018-11-27 魅族科技(中国)有限公司 图像显示控制方法和终端
US9558455B2 (en) * 2014-07-11 2017-01-31 Microsoft Technology Licensing, Llc Touch classification
CN104216634A (zh) * 2014-08-27 2014-12-17 小米科技有限责任公司 一种显示稿件的方法和装置
US10146409B2 (en) 2014-08-29 2018-12-04 Microsoft Technology Licensing, Llc Computerized dynamic splitting of interaction across multiple content
WO2016036552A1 (en) 2014-09-02 2016-03-10 Apple Inc. User interactions for a mapping application
KR20160114413A (ko) * 2015-03-24 2016-10-05 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9671828B2 (en) 2014-09-19 2017-06-06 Lg Electronics Inc. Mobile terminal with dual touch sensors located on different sides of terminal body and method of controlling the same
CN104363345A (zh) * 2014-11-17 2015-02-18 联想(北京)有限公司 一种显示方法和电子设备
KR101990661B1 (ko) * 2015-02-23 2019-06-19 원투씨엠 주식회사 압인식 정전 다중 터치를 이용한 서비스 제공 방법
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
CN105302444A (zh) * 2015-10-30 2016-02-03 努比亚技术有限公司 图片处理方法及装置
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US11003752B2 (en) * 2016-07-14 2021-05-11 Hewlett-Packard Development Company, L.P. Contextual device unlocking
CN106227451A (zh) * 2016-07-26 2016-12-14 维沃移动通信有限公司 一种移动终端的操作方法及移动终端
CN106293467A (zh) * 2016-08-11 2017-01-04 深圳市康莱米电子股份有限公司 一种带有触摸屏的终端的解锁方法及装置
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US5335557A (en) * 1991-11-26 1994-08-09 Taizo Yasutake Touch sensitive input control device
JP3421167B2 (ja) * 1994-05-03 2003-06-30 アイティユー リサーチ インコーポレイテッド 接触式制御用入力機器
JP2000293280A (ja) * 1999-04-07 2000-10-20 Sharp Corp 情報入力装置
US7075513B2 (en) * 2001-09-04 2006-07-11 Nokia Corporation Zooming and panning content on a display screen
EP2254025A3 (en) * 2002-05-16 2016-03-30 Sony Corporation Input method and input apparatus
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
US20040263484A1 (en) * 2003-06-25 2004-12-30 Tapio Mantysalo Multifunctional UI input device for moblie terminals
US7417625B2 (en) * 2004-04-29 2008-08-26 Scenera Technologies, Llc Method and system for providing input mechanisms on a handheld electronic device
JP2006018727A (ja) * 2004-07-05 2006-01-19 Funai Electric Co Ltd 3次元座標入力装置
KR20060133389A (ko) * 2005-06-20 2006-12-26 엘지전자 주식회사 이동 단말기의 데이터 처리 장치 및 그 방법
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
EP1969452A2 (en) * 2005-12-30 2008-09-17 Apple Inc. Portable electronic device with multi-touch input
JP4752584B2 (ja) * 2006-04-11 2011-08-17 ソニー株式会社 表示灯制御プログラム、情報処理装置および表示灯制御方法
US8296684B2 (en) * 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US20070291008A1 (en) * 2006-06-16 2007-12-20 Daniel Wigdor Inverted direct touch sensitive input devices
JP2007334827A (ja) * 2006-06-19 2007-12-27 Sony Corp 携帯端末装置
US8736557B2 (en) * 2006-09-11 2014-05-27 Apple Inc. Electronic device with image based browsers
JP4982505B2 (ja) * 2007-01-25 2012-07-25 シャープ株式会社 マルチウィンドウ管理装置及びプログラム、記憶媒体、並びに情報処理装置
KR100894146B1 (ko) * 2007-02-03 2009-04-22 엘지전자 주식회사 이동통신 단말기 및 그 동작 제어방법
KR101524572B1 (ko) * 2007-02-15 2015-06-01 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 인터페이스 제공 방법
US8351989B2 (en) * 2007-02-23 2013-01-08 Lg Electronics Inc. Method of displaying menu in a mobile communication terminal
KR101415296B1 (ko) * 2007-05-29 2014-07-04 삼성전자주식회사 휴대 단말기의 메뉴 실행 장치 및 방법
US8836637B2 (en) * 2007-08-14 2014-09-16 Google Inc. Counter-tactile keypad
JP5184018B2 (ja) * 2007-09-14 2013-04-17 京セラ株式会社 電子機器
KR101386473B1 (ko) * 2007-10-04 2014-04-18 엘지전자 주식회사 휴대 단말기 및 그 메뉴 표시 방법
EP2045700A1 (en) * 2007-10-04 2009-04-08 LG Electronics Inc. Menu display method for a mobile communication terminal
JP4557058B2 (ja) * 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
US9513765B2 (en) * 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
KR101418285B1 (ko) * 2007-12-24 2014-07-10 엘지전자 주식회사 후면센서를 구비한 이동 단말기 및 그 운용방법
KR101552834B1 (ko) * 2008-01-08 2015-09-14 삼성전자주식회사 후면 터치 패드를 갖는 휴대 단말기
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP5024100B2 (ja) * 2008-02-14 2012-09-12 日本電気株式会社 表示制御装置、通信システム、表示制御方法、及び表示制御プログラム
JP4762262B2 (ja) * 2008-03-13 2011-08-31 シャープ株式会社 情報表示装置及び情報表示方法
US20090256809A1 (en) * 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
JP4171770B1 (ja) * 2008-04-24 2008-10-29 任天堂株式会社 オブジェクト表示順変更プログラム及び装置
US8130207B2 (en) * 2008-06-18 2012-03-06 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
KR101560718B1 (ko) * 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
US8462126B2 (en) * 2009-07-20 2013-06-11 Motorola Mobility Llc Method for implementing zoom functionality on a portable device with opposing touch sensitive surfaces
EP2282256A1 (en) * 2009-08-04 2011-02-09 Deutsche Telekom AG Electronic device and method for controlling an electronic device
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views

Also Published As

Publication number Publication date
WO2011043575A3 (en) 2011-10-20
RU2553458C2 (ru) 2015-06-20
KR20110037761A (ko) 2011-04-13
AU2010304098A1 (en) 2012-04-12
EP2486663A4 (en) 2014-05-07
KR101648747B1 (ko) 2016-08-17
EP2486663A2 (en) 2012-08-15
WO2011043575A2 (en) 2011-04-14
CN102687406B (zh) 2015-03-25
JP2013507681A (ja) 2013-03-04
US20110080359A1 (en) 2011-04-07
AU2010304098B2 (en) 2015-12-24
CN102687406A (zh) 2012-09-19
RU2012111314A (ru) 2013-11-20
BR112012006470A2 (pt) 2016-04-26

Similar Documents

Publication Publication Date Title
JP5823400B2 (ja) 複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機
US11275466B2 (en) Mobile terminal having a touch screen and method for providing a user interface therein
AU2021203022B2 (en) Multifunction device control of another electronic device
KR102213899B1 (ko) 전자 디바이스 및 전자 디바이스의 커버와 전자 디바이스에서 기능 실행 방법
US11150798B2 (en) Multifunction device control of another electronic device
US20110087983A1 (en) Mobile communication terminal having touch interface and touch interface method
US20120293406A1 (en) Method and apparatus for processing input in mobile terminal
JP2015064896A (ja) 携帯端末機のイメージ処理方法
US20090167702A1 (en) Pointing device detection
US20140059457A1 (en) Zooming display method and apparatus
KR102168648B1 (ko) 사용자 단말 장치 및 그 제어 방법
US10182141B2 (en) Apparatus and method for providing transitions between screens
KR20110045138A (ko) 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
JP2011070474A (ja) 携帯端末装置
KR20150081657A (ko) 휴대 단말 및 그 제어 방법
KR20230007515A (ko) 접이식 디바이스의 디스플레이 스크린 상에서 검출된 제스처들을 처리하기 위한 방법 및 시스템
US10908868B2 (en) Data processing method and mobile device
US20160103506A1 (en) Input device, method for controlling input device, and non-transitory computer-readable recording medium
US20130162683A1 (en) Apparatus and method for providing transitions between screens
JP5081952B2 (ja) 項目選択装置、項目選択方法、ならびに、プログラム
US20220035521A1 (en) Multifunction device control of another electronic device
WO2018123701A1 (ja) 電子機器、その制御方法およびプログラム
KR20100055286A (ko) 그래픽 표시 방법 및 이를 이용한 휴대 단말기
JP2013047866A (ja) 携帯電子機器
KR20130031890A (ko) 터치 감지형 디스플레이 및 네비게이션 디바이스를 구비한 휴대용 전자 디바이스 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141015

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151007

R150 Certificate of patent or registration of utility model

Ref document number: 5823400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees