JP2013513157A - 携帯用装置のユーザーインターフェース提供方法及び装置 - Google Patents

携帯用装置のユーザーインターフェース提供方法及び装置 Download PDF

Info

Publication number
JP2013513157A
JP2013513157A JP2012541947A JP2012541947A JP2013513157A JP 2013513157 A JP2013513157 A JP 2013513157A JP 2012541947 A JP2012541947 A JP 2012541947A JP 2012541947 A JP2012541947 A JP 2012541947A JP 2013513157 A JP2013513157 A JP 2013513157A
Authority
JP
Japan
Prior art keywords
graphic
area
user
graphics
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012541947A
Other languages
English (en)
Other versions
JP5918144B2 (ja
Inventor
ボム−ジン チョ,
ユ−シク ファン,
ヒョン−ギュウ ユク,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013513157A publication Critical patent/JP2013513157A/ja
Application granted granted Critical
Publication of JP5918144B2 publication Critical patent/JP5918144B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • H04B1/401Circuits for selecting or indicating operating mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72406User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by software upgrading or downloading
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/18Processing of user or subscriber data, e.g. subscribed services, user preferences or user profiles; Transfer of user or subscriber data
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27467Methods of retrieving data
    • H04M1/2747Scrolling on a display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72445User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting Internet browser applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
    • H04M19/047Vibrating means for incoming calls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/10Small scale networks; Flat hierarchical networks
    • H04W84/12WLAN [Wireless Local Area Networks]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本発明の方法は、第1領域にグラフィック及び隠されたグラフィックを表示するためのユーザーインターフェースを表示する段階と、第1領域から区別される第2領域にグラフィックに対応するコンテンツの集合を表示する段階と、第1領域の一部を選択するユーザーのジェスチャーを感知する段階と、第1領域を第2領域の一部を含むように拡張する段階と、ユーザーのジェスチャーに応答して、拡張された第1領域にグラフィック及び隠されたグラフィックが含まれる複数個のグラフィックを表示する段階と、複数個のグラフィックのうちの第1グラフィックを移動させるユーザーの追加ジェスチャーを感知する段階と、ユーザーの追加ジェスチャーに応答して、第1グラフィックを拡張された第1領域の一部に移動し、第1グラフィックが移動されて残された領域に複数のグラフィックのうちの第2グラフィックを移動する段階と、を有する。
【選択図】図1

Description

本発明は、ユーザーインターフェース提供方法及び装置に関し、より詳細には、スクリーン構成を用いてより高効率のユーザーインターフェースを提供するための方法及び装置に関する。
ユーザーインターフェース(user interface:UI)は、ユーザーと対象物(object)、システム、装置、又はプログラムと意志疎通ができるように一時的な又は持続的なアクセスを提供する。ユーザーインターフェースには物理的媒介体又は仮想的媒介体を用いることができる。一般に、ユーザーインターフェースは、ユーザーがシステムを操作する入力と、システムに対する入力の応答又は結果が表示される出力とに分けることができる。
入力では、スクリーン上でカーソルを移動させ、特定対象を選択するためのユーザーの操作を受付ける入力装置を必要とする。例えば、入力装置は、ボタン、キー、マウス、トラックボール、タッチパッド、ジョイスチック、又はタッチスクリーンを含む。出力では、入力に対する応答をユーザーの視覚、聴覚、又は触覚で確認できる出力装置を必要とする。例えば、出力装置は、ディスプレイ装置、タッチスクリーン、スピーカー、又は振動器を含む。
タッチスクリーンは、スクリーンを介して入力及び出力の両方を提供する。ユーザーは指又はスタイラスを用いてスクリーンをタッチする。コンピュータは、タッチスクリーン上で発生したタッチを認識し、タッチを解析してタッチに基づく該当動作を行う。
本発明は、上記従来技術に鑑みてなされたものであって、本発明の目的は、携帯用装置のユーザーインターフェース提供方法及びユーザーインターフェースを提供する携帯用装置並びにユーザーインターフェースを提供する方法をコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供することにある。
本発明の実施形態は、少なくとも上記における問題点及び/又は不具合、更には上述していない他の不具合について取り扱う。また、本発明の実施形態は、上記における不具合を克服する上で要求されないこともあり、上述した問題点を克服しないこともある。
上記目的を達成するためになされた本発明の一態様による携帯用装置のユーザーインターフェース提供方法は、第1領域に、少なくとも一つのグラフィック及び隠されたグラフィックを表示するためのユーザーインターフェースを表示する段階と、前記第1領域から区別される第2領域に、前記少なくとも一つのグラフィックに対応するコンテンツの集合を表示する段階と、前記第1領域の一部を選択するユーザーのジェスチャーを感知する段階と、前記第1領域を前記第2領域の一部を含むように拡張する段階と、前記ユーザーのジェスチャーに応答して、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示する段階と、前記複数個のグラフィックのうちの第1グラフィックを移動させるユーザーの追加ジェスチャーを感知する段階と、前記ユーザーの追加ジェスチャーに応答して、前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記複数個のグラフィックのうちの第2グラフィックを移動する段階と、を有する。
前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する段階は、前記第2領域から前記第1領域に切り替わった領域に、前記隠されたグラフィックの少なくとも一部を表示する段階を含むことができる。
前記第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックを表示するためのユーザーインターフェースを表示する段階は、前記ユーザーインターフェースを選択する前記ユーザーのジェスチャーを感知する段階と、前記ユーザーの前記ジェスチャーに応答して、前記隠されたグラフィックを表示する段階と、を含むことができる。
前記隠されたグラフィックは、前記少なくとも一つのグラフィックの前方向又は後方向に位置し、前記第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックを表示するための前記ユーザーインターフェースを表示する段階は、前記ユーザーインターフェース上で前記ユーザーの接触地点及び接触解除地点を感知する段階と、前記接触地点及び前記接触解除地点に基づいて前記ユーザーのジェスチャーの方向を決定する段階と、前記前方向又は後方向に位置する前記複数のグラフィックのうちの前記ユーザーのジェスチャーの方向に対応する前記隠されたグラフィックを表示する段階と、を含むことができる。
前記隠されたグラフィックは、前記少なくとも一つのグラフィックの前方向又は後方向に位置し、前記第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックを表示するための前記ユーザーインターフェースを表示する段階は、前記隠されたグラフィックが位置する方向を表す識別子を、前記前方向又は後方向に対応する前記第1領域の一側に表示する段階を含むことができる。
前記第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックを表示するための前記ユーザーインターフェースを表示する段階は、前記少なくとも一つのグラフィックに視覚的なフィードバックを提供する段階を含み、前記第2領域に、前記少なくとも一つのグラフィックに対応する前記コンテンツの集合を表示する段階は、前記第2領域に、前記視覚的なフィードバックが提供された前記少なくとも一つのグラフィックに対応する前記コンテンツの集合を表示する段階を含むことができる。
前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示する段階は、前記少なくとも一つのグラフィックに提供された前記視覚的なフィードバックを除去する段階を含むことができる。
前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示する段階は、前記第2領域に表示された前記コンテンツの集合を非活性化させる段階を含むことができる。
前記複数個のグラフィックは、前記第1領域における前記複数個のグラフィックのそれぞれの位置に応じて、第1グループのグラフィックと第2グループのグラフィックとに区別され、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する段階は、前記第2領域の一部を選択する前記ユーザーのジェスチャーを感知する段階と、前記ユーザーのジェスチャーに応答して、前記拡張された第1領域を元来の領域に縮小する段階と、前記縮小された第1領域に前記第1グループのグラフィックを表示する段階と、を含むことができる。
前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記第2グラフィックを移動する段階は、前記複数個のグラフィックのうちの第1グラフィックを、前記複数個のグラフィックのうちの第2グラフィックの領域に移動する段階と、前記第1グラフィックが所定時間以上移動されない場合に、前記第1グラフィックが移動されて残された領域に、前記第2グラフィックを移動する段階と、を含むことができる。
前記グラフィックは、タブ(tab)メニューでよい。
上記目的を達成するためになされた本発明の一態様によるユーザーインターフェースを提供する携帯用装置は、少なくとも一つのグラフィック及び隠されたグラフィックを表示するためのユーザーインターフェースを表示する第1領域、及び前記少なくとも一つのグラフィックに対応するコンテンツの集合を表示して前記第1領域から区別される第2領域を含むタッチスクリーンと、プロセッサと、メモリーと、を備え、前記プロセッサは、前記第1領域の一部を選択するユーザーのジェスチャーを感知し、前記第1領域を前記第2領域の一部を含むように拡張し、前記ユーザーのジェスチャーに応答して、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示し、前記複数個のグラフィックのうちの第1グラフィックを移動させるユーザーの追加ジェスチャーを感知し、前記ユーザーの追加ジェスチャーに応答して、前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記複数個のグラフィックのうちの第2グラフィックを移動する。
前記プロセッサは、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する場合、前記第2領域から前記第1領域に切り替わった領域に、前記隠されたグラフィックの少なくとも一部を表示することができる。
前記プロセッサは、前記ユーザーインターフェースを選択する前記ユーザーのジェスチャーを感知し、前記ユーザーの前記ジェスチャーに応答して、前記隠されたグラフィックを前記第1領域に表示することができる。
前記プロセッサは、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示する場合、前記少なくとも一つのグラフィックに提供された視覚的なフィードバックを除去することができる。
前記プロセッサは、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示する場合、前記第2領域に表示された前記コンテンツの集合を非活性化させることができる。
前記複数個のグラフィックは、前記第1領域における前記複数個のグラフィックのそれぞれの位置によって、第1グループのグラフィックと第2グループのグラフィックとに区別され、前記プロセッサは、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示する場合、前記第2領域の一部を選択するユーザーのジェスチャーを感知し、前記ユーザーのジェスチャーに応答して、前記拡張された第1領域を元来の領域に縮小し、前記縮小された第1領域に前記第1グループのグラフィックを表示することができる。
前記プロセッサは、前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記第2グラフィックを移動する場合、前記複数個のグラフィックのうちの第1グラフィックを、前記複数個のグラフィックのうちの第2グラフィックの領域に移動し、前記第1グラフィックが所定時間以上移動されない場合に、前記第1グラフィックが移動されて残された領域に、前記第2グラフィックを移動することができる。
前記グラフィックは、タブ(tab)メニューでよい。
上記目的を達成するためになされた本発明の一態様による携帯用装置におけるユーザーインターフェースを提供する方法をコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体であって、前記方法は、第1領域に、少なくとも一つのグラフィック及び隠されたグラフィックを表示するためのユーザーインターフェースを表示する段階と、前記第1領域から区別される第2領域に、前記少なくとも一つのグラフィックに対応するコンテンツの集合を表示する段階と、前記第1領域の一部を選択するユーザーのジェスチャーを感知する段階と、前記第1領域を前記第2領域の一部まで拡張する段階と、前記ユーザーのジェスチャーに応答して、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示する段階と、前記複数個のグラフィックのうちの第1グラフィックを移動させるユーザーの追加ジェスチャーを感知する段階と、前記ユーザーの追加ジェスチャーに応答して、前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記複数個のグラフィックのうちの第2グラフィックを移動する段階と、を有する。
本発明の携帯用装置のユーザーインターフェース提供方法及び装置によれば、スクリーン上でユーザーインターフェースを介して、ユーザーのジェスチャーが他の領域に入力されると、ユーザーのジェスチャーが入力された各領域に対応する機能が実行され、ユーザーの入力を、より効率的に行うことができる。
上記各態様及び/又は他の態様は、図面と共に実施形態の以下の説明によってより明らかになるであろう。
一実施形態によるタッチスクリーンを備える装置を示すブロック図である。 一実施形態によるセンサーコントローラと種々のセンサーとの接続を示すブロック図である。 一実施形態による装置のメモリー構成の一例を示す図である。 一実施形態によるタッチスクリーンを備える装置のスクリーン構成の一例を示す図である。 一実施形態による装置のユーザーインターフェースを示す図である。 一実施形態によるユーザーインターフェースの動作の一例を示す図である。 一実施形態によるユーザーインターフェースの動作の一例を示す図である。 一実施形態によるユーザーインターフェースの動作の一例を示す図である。 一実施形態による隠されたグラフィックを提供する過程を示す図である。 一実施形態による隠されたグラフィックを提供する過程を示す図である。 一実施形態による隠されたグラフィックを提供する過程を示す図である。 一実施形態による隠されたグラフィックを提供する過程を示す図である。 一実施形態による少なくとも一つのグラフィック及び隠されたグラフィックを提供する過程を示す図である。 一実施形態による少なくとも一つのグラフィック及び隠されたグラフィックを提供する過程を示す図である。 一実施形態による複数個のグラフィックの少なくとも一つを移動する過程を示す図である。 一実施形態による複数個のグラフィックの少なくとも一つを移動する過程を示す図である。 他の実施形態による複数個のグラフィックの少なくとも一つを移動する過程を示す図である。 他の実施形態による複数個のグラフィックの少なくとも一つを移動する過程を示す図である。 一実施形態による複数個のグラフィックのうちの第1グループのグラフィックを提供する過程を示す図である。 一実施形態による複数個のグラフィックのうちの第1グループのグラフィックを提供する過程を示す図である。 一実施形態による装置のユーザーインターフェースを提供する方法を示すフローチャートである。
以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。
以下の説明では、同一の構成要素には同一の図面符号を共通に使用する。細部の構成要素のように、以下の説明で定義した事項は、実施形態の総合的な理解を助けるために提供する。但し、明確に定義した事項なしに実施形態を具現することもできる。
以下の実施形態を説明するための一参照としてコンピュータシステムが用いられる。当業者には、以下に記述するシステム及び方法を、ユーザーインターフェースを有する任意のディスプレイシステムに適用できることが十分に理解されるであろう。
本明細書で用いる「実施形態」、「例」、「側面」、「例示」などについて、記述した任意の態様(aspect)又はデザインが、他の態様又はデザインよりも良好であるか、又はより利点があると解釈してはならない。
以下に用いる「コンポーネント」、「モジュール」、「システム」、「インターフェース」などの用語は、一般的に、コンピュータ関連エンティティ(computer−related entity)を意味し、例えば、ハードウェア、ハードウェアとソフトウェアとの組み合わせ、又はソフトウェアを意味する。
なお、「又は」という用語は、「排他的論理和(exclusive or)」よりは「包括的論理和(inclusive or)」を意味する。即ち、別に言及しない限り、又は文脈から明確でない限り、「xがa又はbを用いる」という表現は、包括的な自然順列(natural inclusive permutations)のいずれかを意味する。
また、本明細書及び請求項で用いる単数表現(「a」又は「an」)は、別段の言及がない限り、又は単数形態である旨が文脈から明確でない限り、一般に「一つ以上」(one or more)を意味するものと解釈しなければならない。
また、本明細書に用いる「及び/又は」という用語は、列挙した関連アイテムの一つ以上のアイテムの可能な全ての組み合わせを指したり含んだりするものと理解しなければならない。
また、「含む」、「備える」及び/又は「含んでいる」、「備えている」という用語は、該当する特徴、段階、動作、モジュール、構成要素、及び/又はコンポーネントが存在することを意味するものであって、一つ以上の他の特徴、段階、動作、モジュール、構成要素、コンポーネント、及び/又はこれらのグループの存在又は追加を排除するものではない。
また、本明細書で、第1、第2などの用語を様々な構成要素を説明するために用いることがあるが、これらの用語に構成要素が限定されることはない。これらの用語は2以上の構成要素間の区別のために用いるものであって、順序又は優先順位を意味するものとして解釈してはならない。
以下、装置の実施形態について述べる。一実施形態において、装置、装置のためのユーザーインターフェース(UI)、そして当該装置を使用するための関連プロセスを記述する。このような装置は、PDA機能、音楽再生機能、又は電話機能などの他の機能を更に有する装置であり得る。但し、以下に記述する本実施形態による装置、ユーザーインターフェース、及び関連プロセスの全部又は一部は、パーソナルコンピュータ、ラップトップコンピュータ、デジタルTVのような一般的なデジタル装置にも適用することができる。
ここで、装置は、電話アプリケーション、ビデオ会議アプリケーション、Eメールアプリケーション、インスタントメッセージングアプリケーション、ブロギングアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、Webブラウジングアプリケーション、デジタル音楽再生アプリケーション、又はデジタルビデオ再生アプリケーションのうちの一つ以上の様々なアプリケーションを支援することができる。
上記の様々なアプリケーションは、例えば、物理的又は仮想のユーザーインターフェースを用いることができる。例えば、ユーザーは、物理的又は仮想のユーザーインターフェースを介して、タッチスクリーン上に表示される情報を、各アプリケーション内で又は一つのアプリケーションから他のアプリケーションへ変更又は移動させることができる。また、装置は、共通の物理的又は仮想のアーキテクチャーを適用した直観的で且つ明瞭な物理的又は仮想のユーザーインターフェースを用いて様々なアプリケーションを支援することができる。
図1は、一実施形態によるタッチスクリーン121を備える装置100を示すブロック図である。
装置100は、一つ以上のプロセッサ(processor)101、メモリー(memory)102、周辺装置インターフェース(peripheral interface)103、入/出力サブシステム(I/O subsystem)110、タッチスクリーン121、センサー122、その他入/出力装置123、RF回路131、オーディオ回路132、電力回路133、及び外部ポート134を備える。これらのコンポーネント同士は、一つ以上の通信バス又は信号線を通じて通信することができる。
図1は、装置100の一例に過ぎず、装置100は、図示するものよりも多い又は少ないコンポーネントを備え得る、2以上のコンポーネントを結合する、又は互いに異なるコンポーネントを含む構成又は配置とすることもできる。図1に示すコンポーネントは、一つ以上の信号処理又はアプリケーションに特化された集積回路を有するハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせとすることができる。
メモリー102には、例えば、高速ランダムアクセスメモリー(high−speed random access memory)、磁気ディスク、SRAM、DRAM、ROM、フラッシュメモリー、又は不揮発性メモリーを用いることができる。メモリー102は、ソフトウェアモジュール、命令語集合、又はその他の様々なデータを格納する。また、プロセッサ101及び周辺装置インターフェース103のような他のコンポーネントによるメモリー102へのアクセスはプロセッサ101により制御される。
周辺装置インターフェース103は、装置100の入力及び/又は出力周辺装置を一つ以上のプロセッサ101及びメモリー102に統合する。プロセッサ101は、メモリー102に格納されたソフトウェアモジュール又は命令語集合を実行することで、様々な機能を行い、データを処理する。
RF(radio frequency)回路131は、電磁気信号(electromagnetic signal)としても知られたRF信号を送受信する。RF回路131は、電気信号を電磁気信号に変換し、電磁気信号を電気信号に変換し、電磁気信号を用いて通信ネットワーク又は他の通信装置と通信することができる。RF回路131は、このような機能を行うためのよく知られた回路を備え、回路の例には、アンテナシステム、RF送受信器、一つ以上の増幅器、チューナー、一つ以上の発振器(oscillator)、デジタル信号処理器、CODECチップセット、加入者識別モジュールSIMカード、メモリーなどを含むが、これらに限定されるわけではない。RF回路131は、セルラー電話ネットワーク、無線LAN(local area network)及び/又はMAN(metropolitan area network)などの無線ネットワーク、イントラネット及び/又はワールドワイドウェブ(WWW)とも呼ばれるインターネットのようなネットワーク、及びその他の装置と無線通信により通信することができる。無線通信としては、GSM(登録商標)(Global System for Mobile Communications)、EDGE(Enhanced Data GSM Environment)、W−CDMA(wideband code division multiple access)、CDMA(code division multiple access)、TDMA(time division multiple access)、Bluetooth(登録商標)、IEEE802.19、IEEE802.20、IEEE802.11g及び/又はIEEE802.11nなどのWi−Fi(Wireless Fidelity)、VoIP(voice over Internet Protocol)、Wi−MAX、LTE(Long Term Evolution)、IMAP(Internet Message Access Protocol)及び/又はPOP(Post Office Protocol)などのEメール用プロトコル、XMPP(eXtensible Messaging and Presence Protocol)、SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions)、IMPS(Instant Messaging and Presence Service)、又はSMS(Short Message Service)などのインスタントメッセージング、又は本発明の出願日当時に開発されていない通信プロトコルを挙げることができる。なお、上記の無線通信に限定されず、無線通信には、他の通信標準、プロトコル及び技術を用いることもできる。
オーディオ回路132は、スピーカー及び/又はマイクロホンを用いてユーザーと装置100とのオーディオインターフェースを提供する。オーディオ回路132は、周辺装置インターフェース103からオーディオデータを受信し、オーディオデータを電気信号に変換し、電気信号をスピーカーに送信する。スピーカーは、電気信号を可聴音波(human−audible sound wave)に変換する。なお、オーディオ回路132は、音波から変換された電気信号を、マイクロホンを介して受信する。オーディオ回路132は、電気信号をオーディオデータに変換し、その処理のために、オーディオデータを周辺装置インターフェース103に送信することができる。周辺装置インターフェース103は、オーディオデータをメモリー102から検索し、またRF回路131に送信することができる。一側面(aspect)によれば、オーディオ回路132は、ヘッドセットジャック(headset jack)を更に備えることができる。ヘッドセットジャックは、例えば、出力、入力両方を有するヘッドセット、又は出力−専用ヘッドホンのような移動式オーディオ入/出力周辺装置とオーディオ回路132との間のインターフェースを提供する。
電力回路133は、装置100のコンポーネントの全部又は一部に電力を供給する。例えば、電力回路133は、電力管理システム、バッテリー又は交流(AC)電源などのような一つ以上の電源、充電システム、電力故障感知回路(Power failure detection circuit)、電力変換器又はインバータ、電力状態表示器、及び電力生成、管理、及び分配のための任意の他のコンポーネントを含むことができる。
入/出力サブシステム110は、タッチスクリーン121、センサー122、又はその他入力制御装置123のような入/出力周辺装置を、周辺装置インターフェース103に統合する。入/出力サブシステム110は、ディスプレイコントローラ111、センサーコントローラ112、又は一つ以上のその他入/出力コントローラ113を含む。他の側面によれば、タッチスクリーン121、センサー122、又はその他入力制御装置123は、入/出力サブシステム100を介さずに周辺装置インターフェース103に統合されてもよい。
他の側面によれば、プロセッサ101、周辺装置インターフェース103、入/出力サブシステム110の少なくとも一つが単一チップ上に具現されてもよく、プロセッサ101、周辺装置インターフェース103、及び入/出力サブシステム110の少なくとも一つの一部が単一チップ上に具現されてもよい。
ディスプレイコントローラ111は、タッチ−感知領域を有するタッチスクリーン121から電気信号を受信し、タッチスクリーン121に電気信号を送信し、或いは送受信の両方を行う。ディスプレイコントローラ111の制御に応じて、タッチスクリーン121は、ユーザーへの視覚的出力を表示する。視覚的出力は、グラフィック、テキスト、アイコン、ビデオ、及びこれらの任意の組み合わせ(以下、「グラフィック」と総称する。)を含む。一側面において、視覚的出力の一部又は全部は、以下で詳細に説明するユーザーインターフェースに対応する。
タッチスクリーン121には、LCD(Liquid Crystal Display)、LPD(Light emitting Polymer Display)、OLED(Organic Light−Emitting Diode)、又はAMOLED(Active−matrix Organic Light−Emitting Diode)の技術が用いられ得るが、その他のディスプレイ技術が用いられてもよい。また、タッチスクリーン121及びディスプレイコントローラ111は、静電容量式技術(capacitive technology)、抵抗式技術(resistive technology)、赤外線技術(infrared technology)、及び表面音波技術(surface acoustic wave technology)を用いることができるが、これらに限定されない、既に公知になっているか、又は今後開発されるタッチ感知技術の任意のものを用いることができる。また、タッチスクリーン121及びディスプレイコントローラ111は、近接センサー配列(proximity sensor array)又はタッチスクリーン121との一つ以上の接触点を判断するためのその他の構成要素を用いて、接触又はその任意の動きや解除を感知する。
ディスプレイコントローラ111は、タッチ−感知領域を有しないスクリーンと結合されてもよい。タッチ−感知領域を有しないスクリーンは、ディスプレイコントローラ111から電気信号を受信してユーザーへの視覚的出力を表示する。タッチ−感知領域を有しないスクリーンには、PDP(Plasma Display Panel)、EPD(Electronic Paper Display)、LCD(Liquid Crystal Display)、LPD(Light emitting Polymer Display)、OLED(Organic Light−Emitting Diode)、又はAMOLED(Active−matrix Organic Light−Emitting Diode)技術を用いることができ、その他のディスプレイ技術を用いてもよい。タッチ−感知領域を有しないスクリーンを用いる装置100には、ユーザーインターフェースとして物理的なキーボード、マウス、物理的なボタンのような入/出力装置を提供することができる。
一つ以上のその他入/出力コントローラ113は、その他入/出力装置123から電気信号を受信するか、又は装置に電気信号を送信する。その他入/出力制御装置123としては、例えば、ボタン、キーボード、タッチパッド、ダイヤル、スライダースイッチ、ジョイスチックを含む。また、その他入/出力コントローラ113は、赤外線ポート、USBポート、及びマウスなどのポインタ装置のうちの任意のものと統合されてもよい。
一側面によれば、その他入力制御装置123は、一つ以上の物理的ボタン又は仮想のボタンを含む。仮想のボタンでは、ボタン及びボタンコントローラがそれぞれタッチスクリーン121及びディスプレイコントローラ111の一部であり得る。一側面において、ボタンは、スピーカー111又はマイクロホン113のボリュームの制御のためのアップ/ダウンボタン、ロックボタン、又はプッシュボタンを含む。例えば、ユーザーがプッシュボタンを短く押すと、タッチスクリーン121がロック解除され、再びタッチスクリーン上にジェスチャーを適用して装置をロック解除するプロセスを開始する。また、ユーザーがプッシュボタンを長く押して装置100への電源をターン−オン又はターン−オフすることもできる。
他の側面によれば、その他入力制御装置123は、一つ以上の物理的キーボード又は仮想のソフトキーボードを含む。キーボードの一例として、標準構成(QWERTY)及び/又は非標準構成のものを用いることができる。仮想のソフトキーボードにおいて、ソフトキーボード及びソフトキーボードコントローラは、それぞれタッチスクリーン121及びディスプレイコントローラ111の一部であり得る。ソフトキーボードは、物理的キーボードのキー数よりも少ない数のグラフィック(又はソフトキー)を有することができる。ユーザーは、ソフトキーボードの一つ以上のグラフィックを選択し、それに応じて一つ以上の該当するシンボルをタッチスクリーン121上に表示する。
更に他の側面によれば、その他入力制御装置123は、特定機能を活性化又は非活性化するためのタッチパッドを含む。一側面において、タッチパッドは、タッチスクリーンと違い、視覚的出力を表示しないタッチ−感知領域を有する。また、タッチパッドは、タッチスクリーン121から分離されたタッチ−感知表面であってもよく、タッチスクリーンにより形成されて拡張されたタッチ−感知表面の一部であってもよい。
図2は、一実施形態によるセンサーコントローラ112と種々のセンサー122との接続を示すブロック図である。
センサーコントローラ112は、センサー122から電気信号を受信し、センサー122に電気信号を送信し、また送受信の両方を行う。センサー122は、光センサー122a、近接センサー122b、加速度センサー122c、GPSセンサー122d、磁気センサー122e、チルトセンサー122f、環境センサー122g、天気センサー122hを含むが、これに限定されない。
一側面によれば、センサー122は、一つ以上の光センサー122aを含む。図2には、入/出力サブシステム110のセンサーコントローラ112に統合された光センサー122aを示す。光センサー122aは、周辺装置インターフェース103に統合されてもよい。光センサー122aは、電荷結合素子(CCD)又は相補型金属酸化膜半導体(CMOS)フォトトランジスタを含むことができる。光センサー122aは、一つ以上のレンズを透過した周囲環境からの光を受信し、光をイメージで表すデータに変換する。光センサー122aは、いわゆるカメラモジュールとも呼ばれるイメージモジュールと共に、スチールイメージ又はビデオをキャプチャーする。他の側面によれば、タッチスクリーンディスプレイが少なくとも一つのスチール(still)イメージ又はビデオを獲得するためのビューファイダーとして用いられるため、光センサー122aは、装置100の後面又は前面の一側に提供される。一側面によれば、ユーザーがタッチスクリーンディスプレイ上で他のビデオ会議の参加者を見る間、ユーザーのイメージをビデオ会議のために獲得できるように、光センサー122aは、装置100の前面に提供されてもよい。他の側面によれば、一つの光センサー122aがビデオ会議のスチールイメージ又はビデオを獲得できるように、ユーザーが、例えば装置ハウジングのレンズ及びセンサーを回転させることによって光センサー122aの位置を変更してもよい。また、装置100は、光センサー122aから光量を感知し、光量に対応する値を用いてタッチスクリーン121の特定領域の明るさを調節し、またタッチスクリーン121上のグラフィックの明るさを調節する。
一側面によれば、センサー122は、一つ以上の近接センサー(proximity sensor)122bを含む。図2には、入/出力サブシステム110のセンサーコントローラ112に統合された近接センサー122bを示す。或いは、近接センサー122bは、周辺装置インターフェース103に統合されてもよい。近接センサー122bは、装置100の近くに物体があるか否かを感知する。例えば、近接センサー122bは、物体が感知されたか否かをOn又はOff値で提供する。一側面によれば、装置100は、ユーザーが電話をしている場合のように、装置100がユーザーの耳に近接される場合、近接センサー122bによってタッチスクリーン121を消すことで不必要なバッテリー消耗を防止することができる。
他の側面によれば、センサー122は、一つ以上の加速度センサー(accelerometers)122cを含む。図2には、入/出力サブシステム110のセンサーコントローラ112に統合された加速度センサー122cを示す。或いは、加速度センサー122cは、周辺装置インターフェース103に統合されてもよい。加速度センサー122cは、装置100の速度の変化又は装置の方向を感知する。例えば、加速度センサー122cは、(X,Y,Z)の3軸において装置100の加速ベクトル値を測定する。加速度センサー122cは、3軸に対応する時間当たりの変位値を提供する。一側面によれば、タッチスクリーン121上の情報を、一つ以上の加速度センサー122cから受信したデータの分析に基づいて縦表示又は横表示で表示する。
他の側面によれば、センサー122は、一つ以上のGPSセンサー(GPS sensor)122dを含む。図2には、入/出力サブシステム110のセンサーコントローラ112に統合されたGPSセンサー122dを示す。或いは、GPSセンサー122dは、周辺装置インターフェース103に統合されてもよい。GPSセンサー122dは、少なくとも一つの衛星信号を受信し、受信した信号を処理して地球上における装置100の位置を測定する。例えば、GPSセンサー122dは、測定された値に基づいて装置100の緯度、経度、高度の値を提供する。例えば、GPSセンサー122dは、緯度値として−90度(degrees)から+90度までの値を提供し、経度値として−180度から+180度までの値を提供する。一側面において、GPSセンサー122dから受信したデータの分析に基づいてタッチスクリーン121上に装置100の地球上の位置を表示する。
他の側面によれば、センサー122は、一つ以上の磁気センサー(Magnetic sensor)122eを含む。図2は、入/出力サブシステム110のセンサーコントローラ112に統合された磁気センサー122eを示す。或いは、磁気センサー122eは、周辺装置インターフェース103に統合されてもよい。例えば、磁気センサー122eは、地球で発生する磁場の強度又は変化を測定し、測定された信号を処理することで、装置100の方向値を決定する。例えば、磁気センサー122eは、測定された値に基づいて(X,Y,Z)の3軸の値で磁場の強度及び変化を提供する。一側面において、装置100は、磁気センサー122eから提供された値を用いて、タッチスクリーン121上の所定のアイコンの回転を変更する。
他の側面によれば、センサー122は、一つ以上のチルトセンサー(tilt sensor)122fを含む。図2には、入/出力サブシステム110のセンサーコントローラ112に統合されたチルトセンサー122fを示す。或いは、チルトセンサー122fは、周辺装置インターフェース103に統合されてもよい。チルトセンサー122fは、一つ以上の加速度センサーと一つ以上の磁気センサーとで構成することができる。チルトセンサー122fは、これらのセンサーから測定された(X,Y,Z)の3軸の値を用いて、例えば、方位(azimuth)、ピッチ(pitch)、ロール(roll)値を提供する。例えば、チルトセンサー122fは、方位値として0度(degrees)から360度までの値を提供する。また、ピッチ値として−180度から+180度までの値を提供する。また、ロール値として−90度から+90度までの値を提供する。一側面による装置100は、チルトセンサー122fを用いて、装置100を把持して動くユーザーのジェスチャーを感知する。
他の側面によれば、センサー122は、一つ以上の環境センサー(Ambient sensor)122gを含む。図2には、入/出力サブシステム110のセンサーコントローラ112に統合された環境センサー122gを示す。或いは、環境センサー122gは、周辺装置インターフェース103に統合されてもよい。環境センサー122gは、装置100の周辺環境における温度、湿度、照度などを測定する。また、環境センサー122gは、測定された値を時間単位で獲得する。例えば、環境センサー122gは、湿度を0%から100%までの値で提供する。また、温度を華氏又は摂氏単位で提供する。また、照度を0から10までのレベル値で提供する。一側面において、装置100は、環境センサー122gを用いて獲得した装置周辺の環境値をタッチスクリーン121上に提供する。
他の側面によれば、センサー122は、一つ以上の天気センサー(Weather sensor)122hを含む。図2には、入/出力サブシステム110のセンサーコントローラ112に統合された天気センサー122hを示す。或いは、天気センサー122hは、周辺装置インターフェース103に統合されてもよい。天気センサー122hは、湿度、温度、又は天気に関連する情報を提供する。特定日又は時間に関連する天気情報は、外部のサーバーから獲得することができる。サーバーは、ユーザーの位置に関する情報に基づいて、天気に関連する情報を提供する。一側面において、装置100は、位置情報を含むhttp要請信号をサーバーに送信する。サーバーは、装置100の位置情報に基づいて、該位置における天気に関連する情報を検索し、検索された情報をXML(eXtensible Markup Language)文書として装置100に提供する。例えば、天気センサー122hは、湿度を0%から100%までの値で提供する。また、温度を華氏又は摂氏単位で提供する。また、天気に関連する条件(condition)を整数値で提供する。
図1を再び参照すると、装置100は、タッチスクリーン121(又は、タッチパッド)のようなタッチ−感知領域を有するスクリーンを介して所定の機能連携の動作を行うことができる。この場合、タッチスクリーン121上で装置100の動作のための基本的な入力/制御が可能となるため、装置100におけるプッシュボタン、キーボード、ダイヤルなどの物理的入力/制御装置の個数を低減することができる。
タッチスクリーン121を介して所定の機能連携の動作を行うために、タッチスクリーン121上には、ナビゲーションのためのユーザーインターフェースが提供される。一側面によれば、ユーザーがタッチスクリーン121をタッチすると、タッチスクリーン121は、メインメニュー又はルートメニューのようなユーザーインターフェースを提供する。他の側面において、装置100は、ユーザーインターフェースとして物理的プッシュボタン又はその他の物理的入力及び制御装置を共に提供することもできる。
一側面において、装置100は、タッチ−感知領域を有しないスクリーンを介して所定の機能連携の動作を行うことができる。装置100は、基本的な入力/制御装置として物理的なキーボード、マウス、物理的なボタンのようなユーザーインターフェースを用いることができる。一側面において、ユーザーが物理的なユーザーインターフェースを操作する場合、装置100は、ユーザー操作に対応する視覚的出力を、タッチ−感知領域を有しないスクリーンを介して表示する。
他の側面によれば、装置100は、タッチ−感知領域を有するタッチスクリーン121(又はタッチパッド)と、タッチ−感知領域を有しないスクリーンとの両方を介して所定の機能連携の動作を行うことができる。装置100は、基本的な入力/制御装置として物理的又は仮想のユーザーインターフェースの少なくとも一つを用いる。一側面において、ユーザーが物理的ユーザーインターフェースをタッチするか、又は仮想のユーザーインターフェースを操作する場合、装置100は、物理的又は仮想のインターフェースと相互作用してユーザーのタッチ又は操作に対応する結果を、タッチ−感知領域を有するタッチスクリーン121又はタッチ−感知領域を有しないスクリーンの少なくとも一方を介して表示する。
タッチスクリーン121は、装置100とユーザーとの間のユーザーインターフェースを提供する。例えば、タッチスクリーン121は、ハプティック(haptic)接触又はタクティル(tactile)接触に基づいてユーザーからの入力を感知するタッチ−感知表面、センサー又はセンサー集合を備える。タッチスクリーン121及びディスプレイコントローラ111は、タッチスクリーン121上の接触又は接触の任意の動き(movement)や接触の解除を感知し、感知された接触を、タッチスクリーン121上に表示されたユーザーインターフェース(グラフィック、一つ以上のソフトキー、アイコン、Webページ、又はイメージ)との相互作用に変換する。一側面によれば、タッチスクリーン121とユーザーとの接触地点は、ユーザーの指、スタイラスのような任意の物体又は附属物(appendage)に対応する。一側面において、ユーザーインターフェースは、主に指による接触及びジェスチャーを用いて作動するように設計されるが、このような指による接触及びジェスチャーは、スタイラスによる入力に比べてタッチスクリーン121上での接触面積がより広いため、正確性に劣ることがある。この場合、装置100は、概略的な(rough)指による入力を、ユーザーの所望するアクションを行うための正確なポインタ又はカーソルの位置や命令として分析する。
タッチスクリーン121は、ユーザーインターフェースとして一つ以上のグラフィックを表示する。一側面において、ユーザーは、一つ以上の指を用いて一つ以上のグラフィックに接触(タッチ)し、それを選択する。他の側面において、ユーザーが一つ以上のグラフィックとの接触を解除すると、該一つ以上のグラフィックが選択される。一側面によれば、ユーザーのジェスチャーは、グラフィック又はグラフィックに関連する領域を選択するためのタッチ(touch)、グラフィックに関連するアプリケーションを実行するか又は他のグラフィックが提供されるようにタッチして解除(release)するジェスチャーであるタップ(tap)、グラフィックを拡大又は縮小するためのダブルタップ(double tap)、グラフィックに関連する詳細メニューが提供されるように所定の時間タッチを保持するホールド(hold)、アイテム目録をスクロールするためにタッチ及び移動(左から右へ、右から左へ、下から上へ、又は上から下へ)してタッチを解除するタッチアンドムーブ(touch and move)、グラフィックに関連する上位又は下位目録への移動又はその他の有用な機能を実行するためにタッチ及び移動して短い時間内にタッチを解除するフリック又はスワイプ(Flick or Swipe)、グラフィックを所望の位置に移動させるためのドラッグアンドドロップ(drag and drop)のようなジェスチャーを含む。一側面において、グラフィックとの偶然な接触によってはそのグラフィックが選択されないようにすることができる。例えば、選択に対応するジェスチャーがタップである場合に、所定のアプリケーションに関連するグラフィックの上を通りすぎるスワイプジェスチャーによっては、当該アプリケーションが選択されないようにする。他の側面において、装置100は、正確なユーザージェスチャーを判断するために、ヒューリスティック(heuristic)手法を適用してもよい。一側面によれば、ユーザージェスチャーの累積データ、ユーザーの特徴、ユーザーのパターンなどを、ヒューリスティック手法を用いて発見及び分析し、これに基づいて装置100はユーザージェスチャーの意図を決定する。
一側面によれば、タッチスクリーン121は、ユーザーインターフェースとして仮想のソフトキーボードを表示する。ユーザーは、ソフトキーボードの一つ以上のグラフィック(又はソフトキー)を選択し、これに応じて一つ以上の該当するシンボルをタッチスクリーン121上に表示する。ソフトキーボードの実施形態は適応的(adaptive)である。例えば、表示されたグラフィックは、一つ以上のグラフィックの選択又は一つ以上の該当するシンボルの選択を行うユーザーアクションに対応して調整される。装置100の一つ以上のアプリケーションは、共通のキーボード又は異なるキーボードを用いる。これにより、使用されるソフトキーボードは、アプリケーションの少なくとも一部、又は各ユーザーにカスタマイズされるものとすることができる。例えば、一つ以上のソフトキーボードの実施形態は、各ユーザーの単語使用記録に基づいてユーザー毎にカスタマイズされる。ソフトキーボードは、ユーザーが一つ以上のグラフィックを選択し、それに応じた一つ以上のシンボルを選択する時に、ユーザーが失敗する確率を減らすように調整される。
以下、図3を参照して、装置100に備えられたメモリー102構成の一例をより詳細に説明する。
図3は、一実施形態による装置100のメモリー102構成の一例を示す図である。
一側面によれば、メモリー102に格納されたソフトウェアコンポーネントは、オペレーティングシステム(operating system:OS)210、通信モジュール(又は命令語集合)261、ソーシャルネットワーキング(social networking)モジュール(又は命令語集合)263、コマース(commerce)サービスモジュール(又は命令語集合)265、位置基盤サービス(Location Based Service:LBS)モジュール(又は命令語集合)267、インタラクション(interaction)モジュール(又は命令語集合)269、センサーモジュール(又は命令語集合)271、グラフィックモジュール(又は命令語集合)273、テキスト入力モジュール(又は命令語集合)275、及びアプリケーション(又は命令語集合)220を含む。
一側面によれば、通信モジュール261、ソーシャルネットワーキングモジュール263、コマースサービスモジュール265、LBSモジュール267、インタラクションモジュール269、センサーモジュール271、グラフィックモジュール273、又はテキスト入力モジュール275は、OS210に含まれるものでもよい。例えば、通信モジュール261、ソーシャルネットワーキングモジュール263、コマースサービスモジュール265、LBSモジュール267、インタラクションモジュール269、センサーモジュール271、グラフィックモジュール273、又はテキスト入力モジュール275は、アプリケーション220がハードウェア又はソフトウェアコンポーネントにアクセスするためのインターフェースを提供するか、又はアプリケーション220に関連するシステムタスクを制御する。
他の側面によれば、通信モジュール261、ソーシャルネットワーキングモジュール263、コマースサービスモジュール265、LBSモジュール267、インタラクションモジュール269、センサーモジュール271、グラフィックモジュール273、又はテキスト入力モジュール275は、アプリケーション220に含まれるものでもよい。例えば、通信モジュール261、ソーシャルネットワーキングモジュール263、コマースサービスモジュール265、LBSモジュール267、インタラクションモジュール269、センサーモジュール271、グラフィックモジュール273、又はテキスト入力モジュール275は、ソフトウェアコンポーネント及び/又はハードウェアコンポーネントのドライバを備え、OS210と連動して関連するソフトウェアコンポーネント及び/又はハードウェアコンポーネントの動作を行う。
OS210は、ダーウィン(Darwin)、Linux(登録商標)、ユニックス、OSX、Windows(登録商標)、bada(大韓民国の三星電子(株)から提供されるモバイルOSの一つ)、又はVxWorksなどのエンベデッドOSのように、メモリー管理、格納装置制御、電力管理などの一般的なシステムタスクを制御して管理するための様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェア及びソフトウェアコンポーネント間の通信を可能にする。
一実施形態によるOS210は、カーネル(kernel)211、デバイス(device)213、サービス(service)215、及びフレームワーク(framework)217の階層(layer)を含む。
カーネル211は、装置100のハードウェア構成を基盤とするリアルタイム(real−time)OS又はLinux(登録商標)カーネルなどを含むことができる。
デバイス213は、デバイスOS、グラフィックとマルチメディア機能、及び通信コンポーネントにより提供される装置100のプラットホーム機能を含む。例えば、プラットホーム機能は、電話方式(telephony)、セキュリティ(security)、グラフィックス(graphics)、又はイベントとウィンドウ管理を含む。
サービス215は、アプリケーションエンジン及びサーバー支援(server−assisted)コンポーネントにより提供されるサービス優先の機能を含む。連絡(contact)又はメッセージングエンジンを含むサービス215によりアプリケーションエンジンが提供される。例えば、サーバー支援機能は、badaサーバーのサービスコンポーネントと相互接続するWebサービスコンポーネントにより提供される。このように、アプリケーションがサーバー支援機能を用いて、地理的情報又はユーザー存在(presence)情報などのように遠隔サーバーに格納されるデータを管理することができる。サーバー支援機能へのアクセスは、フレームワーク217のAPI(Application Programming Interface)を介して行うことができる。
フレームワーク217は、badaのオープンAPIフレームワークを含むことができる。フレームワーク217は、下部階層の機能にアクセスできるインターフェース及びクラスを含み、またアプリケーションフレームワークも含む。アプリケーションフレームワークは、アプリケーションライフサイクル(life−cycle)管理、イベントハンドリング、又はアプリケーション制御のための機能を提供する。上記インターフェースは、オープンAPIフレームワークにより提供され得る。オープンAPIフレームワークは、データのハンドリング、ユーティリティ(utilities)、基本的機器機能とアプリケーション状態、又はグラフィックユーザーインターフェースを生成するためのアプリケーションに必要な基本的インターフェースを含む。また、APIフレームワークは、下部階層から提供されるサービスへのアクセスを可能にするインターフェースを含み、またユーザーインターフェース、マルチメディア、通信、国際化(internationalization)、位置、セキュリティ、コマース、又はWebブラウジングなどに関連するインターフェースも含む。
通信モジュール261は、少なくとも一つの外部ポート134を通じて他の装置との通信を可能にし、RF回路131及び/又は外部ポート134により受信されたデータを処理するための様々なソフトウェアコンポーネントを含む。USB、ファイヤワイヤ(FireWire)などの外部ポート134は、他の装置に直接接続されるか、又はインターネット、無線LANなどのネットワークを通じて間接的に接続される。
ソーシャルネットワーキングモジュール263は、少なくとも一つの外部ポート134を通じて他の装置又はネットワークサーバーとの通信を可能にし、RF回路131及び/又は外部ポート134により受信されたデータを処理するための様々なソフトウェアコンポーネントを含む。ソーシャルネットワーキングモジュール263は、通信モジュール261に連動して他のアプリケーションユーザーと共にユーザー存在(presence)情報を共有し、ユーザープロファイルを管理する。また、ソーシャルネットワーキングモジュール263は、アプリケーション220に、他のアプリケーションユーザーと共にユーザー存在(presence)情報を共有してユーザープロファイルを管理できるインターフェースを提供することもできる。また、ソーシャルネットワーキングモジュール263又はソーシャルネットワーキングモジュール263のインターフェースは、アプリケーションユーザーが集結できるようにするメカニズムを含むことができ、インターネット上のソーシャルネットワーキングサービスを用いることができる。
コマースサービスモジュール265は、少なくとも一つの外部ポート134を通じて他の装置又はネットワークサーバーとの通信を可能にし、RF回路131及び/又は外部ポート134により受信されたデータを処理するための様々なソフトウェアコンポーネントを含む。コマースサービスモジュール265は、通信モジュール261と連動することができる。コマースサービスモジュール265は、通信ネットワークを通じてユーザーが商品(例えば、ゲームアイテム又はアプリケーションなど)を売買できるように作動し、このような動作を支援するインターフェースをアプリケーション220に提供する。
LBSモジュール267は、少なくとも一つの外部ポート134を通じて他の装置又はネットワークサーバーとの通信を可能にし、RF回路131及び/又は外部ポート134により受信されたデータを処理するための様々なソフトウェアコンポーネントを含む。LBSモジュール267は、通信モジュール261と連動することができる。LBSモジュール267は、通信ネットワークを通じて地理的情報(例えば、ランドマーク(landmark)、商店、地図データ、又は地理的コーディングサービス)を送受信し、ユーザー又はネットワークサーバーに提供するために地理的情報を処理する。また、LBSモジュール267は、アプリケーション220に、地理的情報を使用できる機能を含むインターフェースを提供する。
インタラクションモジュール269は、ユーザーの動き(motion)又はタッチ(又はタッチジェスチャー)に対する応答、ユーザーの形状(顔又は身体)などの感知に対する応答、又は予め設定されたイベントに対する応答として、ユーザーに視覚的、聴覚的又は触覚的フィードバックを提供する。
例えば、インタラクションモジュール269は、タッチスクリーン121からタッチを受信すると、その他入/出力コントローラ113及び/又はその他入/出力装置123に含まれる振動装置(図示せず)を通じてタッチの接触と接触解除、接触点の大きさ、速度、加速度、方向、大きさの変化、又は方向の変化によって、ユーザーに触覚的応答をフィードバックするためのハプティック(Haptic)機能として様々な振動パターンを提供するソフトウェアコンポーネントを含む。インタラクションモジュール269は、ユーザーに振動がより一層感じられるようにグラフィックモジュール273又はディスプレイコントローラ111と共にスクリーンが揺れる効果を提供することもできる。予め設定されたイベントとしてインスタントメッセージングモジュール229から新しいメッセージが受信された場合、インタラクションモジュール269は、その他入/出力コントローラ113、振動装置(図示せず)、グラフィックモジュール273、又はディスプレイコントローラ111と共に振動又は視覚的フィードバックを提供する。
インタラクションモジュール269は、センサーコントローラ112、センサー122に含まれる光センサー122a及び/又はセンサーモジュール271と共に、ユーザーの姿を認識し、装置100に登録されたユーザーであると判断した場合に、オーディオ回路132、グラフィックモジュール273、又はディスプレイコントローラ111と連動して、予め設定された音/音声又は予め設定された視覚的刺激を含むフィードバックを提供する。インタラクションモジュール269は、アプリケーション220に上記フィードバックを使用できるようにするインターフェースを提供する。
センサーモジュール271は、光センサー122a、近接センサー122b、加速度センサー122c、GPSセンサー122d、磁気センサー122e、チルトセンサー122f、環境センサー122g、又は天気センサー122hから獲得したデータを処理し、また当該データをアプリケーション220が使用できるようにするインターフェースを提供する。
例えば、センサーモジュール271は、GPSセンサー122dで受信したデータを用いて装置100の位置情報を獲得し、この位置情報を様々なアプリケーションで使用できるように提供する。センサーモジュール271は、GPSセンサー122dを介して獲得した位置情報を位置ベースの通話のために電話モジュール223に提供し、また写真/ビデオなどのメタデータとしてカメラモジュール233及び/又はブロギング(blogging)モジュール231に提供する。センサーモジュール271は、GPSセンサー122dを介して獲得した位置情報を、地図モジュール243又はナビゲーションなどの位置ベースのサービスを提供するアプリケーション及び/又はLBSモジュール267に提供する。
センサーモジュール271は、環境センサー122g又は天気センサー122hから獲得したデータを天気モジュール247に提供する。センサーモジュール271は、グラフィックの明るさを変更し、スクリーンのバックライト(backlight)の明るさを調整するように、光センサー122aから獲得したデータを、グラフィックモジュール273又はディスプレイコントローラ111に提供する。
グラフィックモジュール273は、表示されたグラフィックの明るさを変更するためのコンポーネントを含み、タッチスクリーン121上のグラフィックをレンダリングし、表示するための様々な周知のソフトウェアコンポーネントを含む。ここで用いられる「グラフィック」という用語は、テキスト、Webページ、ソフトキーを含むユーザーインターフェースオブジェクトなどのアイコン、デジタルイメージ、ビデオ、及びアニメーションを指すが、これらに限定されず、ユーザーに表示され得る任意のオブジェクトを含むことができる。
テキスト入力モジュール275は、グラフィックモジュール273のコンポーネントであり得る。テキスト入力モジュール275は、様々なアプリケーション(例えば、連絡先モジュール221、Eメールクライアントモジュール227、インスタントメッセージングモジュール229、ブロギングモジュール231、ブラウジングモジュール241、又はテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供するか、又は物理的なキーボード(例えば、Qwertyキーボードなど)の入力モジュールを活性化するインターフェースを提供する。
アプリケーション220は、次のモジュール(又は命令語集合)、又はこれらのサブセット(subset)やスーパーセット(superset)を含む。
アプリケーション220は、連絡先モジュール221(また、住所録又は連絡先目録とも呼ぶ。)、電話モジュール223、ビデオ会議モジュール225、Eメールクライアントモジュール227、インスタントメッセージング(IM)モジュール229、ブロギングモジュール231、スチール及び/又はビデオイメージのためのカメラモジュール233、イメージ管理モジュール235、ビデオプレーヤーモジュール、音楽プレーヤーモジュール、又はビデオプレーヤーモジュールと音楽プレーヤーモジュールとを統合したモジュールであるビデオ/音楽プレーヤーモジュール237、ノートモジュール239、ブラウジングモジュール241、地図モジュール243、暦モジュール245、天気モジュール247、株式モジュール249、計算機モジュール251、アラーム時計モジュール253、辞書モジュール255、検索モジュール257、又はニュースモジュール259を含む。
メモリー102には、アプリケーション220として、ワードプロセシングモジュール、JAVA(登録商標)モジュール、暗号化モジュール、デジタル権限管理モジュール、音声認識(voice recognition)モジュール、又は音声応答(voice replication)モジュールが含まれてもよい。
連絡先モジュール221は、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、及び/又はテキスト入力モジュール275と共に住所録又は連絡先目録の管理に用いる。例えば、連絡先モジュール221は、住所録に名前を追加し、住所録から名前を削除し、電話番号、Eメールアドレス、物理住所、又はその他の情報を名前と関連付け、名前とイメージとを関連付け、名前を分類して整列し、電話モジュール223、ビデオ会議モジュール225、Eメールクライアントモジュール227、又はIMモジュール227による通信を開始し、また通信の開始を可能にするための電話番号又はEメールアドレスを提供する。
電話モジュール223は、RF回路131、オーディオ回路132、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、及び/又はテキスト入力モジュール275と共に作動する。例えば、電話モジュール223は、電話番号に対応する文字列を入力し、連絡先モジュール221の少なくとも一つの電話番号にアクセスし、入力された電話番号を修正し、それぞれの電話番号をダイヤリングし、対話を行い、対話が完了すると接続を解除して電話を切る動作を行う。既に言及したように、無線通信には、複数の通信標準、プロトコル、及び技術の任意のものを用いることができる。
ビデオ会議モジュール225は、RF回路131、オーディオ回路132、タッチスクリーン121、ディスプレイコントローラ111、光センサー122a、センサーコントローラ112、インタラクションモジュール269、グラフィックモジュール273、テキスト入力モジュール275、連絡先モジュール221、及び/又は電話モジュール223と共に、ユーザーと一名以上の他の参加者間のビデオ会議を開始、実行、終了する機能を果たす。
Eメールクライアントモジュール227は、RF回路131、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、及び/又はテキスト入力モジュール275と共にEメールを生成して送受信し、Eメールを管理する。Eメールクライアントモジュール227は、イメージ管理モジュール235及び/又はカメラモジュール233を介して獲得したスチール又はビデオイメージを含むEメールを生成して送受信する。
インスタントメッセージング(IM)モジュール229は、RF回路131、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、及び/又はテキスト入力モジュール275と共に作動する。例えば、インスタントメッセージングモジュール229は、インスタントメッセージに対応する文字列を入力し、既に入力された文字を修正し、それぞれのインスタントメッセージを送信し、インスタントメッセージを受信する。送信及び/又は受信されるインスタントメッセージは、グラフィック、写真、オーディオファイル、ビデオファイル、及び/又はMMS及び/又はEMS(Enhanced Messaging Service)によって支援されるその他の添付物を含む。ここで使用する「インスタントメッセージング(instant messaging)」は、SMS又はMMSにより送信されるメッセージのような電話ベースのメッセージ、及びXMPP、SIMPLE又はIMPSにより送信されるメッセージのようなインターネットベースのメッセージの両方を指す。
ブロギングモジュール231は、RF回路131、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、テキスト入力モジュール275、イメージ管理モジュール235、ブラウジングモジュール241、及び/又はソーシャルネットワーキングモジュール263と共に、テキスト、スチールイメージ、ビデオ、及び/又はその他のグラフィックをブログ(例えば、ユーザーのブログ)に送信し、ブログから受信する。
カメラモジュール233は、タッチスクリーン121、ディスプレイコントローラ111、光センサー122a、センサーコントローラ112、インタラクションモジュール269、グラフィックモジュール273、及び/又はイメージ管理モジュール235と共に作動する。例えば、カメラモジュール233は、スチールイメージ又はビデオストリームを含むビデオをキャプチャーし、これらをメモリー102に格納し、スチールイメージ又はビデオの特性を修正し、スチールイメージ又はビデオをメモリー102から削除する。
イメージ管理モジュール235は、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、テキスト入力モジュール275、及び/又はカメラモジュール233と共に作動する。例えば、イメージ管理モジュール235は、スチール及び/又はビデオイメージを配列し、修正又は操作し、ラベリング(labeling)し、削除し、デジタルスライドショー又はアルバム形態で表示し、格納する。
ビデオ/音楽プレーヤーモジュール237は、ビデオプレーヤーモジュールを含む。ビデオプレーヤーモジュールは、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、RF回路131、及び/又はオーディオ回路132と共に、例えば、タッチスクリーン121、又は外部ポート134を介して接続された外部ディスプレイ上にビデオを表示し、表示又は再生する。
ビデオ/音楽プレーヤーモジュール237は、音楽プレーヤーモジュールを含む。音楽プレーヤーモジュールは、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、オーディオ回路132、RF回路131、及び/又はブラウジングモジュール241と共に、ユーザーがMP3、wma、又はAACファイルなどの少なくとも一つのファイルフォーマットで格納された録音された音楽及びその他のサウンドファイルを再生する。
ノートモジュール239は、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、及び/又はテキスト入力モジュール275と共に、ノート、仕事目録などを生成し、管理する。
ブラウジングモジュール241は、RF回路131、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、及び/又はテキスト入力モジュール275と共に、Webページやその一部、及びWebページにリンクされた添付物及びその他のファイルの検索、リンク、受信及び表示を含むインターネットブラウジングを行う。
地図モジュール243は、RF回路131、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、テキスト入力モジュール275、センサーモジュール271、LBSモジュール267、及び/又はブラウジングモジュール241と共に、例えば、運転方向、特定位置の又は隣接した店及び関連地点に関するデータ、その他の位置ベースのデータなどの地図関連データ、及び地図を受信し、表示し、また修正又は格納する。
暦モジュール245は、RF回路131、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、及び/又はテキスト入力モジュール275と共に、暦及び暦に関連するデータ(例えば、暦エントリー、仕事目録など)を生成し、表示し、また格納する。
天気モジュール247、株式モジュール249、計算機モジュール251、アラーム時計モジュール253、及び/又は辞書モジュール255は、RF回路131、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、テキスト入力モジュール275、通信モジュール261、センサーモジュール271、及び/又はブラウジングモジュール241と共に作動する。これらのモジュールは、それぞれ、天気情報、株式情報、計算機、アラーム時計、又は辞書の機能をユーザーに提供するアプリケーションである。
検索モジュール257は、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、及び/又はテキスト入力モジュール275と共に、少なくとも一つのユーザー指定の検索用語などの少なくとも一つの検索条件とマッチングするメモリー102に格納されたテキスト、音楽、サウンド、イメージ、ビデオ、及び/又はその他のファイルを検索する。
ニュースモジュール259は、タッチスクリーン121、ディスプレイコントローラ111、インタラクションモジュール269、グラフィックモジュール273、RF回路131、通信モジュール261、ソーシャルネットワーキングモジュール263、及び/又はテキスト入力モジュール275と共に作動する。例えば、ニュースモジュール259は、ユーザーにより指定されたWebアドレス、ネットワークアドレス、ニュースチャネル/記事、又はブログに関するテキスト又はイメージなどを含むhtml、xml、RSS形式ファイル、又はDRM(Digital Rights Management)関連ファイルなどのネットワーク又は外部装置上のデータを、当該ネットワーク又は外部装置から受信し、当該ネットワーク又は外部装置からメモリー102にダウンロードし、ユーザーに提供する。
以上で言及したモジュール及びアプリケーションは、それぞれ、以上で説明した少なくとも一つの機能を行うための命令語集合に対応する。このようなモジュール(即ち、命令語集合)は、個別のソフトウェアプログラム、プロシージャ、又はモジュールとする必要はなく、様々な実施形態でこれらのモジュールの様々なサブセットが統合又は再配置される。例えば、ビデオ/音楽プレーヤーモジュール237は、単一のモジュールとしてもよく、ビデオプレーヤーモジュールと音楽プレーヤーモジュールとを別個としてもよい。一部の実施形態において、メモリー102は、以上で言及したモジュール及びデータ構造のサブセットを格納することができる。また、メモリー102は、言及していない追加のモジュール及びデータ構造を格納することもできる。
図4は、一実施形態によるタッチスクリーン121を備える装置100のスクリーン構成の一例を示す図である。
一側面によれば、スクリーン400の領域は、状態領域(status area)410、メイン領域(main area)430、及び命令領域(command area)450を含む。
状態領域410は、タッチスクリーン121の上段に提供され、装置100の状態に関連する情報を提供する。例えば、状態に関連する情報としては、接続情報及びシステム/イベント情報を含む。接続情報としては、信号強度411、Wi−Fi接続の有無、Bluetooth(登録商標)接続の有無、電話接続の有無に関連するアイコン又はグラフィックを含む。システム/イベント情報としては、時刻412、バッテリー残量レベル413、実行中のアプリケーション(実行中の音楽又はラジオなど)、メッセージ受信の有無、プロファイル、アラーム設定の有無に関連するアイコン又はグラフィックを含む。これらのアイコンのそれぞれは優先順位を有し、優先順位に従って状態領域410上に左側又は右側のいずれかから順次に位置する。一側面によれば、優先順位の低いアイコンは隠され、優先順位の高いアイコンは常に表示される。
メイン領域430は、タッチスクリーン121上の大部分の領域を占め、装置100から提供される少なくとも一つのコンテンツが表示される。メイン領域430の上段には、少なくとも一つのコンテンツに関連する情報が提供され、少なくとも一つのコンテンツに関連するユーザーインターフェースが提供される。例えば、コンテンツに関連する情報は、コンテンツの題目(title)、前の画面で実行した命令語(command)の名称、現在表示中のコンテンツが含まれるカテゴリーの名称又は位置などを含む。コンテンツに関連するユーザーインターフェースには、コンテンツと同じレベルの他のコンテンツに移動するためのタブ(tab)又はホルダー(folder)などが含まれる。一側面によれば、メイン領域430上で少なくとも一つのコンテンツを対象にスクロールすると、メイン領域430の上段に位置するコンテンツに関連する情報、又はコンテンツに関連するユーザーインターフェースは、スクロールジェスチャーに関係なくメイン領域430上での位置を保持する。
命令領域450は、タッチスクリーン121上の下段に提供され、少なくとも一つのソフトキー451、453、又はオプションメニュー452のようなユーザーインターフェースを提供する。一側面において、命令領域450は、普段、メイン領域430の一部として用いられ、状況(例えば、ユーザーが命令領域450を接触、接触の任意の動きや接触の解除をする場合)に応じてソフトキー451、453、又はオプションメニュー452を提供する。ソフトキー451、453は、実行中のアプリケーションに関連する有用な機能を行うために提供される。例えば、ソフトキー451、453は、検索機能、前の画面に戻る機能、実行中の作業を取消す機能、新しいカテゴリーを追加する機能を含む。ソフトキー451、453は、主に、命令領域450上の左側又は右側のいずれかに提供され、実行可能な機能の数に比例して一つ以上のキーが提供される。ソフトキー451、453は、様々なグラフィック、例えばアイコン又はテキストのようなユーザーに直観的で且つ理解しやすい形態で提供される。オプションメニュー452は、メイン領域430上に表示されたコンテンツ又は実行中のアプリケーションに関連するオプションを提供する。例えば、ユーザーがオプションメニュー452を選択する場合、オプションメニュー452は、メイン領域430上に一つ以上のシンボルを表示できるソフトキーボードを提供するか、又はメイン領域430上にコンテンツに関連する実行可能な一つ以上の機能又は詳細情報を提供する。
装置100は、仮想のユーザーインターフェースに加えて、一つ以上の物理的ユーザーインターフェースを備える。一側面によれば、装置100は、パワー/ロック(Power/Lock)ボタン、ホーム(Home)ボタン、ボリュームアップ(volume up)ボタン、ボリュームダウン(volume down)ボタンを含む。パワー/ロックボタンは、装置100をロック又は解除し、また長く押した場合に、装置の電源をオン又はオフする。ホーム(Home)ボタンは、装置100上で実行可能なアプリケーション集合のうちの任意のアプリケーション(例えば、メインページアプリケーション)にナビゲーションする。ボリュームアップボタン、ボリュームダウンボタンは、それぞれボリュームを増加させ、ボリュームを減少させる。他の実施形態において、装置100は、送信(send)ボタン、カメラ(camera)ボタン、終了(end)ボタンを更に備える。送信ボタンは、電話ログ(log)目録を表示し、また長く押した場合に、最近に受信した電話呼への接続を実行する。カメラボタンは、カメラアプリケーションを実行し、装置100の光センサー122aを用いて撮影を行う。終了ボタンは、現在実行中のアプリケーションを終了してメインページに戻り、またユーザーが通話中の場合に、電話接続を終了する。上述したそれぞれのボタンに対応する機能の一集合は、同じ物理的ボタンを用いて行われてもよく、一つのボタンに対応する機能が互いに異なる物理的ボタンで分離されて行われてもよい。また、物理的なボタンの機能は、タッチスクリーン121上の仮想のボタンとしてもよい。他の実施形態において、装置100は、物理的ユーザーインターフェースとして、オーディオ回路132を通じて一部機能の活性化又は非活性化のための口頭入力(verbal input)を受信する。
以下、装置100上に具現可能なユーザーインターフェース及び関連プロセスの実施形態について述べる。
図5は、一実施形態による装置100のユーザーインターフェースを示す図である。
図5のユーザーインターフェースは、図4のメイン領域430に含まれる。図5は、第1領域510及び第2領域530を有する。第1領域510は、少なくとも一つのコンテンツに関連する情報を提供し、また少なくとも一つのコンテンツに関連するユーザーインターフェースを含む。例えば、複数個のグラフィック511〜513が第1領域510に提供され、ユーザーが複数個のグラフィック511〜513のいずれかを選択する場合、選択されたグラフィックに対応するコンテンツの集合が第2領域530に表示される。ここで、グラフィックは、例えば、タブ(tab)メニューである。
複数個のグラフィック511〜513のいずれかのグラフィックに対応するコンテンツの集合が第2領域530上に表示される場合、グラフィックには視覚的なフィードバックが提供される。例えば、グラフィックの全体又は一部の色が変わる、グラフィック周辺がハイライトされる、又はグラフィックの位置が移動する。
図6〜図8は、一実施形態によるユーザーインターフェースの動作の一例を示す図である。
一実施形態において、図6の参照番号610は、グラフィック611に対応するコンテンツの集合として複数個のアイテム612を示す。ここで、複数個のアイテム612は、連絡先モジュール221、電話モジュール223などの実行によって提供される。
他の実施形態において、図7の参照番号630は、グラフィック631に対応するコンテンツの集合としてWebページ632を示す。ここで、Webページ632は、ブラウジングモジュール241などの実行によって提供される。
更に他の実施例において、図8の参照番号650は、グラフィック651に対応するコンテンツの集合として複数個のサムネイル(thumbnail)652を示す。例えば、複数個のサムネイル652は、カメラモジュール233又はイメージ管理モジュール235などの実行によって提供される。上述した複数個のアイテム612、Webページ632、又はサムネイル652は、所定の方向(例えば、上又は下の方向)に移動するユーザーのジェスチャー613、633、653に対応する方向に移動される。
図9〜図12は、一実施形態による隠されたグラフィックを提供する過程を示す図である。
図9〜図11の参照番号710、730及び750は、一実施形態によって、第1領域510に、少なくとも一つのグラフィック及び隠されたグラフィックを表示するためのユーザーインターフェーススクリーンを示す。例えば、隠されたグラフィックを表示するためのユーザーインターフェースは、第1領域510の全体又は一部である。装置100は、ユーザーインターフェースを選択するユーザーのジェスチャーを感知し、ユーザーのジェスチャーに応答して、隠されたグラフィックの全部又は一部を表示する。
少なくとも一つのグラフィック及び隠されたグラフィックは、所定の順序を有する。図12の参照番号770は、少なくとも一つのグラフィック及び隠されたグラフィックが位置する順序を示す。例えば、少なくとも一つのグラフィック及び隠されたグラフィックの順序は、スタック(Stack)、キュー(queue)、リンクリスト(linked list)などの形態で達成され、装置100のメモリー102に格納される。
図9〜図11のスクリーン710、730、750におけるそれぞれの第1領域には、隠されたグラフィックの位置する方向を示す識別子が含まれる。
一実施形態において、識別子714は、隠されたグラフィック704、705、706、707が、図9のスクリーン710で第1領域の一側に提供された少なくとも一つのグラフィック701、702、703の後方向から表示されることを表す。他の実施形態において、識別子734、735は、隠されたグラフィック701及び702、706及び707が、図10のスクリーン730で第1領域の一側に提供された少なくとも一つのグラフィック703、704、705の前方向又は後方向の少なくとも一方向に表示されることを表す。更に他の実施形態において、識別子754は、隠されたグラフィック701〜704が、図11のスクリーン750で第1領域の一側に提供された少なくとも一つのグラフィック705〜707の前方向から表示されることを表す。これらの識別子714、734、735、754は、三角形、星形、ハート形、指形、矢印形などの様々な形態を有し、これらの例に限定されない。また、ユーザーが識別子を選択する場合、識別子は、例えば他の形態に変わる、色が変わる、又はハイライトのような様々な視覚的なフィードバックが提供されるようにしてもよい。
図9〜図11のスクリーン710、730、及び750における第1領域は、隠されたグラフィックを表示するためのユーザーインターフェースを含む。装置100は、ユーザーインターフェース上でユーザーの接触地点及び接触解除地点を感知し、接触地点と接触解除地点の位置に基づいてジェスチャーの方向を決定する。そして、装置100は、この決定に基づき、ジェスチャーの方向に対応する、隠されたグラフィックを表示する。
一側面によれば、図9のスクリーン710で、ユーザーが第1領域の一部を接触(711)し、接触状態を維持したままで前方向に移動(712)し、接触を解除(713)すると、隠されたグラフィック704〜707が後方向から表示される。他の側面によれば、図10のスクリーン730で、ユーザーが第1領域の一部を接触(731、733)し、接触状態を維持したままで後方向又は前方向に接触を移動(732)し、接触を解除(733、731)すると、隠されたグラフィック701及び702、706及び707が前方向又は後方向から表示される。更に他の一側面において、図11のスクリーン750で、ユーザーが第1領域の一部を接触(751)し、接触状態を維持したままで後方向に接触を移動(752)し、接触を解除(753)すると、隠されたグラフィック701〜704が前方向から表示される。前方向又は後方向から隠されたグラフィックを表示するユーザーのジェスチャーには、フリック(flick)、タッチアンドムーブ(Touch and move)、スワイプ(Swipe)、ドラッグアンドドロップ(drag and drop)などを用いることができ、これに限定されない。
図13及び図14は、一実施形態による少なくとも一つのグラフィック及び隠されたグラフィックを提供する過程を示す図である。
図13のスクリーン810で、装置100は、第1領域820の一部を選択するユーザーのジェスチャー815を感知する。例えば、ユーザーのジェスチャーは、第1領域820の一部を選択するタッチアンドホールド(touch and hold)を含む。
図14のスクリーン850で、装置100は、ユーザーのジェスチャー815に応答して、第1領域820を第2領域840の一部860まで拡張し、拡張された第1領域870に、少なくとも一つのグラフィック821、822、823に加えて、隠されたグラフィック824、825、826も含む複数個のグラフィックを表示する。この場合、隠されたグラフィック824〜826の全部又は一部は、第2領域から第1領域に切り替わった領域860に表示される。この時、隠されたグラフィック824〜826は、少なくとも一つのグラフィック821〜823の下方向に表示される。
装置100が第1領域820の一部を選択するユーザーのジェスチャー815を感知すると、第2領域840に表示されたコンテンツの集合は非活性化される。例えば、装置100は、ユーザーが第2領域840におけるコンテンツの集合のうちの少なくとも一つを選択した状態で、少なくとも一つのコンテンツに関連する動作又は視覚的なフィードバックを提供しない。また、この時、第2領域840におけるコンテンツの集合は、下に移動するか、又はコンテンツ集合の一部が拡張された第1領域860によって覆われる。また、第1領域820内の少なくとも一つのグラフィックに提供された視覚的なフィードバックは除去される。例えば、視覚的なフィードバックが、少なくとも一つのグラフィックの色を第1色から第2色に変更したものである場合、グラフィックの色は再び第1色に戻る。
図15及び図16は、一実施形態による複数個のグラフィックの少なくとも一つを移動する過程を示す図である。
図15のスクリーン910で、装置100は、複数個のグラフィック921、922、923、924、925、926が表示された拡張された第1領域920において、複数個のグラフィック921〜926のうちの少なくとも一つのグラフィック924を選択し、選択されたグラフィック924を移動させるユーザーの追加ジェスチャー915を感知する。装置100は、ユーザーの追加ジェスチャー915に応答して、複数個のグラフィック921〜926のうちの少なくとも一つのグラフィック923を、拡張された第1領域920の一領域に移動する。例えば、装置100は、複数個のグラフィック921〜926のうちの第1グラフィック924を、複数個のグラフィックのうちの第2グラフィック923の領域に移動することができる。ここで、第2グラフィック923は、図13のスクリーン810において表示されたグラフィックの一つであり得、第1グラフィック924は、図13のスクリーン810において隠されたグラフィックの一つであり得る。
図16のスクリーン950で、装置100は、ユーザーの追加ジェスチャー915に応答して、複数個のグラフィック921〜926のうちの少なくとも一つのグラフィック924が第1領域920の一領域に移動された場合、少なくとも一つのグラフィック924が移動されて残された領域に、少なくとも一つのグラフィック924以外の残りのグラフィックのうちの少なくとも一つのグラフィック923を移動する。例えば、装置100は、複数個のグラフィック921〜926のうちの第1グラフィック924が、第1領域920の一領域に移動され、所定時間以上第1グラフィック924が移動されないと、第1グラフィック924が移動されて残された領域に第2グラフィック923を移動する。ここで、第1グラフィック924が所定時間以上移動されないということは、ユーザーが第1グラフィック924を接触したままで移動させ、所定時間同一位置で接触状態を維持する、又は接触状態を解除することを含む。
図17及び図18は、他の実施形態による複数個のグラフィックの少なくとも一つを移動する過程を示す図である。
図17のスクリーン1010で、装置100は、拡張された第1領域1020で複数個のグラフィック1021、1022、1023、1024、1025、1026のうちの少なくとも一つのグラフィック1024を選択し、選択されたグラフィック1024を移動させるユーザーの追加ジェスチャー1015を感知する。
図18のスクリーン1050で、装置100は、ユーザーの追加ジェスチャー1015に応答して、複数個のグラフィックのうちの少なくとも一つのグラフィック1024を第1領域1020の一領域に移動し、グラフィック1024が移動されて残された領域に、グラフィック1024に隣接したグラフィック1023を移動する。隣接したグラフィック1023が移動されて残された領域に、再び隣接したグラフィック1022が押されて移動される。例えば、装置100は、複数個のグラフィック1021〜1026のうちの第1グラフィック1024が第1領域1020の一領域に移動された場合、第1グラフィック1024が移動されて残された領域に、隣接した第3グラフィック1023を移動する。そして、第3グラフィック1023が移動されて残された領域に、隣接した第2グラフィック1022を移動する。
図19及び図20は、一実施形態による複数個のグラフィックのうちの第1グループのグラフィックを提供する過程を示す図である。
図19のスクリーン1110で、装置100は、拡張された第1領域1120に複数個のグラフィック1121、1122、1123、1124、1125、1126が提供された状態で、第2領域1140の一部を選択するユーザーのジェスチャー1115を感知する。この時、複数個のグラフィックは、拡張された第1領域1120内の位置に応じて、第1グループのグラフィック1111と第2グループのグラフィック1112とに分類される。ここで、第1グループのグラフィック1111は、第2グループ1112のグラフィックよりも上位に位置するグループのグラフィックである。一方、例えば、第2領域1140の一部を選択するユーザーのジェスチャー1115は、第2領域1120を選択するタップ(tap)又は接触ジェスチャーなどを含む。
図20のスクリーン1150で、装置100は、ユーザーのジェスチャー1115に応答して、拡張された第1領域1120を元来の領域1160のサイズに縮小し、縮小された第1領域1160に第1グループのグラフィック1111を表示する。この時、第2グループのグラフィック1112は隠され、第2グループのグラフィック1112が提供されることを表す識別子1127が、縮小された第1領域1160の一側に提供される。一方、第1グループのグラフィック1111は、図15でユーザーのジェスチャーに応答して第1グラフィックの領域に移動される第2グラフィック1124を含み得、第2グループのグラフィック1112は、第2グラフィックの領域に移動される第1グループのグラフィック1123を含み得る。
図19及び図20のスクリーン1110及び1150で、装置100の第1領域1120が元来の領域1160のサイズに縮小される場合、複数個のグラフィック1121〜1124のうちの少なくとも一つのグラフィック1121に視覚的なフィードバックが与えられ、一つのグラフィック1121に対応するコンテンツが活性化される。例えば、第1領域1120が拡張されてグラフィック1121の視覚的なフィードバックが除去された場合、第1領域が元の領域1160のサイズに縮小される場合に、フィードバックが除去されたグラフィック1121に再び視覚的なフィードバックが与えられる。また、第1領域1120が拡張されてグラフィック1121に関連する第2領域のコンテンツの集合が非活性化された場合、第1領域が元の領域1160のサイズに縮小される場合に、グラフィック1121に関連するコンテンツの集合が再び活性化されてユーザーの入力を受信する。
図21は、一実施形態による装置100のユーザーインターフェースを提供する方法を示すフローチャートである。
装置100は、第1領域に、少なくとも一つのグラフィック及び隠されたグラフィックを表示するためのユーザーインターフェースを表示する(段階1201)。装置100は、第1領域から区別される第2領域に、少なくとも一つのグラフィックのうちの一つに対応するコンテンツの集合を表示する(段階1202)。また、装置100は、隠されたグラフィックが配置される方向を表す識別子を、第1領域の一側に表示する。
装置100が、ユーザーインターフェースを選択するユーザーのジェスチャーを感知する場合、装置100は、ユーザーインターフェース上でユーザーの接触地点及び接触解除地点を感知する。そして、装置100は、接触地点及び接触解除地点に基づいてジェスチャーの方向を決定し、この方向に対応する、隠されたグラフィックを表示する。
装置100は、第1領域の一部を選択するユーザーのジェスチャーを感知する(段階1203)。装置100は、ユーザーのジェスチャーに応答して、第1領域を第2領域の一部まで拡張し、拡張された第1領域に少なくとも一つのグラフィック及び隠されたグラフィックを含む複数個のグラフィックを表示する(段階1204)。この時、装置100は、第2領域から第1領域に切り替わった領域に、隠されたグラフィックの少なくとも一部を表示する。また、装置100は、少なくとも一つのグラフィックのうちの一つのグラフィックに提供された視覚的なフィードバックを除去する。また、装置100は、第2領域に表示された少なくとも一つのコンテンツの集合を非活性化する。
装置100は、複数個のグラフィックのうちの少なくとも一つを移動させるユーザーの追加ジェスチャーを感知する(段階1205)。装置100は、ユーザーの追加ジェスチャーに応答して、複数個のグラフィックのうちの少なくとも一つを、拡張された第1領域の一部に移動し、少なくとも一つのグラフィックが移動されて残された領域に、少なくとも一つのグラフィック以外の残りのグラフィックのうちの少なくとも一つを移動する(段階1206)。例えば、装置100は、複数個のグラフィックのうちの第1グラフィックを、複数個のグラフィックのうちの第2グラフィックの領域に移動する。そして、第1グラフィックが所定時間以上移動しない場合、装置100は、第1グラフィックが移動されて残された領域に第2グラフィックを移動する。
装置100は、複数個のグラフィックのそれぞれの位置に応じて、複数個のグラフィックを第1グループのグラフィックと第2グループのグラフィックとに分類する。装置100は、第2領域の一部を選択するユーザーのジェスチャーを感知した場合(段階1207)、拡張された第1領域を元来の領域のサイズに縮小し、縮小された第1領域に第1グループのグラフィックを表示する(段階1208)。
以上の実施形態は、様々なコンピュータ手段で実行可能なプログラム命令の形態として、コンピュータ読み取り可能な記録媒体に記録することができる。コンピュータ読み取り可能な記録媒体は、プログラム命令、データファイル、データ構造などを単独で又は組み合わせとして有することができる。記録媒体に記録されるプログラム命令は、本発明のために特別に設計及び構成されたものでもよく、コンピュータソフトウェア当業者に公知となって使用可能なものでもよい。
上述した実施形態及び効果は例示に過ぎないものであって、それに限定されることはない。これは他の種類の装置にも適用することができる。また、実施形態の説明は実例になることはできるが、請求項の範囲を限定するものではなく、種々の代案、摸倣、変化が、当該技術分野における当業者にとっては可能になるであろう。
100 装置
101 プロセッサ
102 メモリー
103 周辺装置インターフェース
110 入/出力サブシステム
111 ディスプレイコントローラ
112 センサーコントローラ
113 その他入/出力コントローラ
121 タッチスクリーン
122 センサー
122a 光センサー
122b 近接センサー
122c 加速度センサー
122d GPSセンサー
122e 磁気センサー
122f チルトセンサー
122g 環境センサー
122h 天気センサー
123 その他入/出力装置
131 RF回路
132 オーディオ回路
133 電力回路
134 外部ポート
210 オペレーティングシステム(OS)
211 カーネル
213 デバイス
215 サービス
217 フレームワーク
220 アプリケーション
221 連絡先モジュール
223 電話モジュール
225 ビデオ会議モジュール
227 Eメールクライアントモジュール
229 インスタントメッセージング(IM)モジュール
231 ブロギングモジュール
233 カメラモジュール
235 イメージ管理モジュール
237 ビデオ/音楽プレーヤーモジュール
239 ノートモジュール
241 ブラウジングモジュール
243 地図モジュール
245 暦モジュール
247 天気モジュール
249 株式モジュール
251 計算機モジュール
253 アラーム時計モジュール
255 辞書モジュール
257 検索モジュール
259 ニュースモジュール
261 通信モジュール
263 ソーシャルネットワーキングモジュール
265 コマースサービスモジュール
267 位置基盤サービス(LBS)モジュール
269 インタラクションモジュール
271 センサーモジュール
273 グラフィックモジュール
275 テキスト入力モジュール
400、710、730、750、810、850、910、950、1010、1050、1110、1150 スクリーン
410 状態領域
411 信号強度
412 時刻
413 バッテリー残量レベル
430 メイン領域
450 命令領域
451、453 ソフトキー
452 オプションメニュー
510、820、870、920、1020、1120 第1領域
511〜513、611、631、651、701〜707、821〜826、921〜926、1021〜1026、1121〜1126 グラフィック
530、840、940、1040、1140 第2領域
612 アイテム
613、633、653、915、1015、1115 ジェスチャー
632 Webページ
652 サムネイル
714、734、735、754、1127 識別子

Claims (20)

  1. 第1領域に、少なくとも一つのグラフィック及び隠されたグラフィックを表示するためのユーザーインターフェースを表示する段階と、
    前記第1領域から区別される第2領域に、前記少なくとも一つのグラフィックに対応するコンテンツの集合を表示する段階と、
    前記第1領域の一部を選択するユーザーのジェスチャーを感知する段階と、
    前記第1領域を前記第2領域の一部を含むように拡張する段階と、
    前記ユーザーのジェスチャーに応答して、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示する段階と、
    前記複数個のグラフィックのうちの第1グラフィックを移動させるユーザーの追加ジェスチャーを感知する段階と、
    前記ユーザーの追加ジェスチャーに応答して、前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記複数個のグラフィックのうちの第2グラフィックを移動する段階と、を有することを特徴とする携帯用装置のユーザーインターフェース提供方法。
  2. 前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する段階は、
    前記第2領域から前記第1領域に切り替わった領域に、前記隠されたグラフィックの少なくとも一部を表示する段階を含むことを特徴とする請求項1に記載の携帯用装置のユーザーインターフェース提供方法。
  3. 前記第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックを表示するためのユーザーインターフェースを表示する段階は、
    前記ユーザーインターフェースを選択する前記ユーザーのジェスチャーを感知する段階と、
    前記ユーザーの前記ジェスチャーに応答して、前記隠されたグラフィックを表示する段階と、を含むことを特徴とする請求項1に記載の携帯用装置のユーザーインターフェース提供方法。
  4. 前記隠されたグラフィックは、前記少なくとも一つのグラフィックの前方向又は後方向に位置し、
    前記第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックを表示するための前記ユーザーインターフェースを表示する段階は、
    前記ユーザーインターフェース上で前記ユーザーの接触地点及び接触解除地点を感知する段階と、
    前記接触地点及び前記接触解除地点に基づいて前記ユーザーのジェスチャーの方向を決定する段階と、
    前記前方向又は後方向に位置する前記複数のグラフィックのうちの前記ユーザーのジェスチャーの方向に対応する前記隠されたグラフィックを表示する段階と、を含むことを特徴とする請求項3に記載の携帯用装置のユーザーインターフェース提供方法。
  5. 前記隠されたグラフィックは、前記少なくとも一つのグラフィックの前方向又は後方向に位置し、
    前記第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックを表示するための前記ユーザーインターフェースを表示する段階は、
    前記隠されたグラフィックが位置する方向を表す識別子を、前記前方向又は後方向に対応する前記第1領域の一側に表示する段階を含むことを特徴とする請求項3に記載の携帯用装置のユーザーインターフェース提供方法。
  6. 前記第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックを表示するための前記ユーザーインターフェースを表示する段階は、
    前記少なくとも一つのグラフィックに視覚的なフィードバックを提供する段階を含み、
    前記第2領域に、前記少なくとも一つのグラフィックに対応する前記コンテンツの集合を表示する段階は、
    前記第2領域に、前記視覚的なフィードバックが提供された前記少なくとも一つのグラフィックに対応する前記コンテンツの集合を表示する段階を含むことを特徴とする請求項1に記載の携帯用装置のユーザーインターフェース提供方法。
  7. 前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する段階は、
    前記少なくとも一つのグラフィックに提供された前記視覚的なフィードバックを除去する段階を含むことを特徴とする請求項6に記載の携帯用装置のユーザーインターフェース提供方法。
  8. 前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する段階は、
    前記第2領域に表示された前記コンテンツの集合を非活性化する段階を含むことを特徴とする請求項1に記載の携帯用装置のユーザーインターフェース提供方法。
  9. 前記複数個のグラフィックは、前記第1領域における前記複数個のグラフィックのそれぞれの位置に応じて、第1グループのグラフィックと第2グループのグラフィックとに区別され、
    前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する段階は、
    前記第2領域の一部を選択する前記ユーザーのジェスチャーを感知する段階と、
    前記ユーザーのジェスチャーに応答して、前記拡張された第1領域を元来の領域に縮小する段階と、
    前記縮小された第1領域に前記第1グループのグラフィックを表示する段階と、を含むことを特徴とする請求項1に記載の携帯用装置のユーザーインターフェース提供方法。
  10. 前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記第2グラフィックを移動する段階は、
    前記複数個のグラフィックのうちの第1グラフィックを、前記複数個のグラフィックのうちの第2グラフィックの領域に移動する段階と、
    前記第1グラフィックが所定時間以上移動されない場合に、前記第1グラフィックが移動されて残された領域に、前記第2グラフィックを移動する段階と、を含むことを特徴とする請求項1に記載の携帯用装置のユーザーインターフェース提供方法。
  11. 前記グラフィックは、タブメニューであることを特徴とする請求項1に記載の携帯用装置のユーザーインターフェース提供方法。
  12. 少なくとも一つのグラフィック及び隠されたグラフィックを表示するためのユーザーインターフェースを表示する第1領域、及び前記少なくとも一つのグラフィックに対応するコンテンツの集合を表示して前記第1領域から区別される第2領域を含むタッチスクリーンと、
    プロセッサと、
    メモリーと、を備え、
    前記プロセッサは、
    前記第1領域の一部を選択するユーザーのジェスチャーを感知し、
    前記第1領域を前記第2領域の一部を含むように拡張し、
    前記ユーザーのジェスチャーに応答して、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示し、
    前記複数個のグラフィックのうちの第1グラフィックを移動させるユーザーの追加ジェスチャーを感知し、
    前記ユーザーの追加ジェスチャーに応答して、前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記複数個のグラフィックのうちの第2グラフィックを移動することを特徴とするユーザーインターフェースを提供する携帯用装置。
  13. 前記プロセッサは、
    前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する場合、
    前記第2領域から前記第1領域に切り替わった領域に、前記隠されたグラフィックの少なくとも一部を表示することを特徴とする請求項12に記載のユーザーインターフェースを提供する携帯用装置。
  14. 前記プロセッサは、
    前記ユーザーインターフェースを選択する前記ユーザーのジェスチャーを感知し、
    前記ユーザーの前記ジェスチャーに応答して、前記隠されたグラフィックを前記第1領域に表示することを特徴とする請求項12に記載のユーザーインターフェースを提供する携帯用装置。
  15. 前記プロセッサは、
    前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する場合、
    前記少なくとも一つのグラフィックに提供された視覚的なフィードバックを除去することを特徴とする請求項12に記載のユーザーインターフェースを提供する携帯用装置。
  16. 前記プロセッサは、
    前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する場合、
    前記第2領域に表示された前記コンテンツの集合を非活性化させることを特徴とする請求項12に記載のユーザーインターフェースを提供する携帯用装置。
  17. 前記複数個のグラフィックは、前記第1領域における前記複数個のグラフィックのそれぞれの位置によって、第1グループのグラフィックと第2グループのグラフィックとに区別され、
    前記プロセッサは、
    前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる前記複数個のグラフィックを表示する場合、
    前記第2領域の一部を選択するユーザーのジェスチャーを感知し、
    前記ユーザーのジェスチャーに応答して、前記拡張された第1領域を元来の領域に縮小し、
    前記縮小された第1領域に前記第1グループのグラフィックを表示することを特徴とする請求項12に記載のユーザーインターフェースを提供する携帯用装置。
  18. 前記プロセッサは、
    前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記第2グラフィックを移動する場合、
    前記複数個のグラフィックのうちの第1グラフィックを、前記複数個のグラフィックのうちの第2グラフィックの領域に移動し、
    前記第1グラフィックが所定時間以上移動されない場合に、前記第1グラフィックが移動されて残された領域に、前記第2グラフィックを移動することを特徴とする請求項12に記載のユーザーインターフェースを提供する携帯用装置。
  19. 前記グラフィックは、タブ(tab)メニューであることを特徴とする請求項12に記載のユーザーインターフェースを提供する携帯用装置。
  20. 携帯用装置におけるユーザーインターフェースを提供する方法をコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体であって、
    前記方法は、
    第1領域に、少なくとも一つのグラフィック及び隠されたグラフィックを表示するためのユーザーインターフェースを表示する段階と、
    前記第1領域から区別される第2領域に、前記少なくとも一つのグラフィックに対応するコンテンツの集合を表示する段階と、
    前記第1領域の一部を選択するユーザーのジェスチャーを感知する段階と、
    前記第1領域を前記第2領域の一部を含むように拡張する段階と、
    前記ユーザーのジェスチャーに応答して、前記拡張された第1領域に、前記少なくとも一つのグラフィック及び前記隠されたグラフィックが含まれる複数個のグラフィックを表示する段階と、
    前記複数個のグラフィックのうちの第1グラフィックを移動させるユーザーの追加ジェスチャーを感知する段階と、
    前記ユーザーの追加ジェスチャーに応答して、前記第1グラフィックを前記拡張された第1領域の一部に移動し、前記第1グラフィックが移動されて残された領域に、前記複数個のグラフィックのうちの第2グラフィックを移動する段階と、を有することを特徴とするコンピュータ読み取り可能な記録媒体。
JP2012541947A 2009-12-02 2010-12-02 携帯用装置のユーザーインターフェース提供方法及び装置 Active JP5918144B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US26592309P 2009-12-02 2009-12-02
US26593909P 2009-12-02 2009-12-02
US61/265,939 2009-12-02
US61/265,923 2009-12-02
KR10-2010-0119922 2010-11-29
KR1020100119922A KR101687411B1 (ko) 2009-12-02 2010-11-29 휴대용 장치의 사용자 인터페이스 제공 방법 및 장치
PCT/KR2010/008605 WO2011068374A2 (en) 2009-12-02 2010-12-02 Method and apparatus for providing user interface of portable device

Publications (2)

Publication Number Publication Date
JP2013513157A true JP2013513157A (ja) 2013-04-18
JP5918144B2 JP5918144B2 (ja) 2016-05-18

Family

ID=44397294

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2012541946A Pending JP2013513281A (ja) 2009-12-02 2010-12-02 携帯用端末機及びその制御方法{mobiledeviceandcontrolmethod}
JP2012541947A Active JP5918144B2 (ja) 2009-12-02 2010-12-02 携帯用装置のユーザーインターフェース提供方法及び装置
JP2012541948A Expired - Fee Related JP5912083B2 (ja) 2009-12-02 2010-12-02 ユーザーインターフェース提供方法及び装置
JP2012541945A Pending JP2013514677A (ja) 2009-12-02 2010-12-02 携帯用端末機及びその制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012541946A Pending JP2013513281A (ja) 2009-12-02 2010-12-02 携帯用端末機及びその制御方法{mobiledeviceandcontrolmethod}

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2012541948A Expired - Fee Related JP5912083B2 (ja) 2009-12-02 2010-12-02 ユーザーインターフェース提供方法及び装置
JP2012541945A Pending JP2013514677A (ja) 2009-12-02 2010-12-02 携帯用端末機及びその制御方法

Country Status (7)

Country Link
US (6) US9417788B2 (ja)
EP (5) EP2507685A4 (ja)
JP (4) JP2013513281A (ja)
KR (5) KR20110063297A (ja)
CN (5) CN102640560B (ja)
AU (4) AU2010327451B2 (ja)
WO (4) WO2011068372A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014225243A (ja) * 2014-03-27 2014-12-04 グリー株式会社 表示制御方法、コンピュータ、表示制御プログラム及び記憶媒体
US9641266B2 (en) 2012-07-17 2017-05-02 Qualcomm Incorporated Sensor with concurrent data streaming using various parameters
JP2017528944A (ja) * 2014-07-10 2017-09-28 華為技術有限公司Huawei Technologies Co.,Ltd. 近接場通信技術に基づく端末アプリケーション制御方法、装置、およびシステム
JPWO2021171780A1 (ja) * 2020-02-27 2021-09-02

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10705701B2 (en) 2009-03-16 2020-07-07 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8660246B1 (en) * 2009-04-06 2014-02-25 Wendell Brown Method and apparatus for content presentation in association with a telephone call
KR101055924B1 (ko) * 2009-05-26 2011-08-09 주식회사 팬택 터치 기기에서의 유저 인터페이스 장치 및 방법
US9125159B2 (en) * 2010-09-01 2015-09-01 Lg Electronics Inc. Mobile terminal and operation control method thereof
US11314344B2 (en) * 2010-12-03 2022-04-26 Razer (Asia-Pacific) Pte. Ltd. Haptic ecosystem
US8869095B2 (en) * 2010-12-10 2014-10-21 Atmel Corporation Software framework and development platform for multi-sensor systems
CN103210320B (zh) * 2010-12-21 2016-01-13 英派尔科技开发有限公司 用于基于位置的服务中的位置隐私的虚拟信息
KR20130052745A (ko) * 2010-12-23 2013-05-23 한국전자통신연구원 제스처를 이용한 메뉴 제공 방법 및 이를 이용한 휴대 단말
US9384408B2 (en) 2011-01-12 2016-07-05 Yahoo! Inc. Image analysis system and method using image recognition and text search
JP2012190318A (ja) * 2011-03-11 2012-10-04 Kyocera Corp 電子機器
KR101522393B1 (ko) * 2011-04-06 2015-05-21 주식회사 케이티 모바일 단말의 자세 정보에 따라 구분된 인증값을 제공하는 방법, 단말기 및 시스템
US9547369B1 (en) * 2011-06-19 2017-01-17 Mr. Buzz, Inc. Dynamic sorting and inference using gesture based machine learning
WO2012177200A1 (en) 2011-06-23 2012-12-27 Telefonaktiebolaget L M Ericsson (Publ) Provisioning of network information into a subscriber identity module
KR20130011787A (ko) * 2011-07-22 2013-01-30 삼성전자주식회사 전자 책 단말기 및 화면 전환 방법
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130055082A1 (en) * 2011-08-26 2013-02-28 Jorge Fino Device, Method, and Graphical User Interface for Navigating and Previewing Content Items
US8635519B2 (en) 2011-08-26 2014-01-21 Luminate, Inc. System and method for sharing content based on positional tagging
US20130073600A1 (en) * 2011-09-21 2013-03-21 Jonathan A. Jenkins Remote process execution management
US20130086112A1 (en) 2011-10-03 2013-04-04 James R. Everingham Image browsing system and method for a digital content platform
US8737678B2 (en) 2011-10-05 2014-05-27 Luminate, Inc. Platform for providing interactive applications on a digital content platform
KR101369981B1 (ko) 2011-10-06 2014-03-24 김용진 호 처리 부가 서비스 제공 단말장치 및 그 동작 방법
JP5810812B2 (ja) * 2011-10-06 2015-11-11 コニカミノルタ株式会社 画像処理装置、画像処理装置の制御方法、および制御プログラム
USD737290S1 (en) 2011-10-10 2015-08-25 Yahoo! Inc. Portion of a display screen with a graphical user interface
USD736224S1 (en) 2011-10-10 2015-08-11 Yahoo! Inc. Portion of a display screen with a graphical user interface
CN103052021A (zh) * 2011-10-11 2013-04-17 北京千橡网景科技发展有限公司 一种用于提供基于位置的服务的方法和设备
US9594504B2 (en) * 2011-11-08 2017-03-14 Microsoft Technology Licensing, Llc User interface indirect interaction
US9106267B1 (en) 2011-12-15 2015-08-11 Sprint Communications Company L.P. Near field communication session feedback
US8255495B1 (en) 2012-03-22 2012-08-28 Luminate, Inc. Digital image and content display systems and methods
CN102662576B (zh) * 2012-03-29 2015-04-29 华为终端有限公司 基于触摸的信息发送方法及装置
US8234168B1 (en) 2012-04-19 2012-07-31 Luminate, Inc. Image content and quality assurance system and method
CN102736849B (zh) * 2012-04-20 2015-01-28 中兴通讯股份有限公司 菜单布局处理方法及装置
US8495489B1 (en) 2012-05-16 2013-07-23 Luminate, Inc. System and method for creating and displaying image annotations
WO2014028068A1 (en) * 2012-08-17 2014-02-20 Flextronics Ap, Llc Media center
CN102761629B (zh) * 2012-07-11 2016-01-06 华为终端有限公司 设置dns服务器地址的方法、装置及系统
US20140075365A1 (en) * 2012-09-10 2014-03-13 Lookout, Inc. Method and system for visually monitoring the progress of a security operation of an electronic device
KR102011360B1 (ko) * 2012-09-10 2019-10-21 삼성전자주식회사 디바이스에서 어플리케이션을 실행하는 방법 및 그 장치
USD742395S1 (en) * 2012-09-18 2015-11-03 Fanhattan, Inc. Display screen with graphical user interface for live media content
USD740839S1 (en) * 2012-09-18 2015-10-13 Fanhattan, Inc. Display screen with graphical user interface for live media content
KR20140047897A (ko) * 2012-10-15 2014-04-23 삼성전자주식회사 터치 효과를 제공하기 위한 방법 및 그 전자 장치
KR102043256B1 (ko) * 2012-10-30 2019-11-12 삼성전자 주식회사 서버 페이지 운용 방법 및 이를 지원하는 단말기
CN103870030A (zh) * 2012-12-13 2014-06-18 联想(北京)有限公司 信息处理方法和电子设备
KR101398141B1 (ko) * 2013-02-08 2014-05-20 엘지전자 주식회사 이동 단말기
USD754191S1 (en) * 2013-02-23 2016-04-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
US9489047B2 (en) * 2013-03-01 2016-11-08 Immersion Corporation Haptic device with linear resonant actuator
US9300645B1 (en) * 2013-03-14 2016-03-29 Ip Holdings, Inc. Mobile IO input and output for smartphones, tablet, and wireless devices including touch screen, voice, pen, and gestures
CN103257795A (zh) * 2013-04-28 2013-08-21 百度在线网络技术(北京)有限公司 一种展示联系人列表的方法和装置
US9256358B2 (en) * 2013-06-10 2016-02-09 Adtile Technologies Inc. Multiple panel touch user interface navigation
KR20150006235A (ko) * 2013-07-08 2015-01-16 삼성전자주식회사 결합된 ui 구성 요소를 제공하는 휴대 장치 및 그 제어 방법
GB2534774A (en) * 2013-11-19 2016-08-03 Shell Int Research Multi-touch interface for virtual manipulation of three-dimensional seismic data
CN103634640A (zh) * 2013-11-29 2014-03-12 乐视致新电子科技(天津)有限公司 移动终端设备控制智能电视端语音输入的方法及系统
JP6278262B2 (ja) * 2014-03-12 2018-02-14 ヤマハ株式会社 表示制御装置
US10025461B2 (en) * 2014-04-08 2018-07-17 Oath Inc. Gesture input for item selection
CN110072131A (zh) 2014-09-02 2019-07-30 苹果公司 音乐用户界面
EP3012728B1 (en) * 2014-10-24 2022-12-07 Electrolux Appliances Aktiebolag Graphical user interface
US10270615B2 (en) * 2014-12-30 2019-04-23 Grand Mate Co., Ltd. Method of providing operating options of an electric appliance
KR102310870B1 (ko) * 2015-01-12 2021-10-12 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US10031730B2 (en) * 2015-04-22 2018-07-24 Salesforce.Com, Inc. Systems and methods of implementing extensible browser executable components
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
JP6601042B2 (ja) * 2015-07-29 2019-11-06 セイコーエプソン株式会社 電子機器、電子機器の制御プログラム
US9880627B2 (en) * 2015-12-15 2018-01-30 Immersion Corporation Automated haptic setting generation
US20170177170A1 (en) * 2015-12-17 2017-06-22 International Business Machines Corporation Progress control based on transfer of layered content
CN105536249B (zh) * 2016-02-18 2023-09-01 高创(苏州)电子有限公司 游戏系统
CN107454951B (zh) * 2016-05-17 2020-12-15 华为技术有限公司 电子设备和用于电子设备的方法
US20170351387A1 (en) * 2016-06-02 2017-12-07 Ebay Inc. Quick trace navigator
US11580608B2 (en) 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
US10517021B2 (en) 2016-06-30 2019-12-24 Evolve Cellular Inc. Long term evolution-primary WiFi (LTE-PW)
KR102607564B1 (ko) * 2016-09-13 2023-11-30 삼성전자주식회사 소프트 키를 표시하는 방법 및 그 전자 장치
CN108228283A (zh) * 2016-12-12 2018-06-29 阿里巴巴集团控股有限公司 一种界面展示方法、装置和设备
CN107122177A (zh) * 2017-03-31 2017-09-01 腾讯科技(深圳)有限公司 界面展示方法及装置
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US10928980B2 (en) 2017-05-12 2021-02-23 Apple Inc. User interfaces for playing and managing audio items
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
CN107479960B (zh) * 2017-08-25 2021-02-19 阿里巴巴(中国)有限公司 一种单元视图的显示方法和装置
CN108509132B (zh) * 2018-03-29 2020-06-16 杭州电魂网络科技股份有限公司 位置进度条显示方法、装置及可读存储介质
DK179992B1 (en) 2018-05-07 2020-01-14 Apple Inc. DISPLAY OF USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
CN109117256A (zh) * 2018-07-12 2019-01-01 维沃移动通信有限公司 一种后台应用程序的管理方法及终端
CN109408184A (zh) * 2018-10-29 2019-03-01 努比亚技术有限公司 一种图标处理方法、移动终端以及计算机存储介质
CN109618206B (zh) * 2019-01-24 2021-11-05 海信视像科技股份有限公司 呈现用户界面的方法和显示设备
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
EP4231124A1 (en) 2019-05-31 2023-08-23 Apple Inc. User interfaces for audio media control
CN112492113A (zh) * 2019-09-12 2021-03-12 北京小米移动软件有限公司 电子设备及其振动方法
CN110851064B (zh) * 2019-10-20 2024-05-28 阿里巴巴集团控股有限公司 信息展示方法、装置、设备及存储介质
CN113032592A (zh) * 2019-12-24 2021-06-25 徐大祥 电子动态行事历系统、操作方法及计算机存储介质
CN111367447A (zh) * 2020-02-21 2020-07-03 北京字节跳动网络技术有限公司 信息显示方法、装置、电子设备及计算机可读存储介质
CN113298916A (zh) * 2020-07-14 2021-08-24 阿里巴巴集团控股有限公司 用于调整曲线的交互方法、装置和电子设备
CN112199007A (zh) * 2020-09-01 2021-01-08 北京达佳互联信息技术有限公司 菜单显示方法、装置、电子设备和存储介质
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
KR20240015459A (ko) * 2022-07-27 2024-02-05 쿠팡 주식회사 아이템 리스트를 제공하는 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030197738A1 (en) * 2002-04-18 2003-10-23 Eli Beit-Zuri Navigational, scalable, scrolling ribbon
JP2004062647A (ja) * 2002-07-30 2004-02-26 Kyocera Corp 情報端末装置
US20070266334A1 (en) * 2000-05-11 2007-11-15 Palmsource, Inc. Automatically centered scrolling in a tab-based user interface
JP2008191895A (ja) * 2007-02-05 2008-08-21 Sony Corp 情報処理装置、画像表示装置、および、これらにおける制御方法ならびに当該方法をコンピュータに実行させるプログラム
JP2009016942A (ja) * 2007-06-29 2009-01-22 Toshiba Corp コンテンツ表示装置
JP2009266192A (ja) * 2008-08-21 2009-11-12 Nintendo Co Ltd オブジェクト表示順変更プログラム及び装置

Family Cites Families (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6131097A (en) * 1992-12-02 2000-10-10 Immersion Corporation Haptic authoring
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US20040264402A9 (en) * 1995-06-01 2004-12-30 Padcom. Inc. Port routing functionality
US5794164A (en) * 1995-11-29 1998-08-11 Microsoft Corporation Vehicle computer system
US6448977B1 (en) * 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
FI114371B (fi) * 1999-08-09 2004-09-30 Nokia Corp Menetelmä kantopalvelun valitsemiseksi palvelulle langattomassa matkaviestinjärjestelmässä, tiedonsiirtojärjestelmä ja matkaviestinpäätelaite
AU7725600A (en) * 1999-09-28 2001-04-30 Immersion Corporation Controlling haptic sensations for vibrotactile feedback interface devices
DE20080209U1 (de) * 1999-09-28 2001-08-09 Immersion Corp Steuerung von haptischen Empfindungen für Schnittstellenvorrichtungen mit Vibrotaktiler Rückkopplung
US6680729B1 (en) * 1999-09-30 2004-01-20 Immersion Corporation Increasing force transmissibility for tactile feedback interface devices
US6775267B1 (en) * 1999-12-30 2004-08-10 At&T Corp Method for billing IP broadband subscribers
US7249326B2 (en) * 2000-04-06 2007-07-24 Microsoft Corporation Method and system for reducing notification area clutter
WO2002033541A2 (en) * 2000-10-16 2002-04-25 Tangis Corporation Dynamically determining appropriate computer interfaces
US6757269B2 (en) * 2001-02-27 2004-06-29 Motorola, Inc. Mobile wireless router
US7120129B2 (en) * 2001-03-13 2006-10-10 Microsoft Corporation System and method for achieving zero-configuration wireless computing and computing device incorporating same
US6958759B2 (en) * 2001-08-28 2005-10-25 General Instrument Corporation Method and apparatus for preserving, enlarging and supplementing image content displayed in a graphical user interface
US6801777B2 (en) * 2001-11-27 2004-10-05 Intel Corporation Device and method for intelligent wireless communication selection
JP2003195998A (ja) * 2001-12-26 2003-07-11 Canon Inc 情報処理装置及び情報処理装置の制御方法及び情報処理装置の制御プログラム及び記憶媒体
US6901558B1 (en) * 2002-01-09 2005-05-31 International Business Machines Corporation System and method for displaying status of background worker threads
JP2003288158A (ja) * 2002-01-28 2003-10-10 Sony Corp タクタイル・フィードバック機能を持つ携帯型機器
JP4161028B2 (ja) * 2002-03-06 2008-10-08 株式会社日立国際電気 マルチサービス無線通信システム
US7269173B2 (en) * 2002-06-26 2007-09-11 Intel Corporation Roaming in a communications network
US7277915B2 (en) * 2002-11-11 2007-10-02 Openwave Systems Inc. Application-based protocol and proxy selection by a mobile device in a multi-protocol network environment
FR2847109B1 (fr) * 2002-11-12 2005-03-18 Evolium Sas Procede et controleur pour faciliter l'itinerance des telephones
US7779166B2 (en) * 2002-12-08 2010-08-17 Immersion Corporation Using haptic effects to enhance information content in communications
US20040131078A1 (en) * 2003-01-03 2004-07-08 Gupta Vivek G. Apparatus and method for supporting multiple wireless technologies within a device
US20040233930A1 (en) * 2003-05-19 2004-11-25 Modular Computing & Communications Corporation Apparatus and method for mobile personal computing and communications
CN1324490C (zh) * 2003-07-01 2007-07-04 联想(新加坡)私人有限公司 面向应用的自动连接系统和方法
JP2007508621A (ja) 2003-10-03 2007-04-05 ライムライト ネットワークス インコーポレーテッド リッチコンテンツダウンロード
JP3928635B2 (ja) * 2003-10-27 2007-06-13 日本電気株式会社 着信メロディ指定機能付携帯電話システム及び携帯電話機
KR100565062B1 (ko) * 2003-12-13 2006-03-30 삼성전자주식회사 무선망을 통해 프린터를 선택하여 인쇄하는 시스템 및 그방법
US20050149732A1 (en) * 2004-01-07 2005-07-07 Microsoft Corporation Use of static Diffie-Hellman key with IPSec for authentication
KR101008977B1 (ko) 2004-02-25 2011-01-17 삼성전자주식회사 OSGi 서비스 플랫폼 테스트 방법 및 이를 이용한테스트 툴
JP2005277815A (ja) * 2004-03-25 2005-10-06 Fujitsu Ltd 利用ネットワーク選択方法及び通信システム、移動端末
US7761607B2 (en) * 2004-04-23 2010-07-20 Microsoft Corporation User based communication mode selection on a device capable of carrying out network communications
US7490295B2 (en) * 2004-06-25 2009-02-10 Apple Inc. Layer for accessing user interface elements
US20060284834A1 (en) * 2004-06-29 2006-12-21 Sensable Technologies, Inc. Apparatus and methods for haptic rendering using a haptic camera view
EP1612996B1 (en) 2004-07-01 2009-04-01 Alcatel Lucent Method for selecting among network interfaces, device with multiple network interfaces and application
US7765333B2 (en) * 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US8832595B2 (en) 2004-08-06 2014-09-09 Nokia Corporation Mobile communications terminal and method
US20110191674A1 (en) * 2004-08-06 2011-08-04 Sensable Technologies, Inc. Virtual musical interface in a haptic virtual environment
JP2006060579A (ja) * 2004-08-20 2006-03-02 Fujitsu Ltd アプリケーション特性に応じて複数の経路を同時に利用する通信装置
JP4339211B2 (ja) 2004-08-31 2009-10-07 シャープ株式会社 通信装置および通信システム
KR20060058590A (ko) 2004-11-25 2006-05-30 삼성전자주식회사 애플리케이션을 실행하는 방법과 그에 따른 이동통신 단말기
JP4614128B2 (ja) * 2004-12-10 2011-01-19 日本電気株式会社 パケット配送システム、pan登録装置、pan管理装置及びパケット転送装置
KR101086036B1 (ko) 2004-12-29 2011-11-22 주식회사 케이티 휴대용 통신 단말의 애플리케이션 실행 장치 및 방법
US7689990B2 (en) * 2005-03-25 2010-03-30 International Business Machines Corporation Method, system and program for managing executable tasks
EP1869922A4 (en) 2005-04-14 2010-06-09 Nokia Corp METHOD AND APPARATUS AND COMPUTER PROGRAM PROVIDING A SYSTEM PRIORITY LIST ASSOCIATED WITH THE NETWORK FOR MULTIMODE SYSTEM SELECTION
US20060239206A1 (en) * 2005-04-22 2006-10-26 Microsoft Corporation Apparatus and method for network identification among multiple applications
US20060248183A1 (en) * 2005-04-28 2006-11-02 Microsoft Corporation Programmable notifications for a mobile device
US20060245358A1 (en) * 2005-04-29 2006-11-02 Beverly Harlan T Acceleration of data packet transmission
US7686215B2 (en) 2005-05-21 2010-03-30 Apple Inc. Techniques and systems for supporting podcasting
WO2006129600A1 (ja) * 2005-06-02 2006-12-07 Sharp Kabushiki Kaisha 通信システム及び通信方法
US7676767B2 (en) 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
US20070011665A1 (en) * 2005-06-21 2007-01-11 Microsoft Corporation Content syndication platform
US8661459B2 (en) 2005-06-21 2014-02-25 Microsoft Corporation Content syndication platform
US7263353B2 (en) * 2005-06-29 2007-08-28 Nokia Corporation System and method for automatic application profile and policy creation
CN101223778B (zh) * 2005-07-18 2012-11-07 汤姆森许可贸易公司 使用元数据来处理多个视频流的方法和设备
US7954064B2 (en) * 2005-10-27 2011-05-31 Apple Inc. Multiple dashboards
US20070097877A1 (en) * 2005-11-02 2007-05-03 Hoekstra G J Distributing information over parallel network interfaces
US8041506B2 (en) 2005-11-07 2011-10-18 Google Inc. Mapping in mobile devices
US7672695B1 (en) * 2005-12-06 2010-03-02 Marvell International Ltd. Wearable access point
KR101181766B1 (ko) 2005-12-23 2012-09-12 엘지전자 주식회사 이동통신 단말기에서의 메뉴 표시 방법, 및 그 방법을구현하기 위한 이동통신 단말기
US7509588B2 (en) * 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US7865400B2 (en) * 2006-02-23 2011-01-04 Qualcomm Incorporated Apparatus and methods for community based purchasing by mobile buyers
WO2007105279A1 (ja) * 2006-03-10 2007-09-20 Fujitsu Limited 携帯通信装置
US7821985B2 (en) * 2006-03-13 2010-10-26 Microsoft Corporation Network interface routing using computational context
KR100764291B1 (ko) 2006-03-20 2007-10-05 주식회사 팬택앤큐리텔 이동통신단말 내에서 어플리케이션의 실행을 위한 프로파일정보를 업데이트하는 방법
JP4781904B2 (ja) * 2006-05-16 2011-09-28 京セラ株式会社 携帯通信端末およびモード切換方法
US8869027B2 (en) * 2006-08-04 2014-10-21 Apple Inc. Management and generation of dashboards
US7675414B2 (en) * 2006-08-10 2010-03-09 Qualcomm Incorporated Methods and apparatus for an environmental and behavioral adaptive wireless communication device
US9173163B2 (en) * 2006-09-05 2015-10-27 Broadcom Corporation Altering communication interface parameters based upon mobility
US7864163B2 (en) * 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US9304675B2 (en) 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US20080062937A1 (en) * 2006-09-11 2008-03-13 Carl Mansfield Telephonic Device and Service Center-Assisted Network Setup
US7707273B2 (en) 2006-09-11 2010-04-27 Apple Inc. Management and prioritization of media item downloading
JP4637242B2 (ja) 2006-09-11 2011-02-23 シャープ株式会社 通信機器
US8793304B2 (en) * 2006-10-05 2014-07-29 Microsoft Corporation Differentiated management of wireless connectivity
KR100872345B1 (ko) * 2006-11-07 2008-12-05 삼성전자주식회사 네트워크 접근 식별자 스위칭 속도 개선 시스템 및 방법과이를 이용하는 휴대 단말기
JP4968515B2 (ja) * 2006-11-15 2012-07-04 ソニー株式会社 基板支持振動構造、触覚機能付きの入力装置及び電子機器
US8120585B2 (en) * 2006-11-16 2012-02-21 Nokia Corporation Method, apparatus, and computer program product providing vibration control interface
JP2010510707A (ja) * 2006-11-17 2010-04-02 ノキア コーポレイション ダイナミックパラメータを使用してシステム選択を行う方法及び装置
US8171502B2 (en) * 2006-11-29 2012-05-01 Sony Ericsson Mobile Communications Ab Methods, devices and computer program products for automatically installing device drivers from a peripheral device onto a host computer
KR101145921B1 (ko) * 2006-12-13 2012-05-15 엘지전자 주식회사 이동 단말기, 이동통신 단말기 및 이를 이용한 사용자인터페이스 제공 방법
US8467390B2 (en) * 2006-12-14 2013-06-18 Oracle America, Inc. Method and system for network stack tuning
EP1936482A1 (en) 2006-12-18 2008-06-25 Research In Motion Limited Method for providing options associated with computer applications in a mobile device and a menu and application therefor
EP1936929A1 (en) * 2006-12-21 2008-06-25 Samsung Electronics Co., Ltd Haptic generation method and system for mobile phone
US8798583B2 (en) * 2006-12-28 2014-08-05 Funmobility, Inc. Tag ticker display on a mobile device
US8214768B2 (en) * 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US20080168353A1 (en) 2007-01-07 2008-07-10 Freddy Allen Anzures Voicemail Set-Up on a Portable Multifunction Device
US9049302B2 (en) * 2007-01-07 2015-06-02 Apple Inc. Portable multifunction device, method, and graphical user interface for managing communications received while in a locked state
US8519964B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
JP2008182646A (ja) * 2007-01-26 2008-08-07 Softbank Mobile Corp 移動体通信端末及びサーバ
US8762882B2 (en) * 2007-02-05 2014-06-24 Sony Corporation Information processing apparatus, control method for use therein, and computer program
US8098234B2 (en) * 2007-02-20 2012-01-17 Immersion Corporation Haptic feedback system with stored effects
KR101370173B1 (ko) * 2007-03-15 2014-03-06 엘지전자 주식회사 입출력 제어장치 및 입출력 제어방법과 그를 이용한이동통신단말기
KR101367547B1 (ko) * 2007-04-16 2014-02-27 엘지전자 주식회사 이동통신단말기의 동적 커서 표시방법 및 그이동통신단말기
US20080256474A1 (en) * 2007-04-16 2008-10-16 Al Chakra Interactive Progress Bar
US20090138820A1 (en) * 2007-06-01 2009-05-28 Kendall Gregory Lockhart System and method for implementing an active role-based organization structure
WO2009023591A2 (en) 2007-08-10 2009-02-19 Ziba Design, Inc. Systems and methods for navigating an information hierarchy
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8619038B2 (en) * 2007-09-04 2013-12-31 Apple Inc. Editing interface
EP2045700A1 (en) * 2007-10-04 2009-04-08 LG Electronics Inc. Menu display method for a mobile communication terminal
KR101386473B1 (ko) * 2007-10-04 2014-04-18 엘지전자 주식회사 휴대 단말기 및 그 메뉴 표시 방법
US9019087B2 (en) * 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US20090106684A1 (en) 2007-10-22 2009-04-23 Al Chakra System and Method to Facilitate Progress Forking
US8122368B2 (en) * 2007-10-31 2012-02-21 Internaitonal Business Machines Corporation System and method to facilitate progress forking
US8422466B2 (en) * 2007-11-26 2013-04-16 Nokia Corporation Multiple network connections
US20090143061A1 (en) * 2007-12-03 2009-06-04 Troy Wu Method and apparatus for the remote execution of methods and objects on handsets
US8555206B2 (en) * 2007-12-21 2013-10-08 Fisher-Rosemount Systems, Inc. Methods and apparatus to present recipe progress status information
KR101453914B1 (ko) * 2008-01-16 2014-10-24 삼성전자주식회사 복수의 리스트를 표시하기 위한 gui 제공방법 및 이를적용한 멀티미디어 기기
US8687547B2 (en) * 2008-02-04 2014-04-01 British Telecommunications Public Limited Company Method and system for automatic connection to a network
KR100977385B1 (ko) * 2008-04-10 2010-08-20 주식회사 팬택 위젯형 대기화면을 제어할 수 있는 이동 단말기 및 그를이용한 대기화면 제어 방법
CN101267330A (zh) 2008-04-29 2008-09-17 深圳市迅雷网络技术有限公司 播放多媒体文件的方法及装置
EP2134126A1 (en) * 2008-05-14 2009-12-16 NEC Corporation Method for controlling the network selection by the home operator of a mobile user equipment capable of operating in mobile networks and fixed-wireless networks
US8238238B2 (en) * 2008-05-16 2012-08-07 Microsoft Corporation Performing networking tasks based on destination networks
KR20090121435A (ko) 2008-05-22 2009-11-26 주식회사 케이티테크 어플리케이션 실행 제어 방법 및 단말기
US8099332B2 (en) * 2008-06-06 2012-01-17 Apple Inc. User interface for application management for a mobile device
US8516096B2 (en) * 2008-07-09 2013-08-20 In Motion Technology Inc. Cognitive wireless system
CN101325769B (zh) 2008-07-16 2012-05-09 宇龙计算机通信科技(深圳)有限公司 一种终端及其自动切换网络通道的方法
JP4331252B1 (ja) * 2008-07-18 2009-09-16 任天堂株式会社 オブジェクト表示順変更プログラム及び装置
JP2010073014A (ja) 2008-09-19 2010-04-02 Canon Inc 情報処理装置およびその制御方法およびそのプログラム
US7853712B2 (en) * 2008-09-29 2010-12-14 Eloy Technology, Llc Activity indicators in a media sharing system
KR101586627B1 (ko) 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US7752265B2 (en) * 2008-10-15 2010-07-06 Eloy Technology, Llc Source indicators for elements of an aggregate media collection in a media sharing system
CN101388819A (zh) 2008-10-17 2009-03-18 深圳市同洲电子股份有限公司 一种网络接入方法、系统及移动终端
KR101504210B1 (ko) * 2008-10-17 2015-03-19 엘지전자 주식회사 단말기 및 그 제어 방법
US8171419B2 (en) * 2008-10-31 2012-05-01 Research In Motion Limited Method and system for remote media management on a touch screen device
EP2184670A1 (en) 2008-10-31 2010-05-12 Research In Motion Limited Method and system for remote media management on a touch screen device
US9628440B2 (en) * 2008-11-12 2017-04-18 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US8676942B2 (en) * 2008-11-21 2014-03-18 Microsoft Corporation Common configuration application programming interface
JP2012511214A (ja) * 2008-12-05 2012-05-17 ソーシャル・コミュニケーションズ・カンパニー パーベイシブ・リアルタイムフレームワーク
US8407721B2 (en) * 2008-12-12 2013-03-26 Microsoft Corporation Communication interface selection on multi-homed devices
US20100162163A1 (en) * 2008-12-18 2010-06-24 Nokia Corporation Image magnification
US8781479B2 (en) * 2009-01-22 2014-07-15 Microsoft Corporation Mobile device network selection
US9557889B2 (en) * 2009-01-28 2017-01-31 Headwater Partners I Llc Service plan design, user interfaces, application programming interfaces, and device management
US20100235523A1 (en) * 2009-03-16 2010-09-16 Robert Garcia Framework for supporting multi-device collaboration
US20120079084A1 (en) * 2009-03-30 2012-03-29 Nokia Siemens Networks Oy Location dependent cnnectivity settings for terminal devices
US8555185B2 (en) * 2009-06-08 2013-10-08 Apple Inc. User interface for multiple display regions
JP5347981B2 (ja) * 2010-01-15 2013-11-20 富士ゼロックス株式会社 情報表示装置及びプログラム
US8296332B2 (en) * 2010-04-01 2012-10-23 Apple Inc. Visual manipulation of database schema
US8774169B2 (en) * 2010-04-20 2014-07-08 Qualcomm Incorporated Supporting a multimedia application based on network zone recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070266334A1 (en) * 2000-05-11 2007-11-15 Palmsource, Inc. Automatically centered scrolling in a tab-based user interface
US20030197738A1 (en) * 2002-04-18 2003-10-23 Eli Beit-Zuri Navigational, scalable, scrolling ribbon
JP2004062647A (ja) * 2002-07-30 2004-02-26 Kyocera Corp 情報端末装置
JP2008191895A (ja) * 2007-02-05 2008-08-21 Sony Corp 情報処理装置、画像表示装置、および、これらにおける制御方法ならびに当該方法をコンピュータに実行させるプログラム
JP2009016942A (ja) * 2007-06-29 2009-01-22 Toshiba Corp コンテンツ表示装置
JP2009266192A (ja) * 2008-08-21 2009-11-12 Nintendo Co Ltd オブジェクト表示順変更プログラム及び装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9641266B2 (en) 2012-07-17 2017-05-02 Qualcomm Incorporated Sensor with concurrent data streaming using various parameters
US10530511B2 (en) 2012-07-17 2020-01-07 Qualcomm Incorporated Sensor with concurrent data streaming using various parameters
JP2014225243A (ja) * 2014-03-27 2014-12-04 グリー株式会社 表示制御方法、コンピュータ、表示制御プログラム及び記憶媒体
JP2017528944A (ja) * 2014-07-10 2017-09-28 華為技術有限公司Huawei Technologies Co.,Ltd. 近接場通信技術に基づく端末アプリケーション制御方法、装置、およびシステム
JPWO2021171780A1 (ja) * 2020-02-27 2021-09-02
WO2021171780A1 (ja) * 2020-02-27 2021-09-02 富士フイルム株式会社 制御装置及び制御プログラム
JP7405943B2 (ja) 2020-02-27 2023-12-26 富士フイルム株式会社 制御装置及び制御プログラム

Also Published As

Publication number Publication date
WO2011068374A2 (en) 2011-06-09
CN106095449A (zh) 2016-11-09
EP3627303A1 (en) 2020-03-25
EP2507697A4 (en) 2016-08-03
CN102782611A (zh) 2012-11-14
US9417788B2 (en) 2016-08-16
JP5912083B2 (ja) 2016-04-27
CN102640560A (zh) 2012-08-15
WO2011068373A3 (en) 2011-11-10
KR101727620B1 (ko) 2017-04-17
AU2010327454B2 (en) 2015-08-20
WO2011068373A2 (en) 2011-06-09
CN106095449B (zh) 2020-11-17
KR101873908B1 (ko) 2018-07-04
KR20110063297A (ko) 2011-06-10
AU2010327453A1 (en) 2012-06-21
WO2011068374A3 (en) 2011-11-10
US20110131337A1 (en) 2011-06-02
KR20170007221A (ko) 2017-01-18
EP2507696A4 (en) 2016-03-23
EP2507696A2 (en) 2012-10-10
CN102640104A (zh) 2012-08-15
JP2013527504A (ja) 2013-06-27
US8904017B2 (en) 2014-12-02
WO2011068375A3 (en) 2011-11-10
CN102640560B (zh) 2016-04-20
US10275147B2 (en) 2019-04-30
CN102640101B (zh) 2016-04-06
US20110131521A1 (en) 2011-06-02
KR20110063322A (ko) 2011-06-10
WO2011068372A2 (en) 2011-06-09
JP2013514677A (ja) 2013-04-25
KR20110063302A (ko) 2011-06-10
AU2010327451B2 (en) 2015-10-29
CN102640104B (zh) 2016-08-03
EP2507685A2 (en) 2012-10-10
EP2508037A2 (en) 2012-10-10
JP5918144B2 (ja) 2016-05-18
US20110130173A1 (en) 2011-06-02
WO2011068372A3 (en) 2011-10-27
KR101763130B1 (ko) 2017-08-01
US20150071229A1 (en) 2015-03-12
AU2010327453B2 (en) 2015-05-14
KR20110063300A (ko) 2011-06-10
US20190220186A1 (en) 2019-07-18
AU2010327452A1 (en) 2012-06-21
AU2010327454A1 (en) 2012-06-21
CN102640101A (zh) 2012-08-15
US8649826B2 (en) 2014-02-11
US20110131537A1 (en) 2011-06-02
US9652145B2 (en) 2017-05-16
US10863557B2 (en) 2020-12-08
EP2507685A4 (en) 2016-04-13
WO2011068375A2 (en) 2011-06-09
KR101687411B1 (ko) 2016-12-19
AU2010327452B2 (en) 2015-08-06
AU2010327451A1 (en) 2012-06-21
JP2013513281A (ja) 2013-04-18
EP2507697A2 (en) 2012-10-10
EP2508037A4 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
JP5918144B2 (ja) 携帯用装置のユーザーインターフェース提供方法及び装置
US20230315748A1 (en) Multifunction device with integrated search and application selection
US20240061557A1 (en) Device, Method, and Graphical User Interface for Providing Navigation and Search Functionalities
US20210397336A1 (en) Portable multifunction device, method, and graphical user interface for providing maps and directions
US10616416B2 (en) User interface for phone call routing among devices
US20190220155A1 (en) Portable multifunction device, method, and graphical user interface for interacting with user input elements in displayed content
US8624935B2 (en) Smart keyboard management for a multifunction device with a touch screen display
US9329770B2 (en) Portable device, method, and graphical user interface for scrolling to display the top of an electronic document
US7966578B2 (en) Portable multifunction device, method, and graphical user interface for translating displayed content
US11079926B2 (en) Method and apparatus for providing user interface of portable device
US9335452B2 (en) System and method for capturing images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160407

R150 Certificate of patent or registration of utility model

Ref document number: 5918144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250