JP5771243B2 - Portable touch screen device, method and graphic user interface for using emoji characters - Google Patents

Portable touch screen device, method and graphic user interface for using emoji characters Download PDF

Info

Publication number
JP5771243B2
JP5771243B2 JP2013144822A JP2013144822A JP5771243B2 JP 5771243 B2 JP5771243 B2 JP 5771243B2 JP 2013144822 A JP2013144822 A JP 2013144822A JP 2013144822 A JP2013144822 A JP 2013144822A JP 5771243 B2 JP5771243 B2 JP 5771243B2
Authority
JP
Japan
Prior art keywords
response
default
touch screen
screen display
incoming message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013144822A
Other languages
Japanese (ja)
Other versions
JP2014002755A (en
Inventor
ブラッドフォード アレン ムーア
ブラッドフォード アレン ムーア
バス オルディング
バス オルディング
エリザベス キャロライン ファーチェス
エリザベス キャロライン ファーチェス
スティーブン ジェイ チック
スティーブン ジェイ チック
ケニス コシェンダ
ケニス コシェンダ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2014002755A publication Critical patent/JP2014002755A/en
Application granted granted Critical
Publication of JP5771243B2 publication Critical patent/JP5771243B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • H04M1/73Battery saving arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/42Graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Position Input By Displaying (AREA)
  • Power Sources (AREA)

Description

本発明は、一般的に、電子メッセージ及びドキュメント用の絵文字キャラクタを発生するポータブル電子装置に係り、より特定すれば、電子メッセージ及びドキュメント用の絵文字キャラクタを発生するタッチスクリーンディスプレイを備えたポータブル電子装置に係る。   The present invention relates generally to portable electronic devices that generate pictogram characters for electronic messages and documents, and more particularly, portable electronic devices with touch screen displays that generate pictogram characters for electronic messages and documents. Concerning.

ポータブル電子装置が益々コンパクトになり、所与の装置により遂行される機能の数が増加するにつれて、ユーザが多機能装置と容易に対話できるようにするユーザインターフェイスを設計することが意義深い挑戦となってきた。この挑戦は、スクリーンがデスクトップ又はラップトップコンピュータより非常に小さいタッチ感知ディスプレイを伴うハンドヘルドポータブル装置に対して特に意義深いものである。この状況は、不都合なものである。というのは、ユーザインターフェイスは、それを通してユーザがコンテンツを受け取るだけでなく、装置の特徴、ツール及び機能にアクセスするユーザの試みを含むユーザアクション又は振る舞いに対する応答も受け取るゲートウェイだからである。あるポータブル通信装置(例えば、時々、モバイルホン、セルホン、セルラー電話、等とも称される移動電話)は、ユーザがデータにアクセスし、データを記憶し、データを操作できるようにするために、より多くのプッシュボタンを追加し、プッシュボタンの密度を高め、プッシュボタンの機能を過負荷にし、又は複雑なメニューシステムを使用することに依存している。これらの従来のユーザインターフェイスは、多くの場合に、複雑なキーシーケンス及びメニューハイアラーキーをユーザが覚えねばならないようにしている。   As portable electronic devices become increasingly compact and the number of functions performed by a given device increases, it becomes a significant challenge to design a user interface that allows users to easily interact with multifunction devices. I came. This challenge is particularly significant for handheld portable devices with touch sensitive displays whose screen is much smaller than a desktop or laptop computer. This situation is inconvenient. This is because the user interface is a gateway through which the user not only receives content but also receives responses to user actions or behaviors, including user attempts to access device features, tools and functions. Certain portable communication devices (eg, mobile phones, sometimes referred to as mobile phones, cell phones, cellular phones, etc.) are more able to allow users to access, store and manipulate data. Rely on adding many push buttons, increasing push button density, overloading push button functionality, or using complex menu systems. These conventional user interfaces often require the user to learn complex key sequences and menu hierarchy keys.

又、従来の多くのユーザインターフェイス、例えば、物理的なプッシュボタンを含むものは、融通性もない。これは、ポータブル装置で実行されるアプリケーション又はユーザによりユーザインターフェイスが構成され及び/又は適応されるのを妨げることがある。このように融通性のないことは、多数のキーシーケンス及びメニューハイアラーキーを覚えるための時間のかかる要求や、希望のプッシュボタンをアクチベートする困難さと結び付くと、ほとんどのユーザを苛立たせることになる。   Also, many conventional user interfaces, such as those that include physical push buttons, are not flexible. This may prevent the user interface from being configured and / or adapted by an application or user running on the portable device. This inflexibility is irritating to most users when coupled with the time-consuming request to learn a large number of key sequences and menu hierarchy keys and the difficulty of activating the desired push button.

最近、絵文字キャラクタの使用をサポートするポータブル電子装置が開発された。絵文字キャラクタは、ウェブフォーラム、e−メールメッセージ、インスタントメッセージ(例えば、SMSテキストメッセージ)、ノート、及びオンラインゲームにしばしば使用される。多数のそして益々増加する数の絵文字キャラクタが存在する。しかし、小型ディスプレイスクリーンを伴う既存のポータブル電子装置において多数の絵文字キャラクタを表示し、編成し及び使用することは、かなり厄介である。   Recently, portable electronic devices that support the use of pictogram characters have been developed. Emoji characters are often used in web forums, email messages, instant messages (eg, SMS text messages), notes, and online games. There are a large and increasing number of emoji characters. However, displaying, organizing, and using multiple pictogram characters in existing portable electronic devices with a small display screen is quite cumbersome.

従って、絵文字キャラクタを使用するためのより透過的で且つ効率のよいユーザインターフェイスを有するタッチスクリーンディスプレイを伴うポータブル電子装置が要望される。このようなインターフェイスは、絵文字キャラクタを含むタスクをユーザにより迅速且つ効率的に遂行できるようにし、それにより、電力を保存すると共に、ポータブル電子装置のバッテリ充電間の時間を延長できるようにする。更に、このようなインターフェイスは、ポータブル電子装置の有効性及びそのような装置でのユーザの満足度を高めるものである。   Accordingly, there is a need for a portable electronic device with a touch screen display that has a more transparent and efficient user interface for using pictogram characters. Such an interface allows tasks involving pictogram characters to be performed more quickly and efficiently by the user, thereby conserving power and extending the time between battery charging of portable electronic devices. Furthermore, such an interface enhances the effectiveness of portable electronic devices and user satisfaction with such devices.

ポータブル装置に絵文字を発生し且つそれを使用するためのユーザインターフェイスに関連した前記欠点及び他の問題は、ここに開示するポータブル多機能装置によって緩和される。ある実施形態では、この装置は、グラフィックユーザインターフェイス(GUI)を伴うタッチ感知ディスプレイ(「タッチスクリーン」としても知られた)と、1つ以上のプロセッサと、メモリと、複数の機能を遂行するためにメモリに記憶された1つ以上のモジュール、プログラム又はインストラクションセットとを有する。ある実施形態では、ユーザは、主として、タッチ感知ディスプレイにおける指接触及びジェスチャーを通して
GUIと対話する。ある実施形態では、機能は、電話通話、ビデオ会議、e−メール、インスタントメッセージング、ブログ、デジタル写真、デジタルビデオ、ウェブブラウジング、デジタル音楽再生、及び/又はデジタルビデオ再生を含む。これらの機能を遂行するためのインストラクションは、1つ以上のプロセッサにより実行するように構成されたコンピュータプログラム製品に含まれる(例えば、インストラクションが記憶されたコンピュータ読み取り可能な記憶媒体)。
The disadvantages and other problems associated with the user interface for generating and using pictograms in portable devices are alleviated by the portable multifunction device disclosed herein. In some embodiments, the apparatus performs a touch-sensitive display (also known as a “touch screen”) with a graphic user interface (GUI), one or more processors, memory, and multiple functions. And one or more modules, programs or instruction sets stored in the memory. In some embodiments, the user interacts with the GUI primarily through finger touches and gestures on the touch-sensitive display. In some embodiments, the functions include telephone calls, video conferencing, email, instant messaging, blogs, digital photos, digital video, web browsing, digital music playback, and / or digital video playback. Instructions for performing these functions are included in a computer program product configured to be executed by one or more processors (eg, a computer readable storage medium having instructions stored thereon).

ある実施形態によれば、コンピュータ実施方法は、タッチスクリーンディスプレイを伴うポータブル電子装置において遂行される。コンピュータ実施方法は、ユーザにより選択されたテキストキャラクタ入力及び絵文字キャラクタ入力を表示するよう動作できるキャラクタ入力エリア、キーボード表示エリア、及び複数の絵文字カテゴリアイコンを同時に表示することを含む。本明細書及び特許請求の範囲で使用する「テキストキャラクタ」とは、アルファニューメリックキャラクタ、サイノグラフ、日本語の漢字又は仮名記号、及び/又はその他、人間の書記言語キャラクタを指す。又、本明細書及び特許請求の範囲で使用する「絵文字キャラクタ」とは、人間の書記言語におけるテキストキャラクタではない静止及びアニメ化絵文字を指す。絵文字カテゴリアイコンは、複数の絵文字カテゴリに対応する。又、コンピュータ実施方法は、複数の絵文字カテゴリアイコンの各絵文字カテゴリアイコンにおけるジェスチャーを検出し、そして各絵文字カテゴリアイコンにおけるジェスチャーの検出に応答して、キーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットと、各絵文字カテゴリに対する複数のサブセットシーケンス印アイコンとを同時に表示することを含み、各絵文字カテゴリは、絵文字キャラクタキーのサブセットのシーケンスとしてキーボード表示エリアに個別に表示されるように構成された絵文字キャラクタキーの多数のサブセットを含み、そしてサブセットシーケンス印アイコンは、各絵文字カテゴリにおけるサブセットの数と、キーボード表示エリアにおける絵文字キャラクタキーのサブセットのシーケンスの中の表示されるサブセットの位置とに関する情報を与える。又、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットをキーボード表示エリアに表示する間に、このコンピュータ実施方法は、キーボード表示エリアにおけるジェスチャーを検出し、そしてキーボード表示エリアにおけるジェスチャーの検出に応答して、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第2サブセットの表示と置き換え、更に、サブセットシーケンス印アイコンによって与えられる情報を、絵文字キャラクタキーの第2サブセットによる絵文字キャラクタキーの表示された第1サブセットとの置き換えを反映するように更新することを含む。   According to certain embodiments, the computer-implemented method is performed in a portable electronic device with a touch screen display. The computer-implemented method includes simultaneously displaying a character input area operable to display text character input and pictogram character input selected by a user, a keyboard display area, and a plurality of pictogram category icons. A “text character” as used herein and in the claims refers to alphanumeric characters, sinographs, Japanese kanji or kana symbols, and / or other human written language characters. In addition, the “pictogram character” used in the present specification and claims refers to stationary and animated pictograms that are not text characters in human writing languages. The pictogram category icon corresponds to a plurality of pictogram categories. The computer-implemented method also detects a gesture in each pictogram category icon of the plurality of pictogram category icons, and in response to detecting a gesture in each pictogram category icon, the computer-implemented method includes a first emoji character key for each pictogram category in the keyboard display area. Displaying a subset and a plurality of subset sequence mark icons for each pictogram category at the same time, each pictogram category being configured to be displayed individually in the keyboard display area as a sequence of subsets of pictogram character keys It contains multiple subsets of emoji character keys, and the subset sequence mark icon shows the number of subsets in each emoji category and the emoji character key support in the keyboard display area. It gives information about the position of the subset is displayed in the set of sequences. Also, while displaying the first subset of pictogram character keys for each pictogram category in the keyboard display area, the computer-implemented method detects gestures in the keyboard display area and is responsive to detecting gestures in the keyboard display area. The display of the first subset of pictogram character keys for each pictogram category is replaced with the display of the second subset of pictogram character keys for each pictogram category in the keyboard display area, and the information provided by the subset sequence mark icon Updating to reflect the replacement of the emoticon character keys with the displayed first subset by the second subset.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムとを備えている。1つ以上のプログラムは、メモリに記憶され、1つ以上のプロセッサによって実行されるように構成される。1つ以上のプログラムは、ユーザによって選択されたテキストキャラクタ入力及び絵文字キャラクタ入力を表示するように動作できるキャラクタ入力エリア、キーボード表示エリア、及び複数の絵文字カテゴリアイコンを同時に表示するためのインストラクションを含み、絵文字カテゴリアイコンは、複数の絵文字カテゴリに対応する。又、1つ以上のプログラムは、複数の絵文字カテゴリアイコンの各絵文字カテゴリアイコンにおけるジェスチャーを検出し、そして各絵文字カテゴリアイコンにおけるジェスチャーの検出に応答して、キーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットと、各絵文字カテゴリに対する複数のサブセットシーケンス印アイコンとを同時に表示するためのインストラクションも含み、各絵文字カテゴリは、絵文字キャラクタキーのサブセットのシーケンスとしてキーボード表示エリアに個別に表示されるように構成された絵文字キャラクタキーの多数のサブセットを含み、そしてサブセットシーケンス印アイコンは、各絵文字カテゴリにおけるサブセットの数と、キーボード表示エリアにおける絵文字キャラクタキーのサブセットのシーケンスの中の表示されるサブセットの位置とに関する情報を与える。又、このプログラムは、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットをキーボード表示エリアに表示する間に、キーボード表示エリアにおけるジェスチャーを検出し、そしてキーボード表示エリアにおけるジェスチャーの検出に応答して、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第2サブセットの表示と置き換え、更に、サブセットシーケンス印アイコンによって与えられる情報を、絵文字キャラクタキーの第2サブセットによる絵文字キャラクタキーの表示された第1サブセットとの置き換えを反映するように更新するためのインストラクションも含む。   According to certain embodiments, the portable electronic device includes a touch screen display, one or more processors, memory, and one or more programs. The one or more programs are stored in a memory and configured to be executed by one or more processors. The one or more programs include a character input area operable to display a text character input and pictogram character input selected by a user, a keyboard display area, and instructions for displaying a plurality of pictogram category icons simultaneously, The pictogram category icon corresponds to a plurality of pictogram categories. In addition, the one or more programs detect a gesture in each pictogram category icon of a plurality of pictogram category icons, and respond to detection of a gesture in each pictogram category icon in response to detection of a gesture in each pictogram category icon And an instruction for simultaneously displaying a plurality of subset sequence mark icons for each pictogram category, each pictogram category being displayed individually in the keyboard display area as a sequence of a subset of pictogram character keys. Contains a large number of subsets of emoji character keys, and the subset sequence mark icon indicates the number of subsets in each emoji category and the emoticons in the keyboard display area. It gives information about the position of the subset is displayed in the sequence of a subset of the character keys. The program also detects gestures in the keyboard display area while displaying the first subset of emoji character keys for each pictogram category in the keyboard display area, and in response to detecting gestures in the keyboard display area, The display of the first subset of pictogram character keys for the pictogram category is replaced with the display of the second subset of pictogram character keys for each pictogram category in the keyboard display area, and the information provided by the subset sequence mark icon is replaced with the first of the pictogram character keys. Instructions are also included for updating to reflect the replacement of the displayed subset of pictogram character keys by the two subsets.

ある実施形態によれば、コンピュータ読み取り可能な記憶媒体は、タッチスクリーンディスプレイを伴うポータブル電子装置で実行されたときに、そのポータブル電子装置が、ユーザによって選択されたテキストキャラクタ入力及び絵文字キャラクタ入力を表示するように動作できるキャラクタ入力エリア、キーボード表示エリア、及び複数の絵文字カテゴリアイコンを同時に表示し、絵文字カテゴリアイコンは、複数の絵文字カテゴリに対応するものであり、複数の絵文字カテゴリアイコンの各絵文字カテゴリアイコンにおけるジェスチャーを検出し、そして各絵文字カテゴリアイコンにおけるジェスチャーの検出に応答して、キーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットと、各絵文字カテゴリに対する複数のサブセットシーケンス印アイコンとを同時に表示し、各絵文字カテゴリは、絵文字キャラクタキーのサブセットのシーケンスとしてキーボード表示エリアに個別に表示されるように構成された絵文字キャラクタキーの多数のサブセットを含み、そしてサブセットシーケンス印アイコンは、各絵文字カテゴリにおけるサブセットの数と、キーボード表示エリアにおける絵文字キャラクタキーのサブセットのシーケンスの中の表示されるサブセットの位置とに関する情報を与え、又、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットをキーボード表示エリアに表示する間に、キーボード表示エリアにおけるジェスチャーを検出し、そしてキーボード表示エリアにおけるジェスチャーの検出に応答して、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第2サブセットの表示と置き換え、更に、サブセットシーケンス印アイコンによって与えられる情報を、絵文字キャラクタキーの第2サブセットによる絵文字キャラクタキーの表示された第1サブセットとの置き換えを反映するように更新するようにさせるインストラクションを記憶している。   According to one embodiment, a computer-readable storage medium displays text character input and pictogram character input selected by a user when executed on a portable electronic device with a touch screen display. A character input area, a keyboard display area, and a plurality of pictogram category icons that can be operated simultaneously are displayed. The pictogram category icon corresponds to a plurality of pictogram categories, and each pictogram category icon of the plurality of pictogram category icons A first subset of pictogram character keys for each pictogram category in the keyboard display area and each pictogram in response to detecting a gesture at each pictogram category icon Multiple subset sequence mark icons for a category are displayed simultaneously, and each emoji category includes multiple subsets of emoji character keys configured to be displayed individually in the keyboard display area as a sequence of emoji character key subsets. , And the subset sequence mark icon gives information about the number of subsets in each pictogram category and the position of the displayed subset in the pictogram character key subset sequence in the keyboard display area, and the pictogram for each pictogram category Detecting a gesture in the keyboard display area while displaying the first subset of the character keys in the keyboard display area, and in response to detecting the gesture in the keyboard display area, The display of the first subset of pictogram character keys for the character category is replaced with the display of the second subset of pictogram character keys for each pictogram category in the keyboard display area, and the information provided by the subset sequence mark icon is replaced with the first of the pictogram character keys. Instructions to be updated to reflect the replacement of the pictogram character keys by the two subsets with the displayed first subset are stored.

ある実施形態によれば、タッチスクリーンディスプレイを伴うポータブル電子装置のグラフィックユーザインターフェイスは、ユーザにより選択されたテキストキャラクタ入力及び絵文字キャラクタ入力を表示するように動作できるキャラクタ入力エリア、キーボード表示エリア、及び複数の絵文字カテゴリアイコンを備えている。絵文字カテゴリアイコンは、複数の絵文字カテゴリに対応する。各絵文字カテゴリは、絵文字キャラクタキーのサブセットのシーケンスとしてキーボード表示エリアに個別に表示されるように構成された絵文字キャラクタキーの多数のサブセットを含む。又、グラフィックユーザインターフェイスは、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットと、各絵文字カテゴリに対する絵文字キャラクタキーの第2サブセットと、各絵文字カテゴリに対する複数のサブセットシーケンス印アイコンとを含む。このサブセットシーケンス印アイコンは、各絵文字カテゴリにおけるサブセットの数と、キーボード表示エリアにおける絵文字キャラクタキーのサブセットのシーケンスの中の表示されるサブセットの位置とに関する情報を与える。キャラクタ入力エリア、キーボード表示エリア及び複数の絵文字カテゴリアイコンは、同時に表示される。複数の絵文字カテゴリアイコンの各絵文字カテゴリアイコンにおけるジェスチャーの検出に応答して、キーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットが各絵文字カテゴリに対する複数のサブセットシーケンス印アイコンと同時に表示される。キーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットを表示する間にキーボード表示エリアでジェスチャーを検出するのに応答して、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットの表示が、キーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第2サブセットの表示と置き換えられ、更に、サブセットシーケンス印アイコンにより与えられる情報が、絵文字キャラクタキーの第2サブセットによる絵文字キャラクタキーの表示された第1サブセットとの置き換えを反映するように更新される。   According to an embodiment, a graphic user interface of a portable electronic device with a touch screen display includes a character input area operable to display a text character input and an emoji character input selected by a user, a keyboard display area, and a plurality of Equipped with emoji category icons. The pictogram category icon corresponds to a plurality of pictogram categories. Each pictogram category includes multiple subsets of pictogram character keys that are configured to be individually displayed in the keyboard display area as a sequence of subsets of pictogram character keys. The graphic user interface also includes a first subset of pictogram character keys for each pictogram category, a second subset of pictogram character keys for each pictogram category, and a plurality of subset sequence mark icons for each pictogram category. This subset sequence mark icon provides information regarding the number of subsets in each pictogram category and the position of the displayed subset in the pictogram character key subset sequence in the keyboard display area. A character input area, a keyboard display area, and a plurality of pictogram category icons are displayed simultaneously. In response to detecting a gesture in each pictogram category icon of the plurality of pictogram category icons, a first subset of pictogram character keys for each pictogram category in the keyboard display area is displayed simultaneously with a plurality of subset sequence mark icons for each pictogram category. . In response to detecting a gesture in the keyboard display area while displaying the first subset of pictogram character keys for each pictogram category in the keyboard display area, the display of the first subset of pictogram character keys for each pictogram category is displayed on the keyboard. It is replaced with the display of the second subset of pictogram character keys for each pictogram category in the display area, and the information provided by the subset sequence mark icon is the first subset in which the pictogram character keys are displayed by the second subset of pictogram character keys. Updated to reflect the replacement.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、ユーザにより選択されたテキストキャラクタ入力及び絵文字キャラクタ入力を表示するように動作できるキャラクタ入力エリア、キーボード表示エリア、及び複数の絵文字カテゴリアイコンを同時に表示するための手段とを備え、絵文字カテゴリアイコンは、複数の絵文字カテゴリに対応する。又、この装置は、複数の絵文字カテゴリアイコンの各絵文字カテゴリアイコンにおけるジェスチャーを検出するための手段と、各絵文字カテゴリアイコンにおけるジェスチャーの検出に応答して、キーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットと、各絵文字カテゴリに対する複数のサブセットシーケンス印アイコンとを同時に表示するための手段とを備え、各絵文字カテゴリは、絵文字キャラクタキーのサブセットのシーケンスとしてキーボード表示エリアに個別に表示されるように構成された絵文字キャラクタキーの多数のサブセットを含み、そしてサブセットシーケンス印アイコンは、各絵文字カテゴリにおけるサブセットの数と、キーボード表示エリアにおける絵文字キャラクタキーのサブセットのシーケンスの中の表示されるサブセットの位置とに関する情報を与える。又、この装置は、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットをキーボード表示エリアに表示する間に、キーボード表示エリアにおけるジェスチャーを検出するための手段と、キーボード表示エリアにおけるジェスチャーの検出に応答して、各絵文字カテゴリに対する絵文字キャラクタキーの第1サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリに対する絵文字キャラクタキーの第2サブセットの表示と置き換え、更に、サブセットシーケンス印アイコンによって与えられる情報を、絵文字キャラクタキーの第2サブセットによる絵文字キャラクタキーの表示された第1サブセットとの置き換えを反映するように更新
するための手段とを備えている。
According to certain embodiments, a portable electronic device includes a touch screen display, a character input area operable to display a text character input and an emoji character input selected by a user, a keyboard display area, and a plurality of pictogram category icons. The pictogram category icon corresponds to a plurality of pictogram categories. The apparatus also includes means for detecting a gesture in each pictogram category icon of a plurality of pictogram category icons and a pictogram character key for each pictogram category in the keyboard display area in response to detection of a gesture in each pictogram category icon. And a means for simultaneously displaying a plurality of subset sequence mark icons for each pictogram category, wherein each pictogram category is individually displayed in the keyboard display area as a sequence of a subset of pictogram character keys. Includes a number of subsets of emoji character keys configured, and the subset sequence mark icon indicates the number of subsets in each emoji category and the emoji character keys in the keyboard display area. It gives information about the position of the subset is displayed in the sequence of subsets. The apparatus also responds to means for detecting gestures in the keyboard display area and detecting gestures in the keyboard display area while displaying the first subset of pictogram character keys for each pictogram category in the keyboard display area. The display of the first subset of pictogram character keys for each pictogram category is replaced with the display of the second subset of pictogram character keys for each pictogram category in the keyboard display area, and the information provided by the subset sequence mark icon is replaced with the pictogram character. Means for updating to reflect the replacement of the emoticon character key with the displayed first subset by the second subset of keys.

ある実施形態によれば、タッチスクリーンディスプレイを伴うポータブル電子装置においてそのポータブル電子装置がユーザインターフェイスロックモードにある間にコンピュータ実施方法が遂行される。この方法は、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取り、その到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、そして当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示することを含む。又、この方法は、絵文字キャラクタに対応するタッチスクリーンディスプレイ上の1つ以上の既定の指ジェスチャーを検出し、到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出し、そしてその到来するメッセージに対する応答の送信を開始するための既定のユーザアクションの検出に応答して、到来するメッセージに対する応答を送信することも含む。その応答は、タッチスクリーンディスプレイ上で検出された1つ以上の既定の指ジェスチャーに対応する絵文字キャラクタを含む。   According to certain embodiments, a computer-implemented method is performed in a portable electronic device with a touch screen display while the portable electronic device is in a user interface lock mode. The method receives an incoming message from a party to a user of a portable electronic device while the touch screen display is in a power save state, and in response to receiving the incoming message, powers on the touch screen display; and Displaying at least a portion of a message coming from the party to the user on the touch screen display. The method also detects one or more default finger gestures on the touch screen display corresponding to the emoji character, detects a default user action to initiate transmission of a response to the incoming message, and It also includes sending a response to the incoming message in response to detecting a predetermined user action to initiate sending a response to the incoming message. The response includes an emoji character corresponding to one or more predetermined finger gestures detected on the touch screen display.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムとを備えている。1つ以上のプログラムは、メモリに記憶されて、1つ以上のプロセッサにより実行されるように構成される。1つ以上のプログラムは、ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取り、その到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、そして当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、絵文字キャラクタに対応するタッチスクリーンディスプレイ上の1つ以上の既定の指ジェスチャーを検出し、到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出し、そしてその到来するメッセージに対する応答の送信を開始するための既定のユーザアクションの検出に応答して、到来するメッセージに対する応答を送信するためのインストラクションを含む。その応答は、タッチスクリーンディスプレイ上で検出された1つ以上の既定の指ジェスチャーに対応する絵文字キャラクタを含む。   According to certain embodiments, the portable electronic device includes a touch screen display, one or more processors, memory, and one or more programs. The one or more programs are stored in the memory and are configured to be executed by the one or more processors. One or more programs receive an incoming message from a party to a user of the portable electronic device while the touch screen display is in a power saving state while the portable electronic device is in user interface lock mode, and receive the incoming message. In response to receiving, the touch screen display is powered on, and at least a portion of a message coming from the party to the user is displayed on the touch screen display, and one or more predefined ones on the touch screen display corresponding to the emoji character A default user action for detecting a finger gesture, detecting a default user action for initiating transmission of a response to an incoming message, and for initiating transmission of a response to the incoming message Out in response to, including instructions for sending a response to the incoming message. The response includes an emoji character corresponding to one or more predetermined finger gestures detected on the touch screen display.

ある実施形態によれば、コンピュータ読み取り可能な記憶媒体は、タッチスクリーンディスプレイを伴うポータブル電子装置により実行されたときに、そのポータブル電子装置が、それがユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取るようにさせるインストラクションを記憶している。又、このインストラクションは、そのポータブル電子装置が、それがユーザインターフェイスロックモードにある間に、その到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、そして当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、絵文字キャラクタに対応するタッチスクリーンディスプレイ上の1つ以上の既定の指ジェスチャーを検出し、到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出し、そしてその到来するメッセージに対する応答の送信を開始するための既定のユーザアクションの検出に応答して、到来するメッセージに対する応答を送信するようにさせる。その応答は、タッチスクリーンディスプレイ上で検出された1つ以上の既定の指ジェスチャーに対応する絵文字キャラクタを含む。   According to certain embodiments, a computer readable storage medium is displayed on a touch screen display when executed by the portable electronic device with a touch screen display while the portable electronic device is in a user interface lock mode. Stores instructions that cause it to receive incoming messages from the party to the user of the portable electronic device while the device is in the power saving state. The instruction also powers on the touch screen display and comes from the party to the user in response to the portable electronic device receiving the incoming message while it is in user interface lock mode. A default user action for displaying at least a portion of the message on the touch screen display, detecting one or more default finger gestures on the touch screen display corresponding to the emoji character, and initiating a response to the incoming message And in response to detecting a default user action to initiate transmission of a response to the incoming message, a response to the incoming message is transmitted. The response includes an emoji character corresponding to one or more predetermined finger gestures detected on the touch screen display.

ある実施形態によれば、タッチスクリーンディスプレイを伴うポータブル電子装置のグラフィックユーザインターフェイスは、当事者からポータブル電子装置のユーザへ到来するメッセージの少なくとも一部分を含む。ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、そして当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示する。ポータブル電子装置がユーザインターフェイスロックモードにある間に、絵文字キャラクタに対応するタッチスクリーンディスプレイ上の1つ以上の既定の指ジェスチャーを検出する。ポータブル電子装置がユーザインターフェイスロックモードにある間に、到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出するのに応答して、到来するメッセージに対する応答を送信する。その応答は、タッチスクリーンディスプレイ上で検出された1つ以上の既定の指ジェスチャーに対応する絵文字キャラクタを含む。   According to an embodiment, a graphic user interface of a portable electronic device with a touch screen display includes at least a portion of a message coming from a party to a user of the portable electronic device. While the portable electronic device is in user interface lock mode, the touch screen display is powered on in response to receiving an incoming message from the party to the user of the portable electronic device while the touch screen display is in a power saving state. And at least a portion of a message coming from the party to the user is displayed on the touch screen display. While the portable electronic device is in the user interface lock mode, one or more predefined finger gestures on the touch screen display corresponding to the emoji character are detected. While the portable electronic device is in the user interface lock mode, it transmits a response to the incoming message in response to detecting a default user action to initiate transmission of a response to the incoming message. The response includes an emoji character corresponding to one or more predetermined finger gestures detected on the touch screen display.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取る手段と、到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンする手段と、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示する手段と、絵文字キャラクタに対応するタッチスクリーンディスプレイ上の1つ以上の既定の指ジェスチャーを検出する手段と、到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出する手段と、到来するメッセージに対する応答の送信を開始するための既定のユーザアクションの検出に応答して、到来するメッセージに対する応答を送信する手段とを備えている。その応答は、タッチスクリーンディスプレイ上で検出された1つ以上の既定の指ジェスチャーに対応する絵文字キャラクタを含む。   According to one embodiment, the portable electronic device arrives at the user of the portable electronic device from the party while the touch screen display is in a power saving state while the touch screen display and the portable electronic device are in user interface lock mode. Means for receiving a message, means for powering on the touch screen display in response to receiving the incoming message, means for displaying at least a portion of the incoming message from the party to the user on the touch screen display, and an emoji character Means for detecting one or more default finger gestures on the touch screen display corresponding to the means for detecting, and means for detecting a default user action for initiating transmission of a response to an incoming message; In response to detecting a predefined user action to initiate the transmission of a response to the message, and means for transmitting a response to the incoming message. The response includes an emoji character corresponding to one or more predetermined finger gestures detected on the touch screen display.

ある実施形態によれば、コンピュータ実施方法は、タッチスクリーンディスプレイを伴うポータブル電子装置において、ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取り、到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、到来するメッセージに対する複数の既定の応答を表示し、その規定の応答は、複数の絵文字キャラクタを含み、更に、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出し、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出し、そして到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションの検出に応答して、到来するメッセージに対する選択された既定の応答を送信することを含む。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。   According to certain embodiments, a computer-implemented method is provided in a portable electronic device with a touch screen display from a party while the portable electronic device is in a user interface lock mode and the touch screen display is in a power save state. Incoming message to the user of the device and in response to receiving the incoming message, the touch screen display is powered on and at least a portion of the incoming message from the party to the user is displayed on the touch screen display and the incoming message Display a plurality of default responses to the default response, the default response includes a plurality of pictogram characters, and further detects and arrives at a default user action for selecting a default response among the plurality of default responses. Do Detect a default user action to start sending a selected default response to a message, and respond to detecting a default user action to start sending a selected default response to an incoming message Sending a selected default response to the incoming message. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムとを備え、1つ以上のプログラムは、メモリに記憶されて、1つ以上のプロセッサにより実行されるように構成される。1つ以上のプログラムは、ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取り、到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、到来するメッセージに対する複数の既定の応答を表示し、その規定の応答は、複数の絵文字キャラクタを含み、更に、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出し、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出し、そして到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションの検出に応答して、到来するメッセージに対する選択された既定の応答を送信するためのインストラクションを含む。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。   According to certain embodiments, a portable electronic device comprises a touch screen display, one or more processors, a memory, and one or more programs, the one or more programs stored in the memory, It is configured to be executed by one or more processors. One or more programs receive an incoming message from a party to the user of the portable electronic device while the touch screen display is in a power save state while the portable electronic device is in user interface lock mode, and receive an incoming message In response to powering on the touch screen display, displaying at least a portion of the incoming message from the party to the user on the touch screen display, displaying a plurality of predefined responses to the incoming message, the default response being: Detecting a default user action for selecting a default response among a plurality of default responses and initiating transmission of the selected default response to an incoming message. Default user action Out, and in response to the detection of the default user action to start sending default response that is selected for the incoming messages, including instructions for sending the default response that is selected for the incoming message. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、コンピュータ読み取り可能な記憶媒体は、タッチスクリーンディスプレイを伴うポータブル電子装置により実行されたときに、そのポータブル電子装置が、それがユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取り、到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、到来するメッセージに対する複数の既定の応答を表示し、その規定の応答は、複数の絵文字キャラクタを含み、更に、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出し、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出し、そして到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションの検出に応答して、到来するメッセージに対する選択された既定の応答を送信するようにさせるインストラクションを記憶している。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。   According to certain embodiments, a computer readable storage medium is displayed on a touch screen display when executed by the portable electronic device with a touch screen display while the portable electronic device is in a user interface lock mode. Receiving an incoming message from the party to the user of the portable electronic device while the device is in a power saving state, and in response to receiving the incoming message, powers on the touch screen display and at least a message coming from the party to the user A portion is displayed on the touch screen display, and multiple default responses to incoming messages are displayed, the default response includes multiple pictogram characters, and a default response is selected among the multiple default responses in order to To detect a predetermined user action, detect a default user action to initiate transmission of a selected default response to an incoming message, and initiate transmission of a selected default response to an incoming message In response to detecting the default user action, instructions are stored that cause a selected default response to be sent for an incoming message. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、タッチスクリーンディスプレイを伴うポータブル電子装置のグラフィックユーザインターフェイスは、当事者からポータブル電子装置のユーザへ到来するメッセージの少なくとも一部分と、その到来するメッセージに対する複数の既定の応答とを含む。その規定の応答は、複数の絵文字キャラクタを含む。ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、到来するメッセージに対する複数の既定の応答を表示し、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出し、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、到来するメッセージに対する選択された既定の応答を送信する。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。   According to an embodiment, a graphic user interface of a portable electronic device with a touch screen display includes at least a portion of a message coming from a party to a user of the portable electronic device and a plurality of predefined responses to the incoming message. . The prescribed response includes a plurality of pictogram characters. While the portable electronic device is in user interface lock mode, the touch screen display is powered on in response to receiving an incoming message from the party to the user of the portable electronic device while the touch screen display is in a power saving state. , Display at least a portion of the incoming message from the party to the user on the touch screen display, display multiple default responses to the incoming message, and select a default response among the multiple default responses In response to detecting a user action and detecting a default user action for initiating transmission of a selected default response to an incoming message, a selected default response for the incoming message is transmitted. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取る手段と、到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンする手段と、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示する手段と、到来するメッセージに対する複数の既定の応答を表示する手段であって、その規定の応答が複数の絵文字キャラクタを含むような手段と、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出する手段と、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出する手段と、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、到来するメッセージに対する選択された既定の応答を送信する手段とを備えている。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。   According to one embodiment, the portable electronic device arrives at the user of the portable electronic device from the party while the touch screen display is in a power saving state while the touch screen display and the portable electronic device are in user interface lock mode. Means for receiving a message to respond, means for powering on the touch screen display in response to receiving the incoming message, means for displaying at least a portion of the message coming from the party to the user on the touch screen display Means for displaying a plurality of default responses to a message, wherein the default response includes a plurality of pictogram characters, and a default user for selecting a default response among the plurality of default responses Detect action And means for detecting a default user action for initiating transmission of a selected default response for an incoming message; and a default user for initiating transmission of a selected default response for an incoming message. Means for transmitting a selected default response to the incoming message in response to detecting the action. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、コンピュータ実施方法は、タッチスクリーンディスプレイを伴うポータブル電子装置において、ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取り、その到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出し、その規定の応答は、複数の絵文字キャラクタを含み、更に、到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出するのに応答して、複数の既定の応答を表示し、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出し、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出し、そして到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、到来するメッセージに対する選択された既定の応答を送信することを含む。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。   According to certain embodiments, a computer-implemented method is provided in a portable electronic device with a touch screen display from a party while the portable electronic device is in a user interface lock mode and the touch screen display is in a power save state. In response to receiving an incoming message to the user of the device and in response to receiving the incoming message, the touch screen display is powered on and at least a portion of the incoming message from the party to the user is displayed on the touch screen display A default user action for initiating display of a plurality of default responses to the message is detected, the default response including a plurality of pictogram characters, and a plurality of default responses to the incoming message. In response to detecting a default user action to start displaying the default user action to display multiple default responses and to select a default response among the multiple default responses Default user action for detecting and detecting a default user action for initiating transmission of a selected default response to an incoming message and for initiating transmission of a selected default response for an incoming message In response to detecting a predetermined default response to the incoming message. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムとを備え、1つ以上のプログラは、メモリに記憶されて、1つ以上のプロセッサにより実行されるように構成される。1つ以上のプログラムは、ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取り、その到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出し、その規定の応答は、複数の絵文字キャラクタを含み、更に、到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出するのに応答して、複数の既定の応答を表示し、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出し、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出し、そして到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、到来するメッセージに対する選択された既定の応答を送信するためのインストラクションを含む。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。   According to an embodiment, the portable electronic device comprises a touch screen display, one or more processors, a memory, and one or more programs, wherein the one or more programs are stored in the memory, and It is configured to be executed by one or more processors. One or more programs receive an incoming message from a party to a user of the portable electronic device while the touch screen display is in a power saving state while the portable electronic device is in user interface lock mode, and receive the incoming message. In response to receiving, the touch screen display is powered on, at least a portion of the message coming from the party to the user is displayed on the touch screen display, and a default for initiating display of multiple default responses to the incoming message In response to detecting a default user action for initiating display of a plurality of default responses to an incoming message. Multiple default responses Displays a default user action for detecting a default user action for selecting a default response among multiple default responses and starting sending the selected default response for an incoming message. Instructions for sending a selected default response to an incoming message in response to detecting and detecting a default user action to initiate transmission of the selected default response to the incoming message including. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、コンピュータ読み取り可能な記憶媒体は、タッチスクリーンディスプレイを伴うポータブル電子装置により実行されたときに、そのポータブル電子装置が、それがユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取り、その到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出し、その規定の応答は、複数の絵文字キャラクタを含み、更に、到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出するのに応答して、複数の既定の応答を表示し、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出し、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出し、そして到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、到来するメッセージに対する選択された既定の応答を送信するためのインストラクションを記憶している。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。   According to certain embodiments, a computer readable storage medium is displayed on a touch screen display when executed by the portable electronic device with a touch screen display while the portable electronic device is in a user interface lock mode. Receives an incoming message from the party to the user of the portable electronic device while the device is in a power saving state, and in response to receiving the incoming message, powers on the touch screen display and Displaying at least a portion on the touch screen display and detecting a default user action for initiating display of a plurality of default responses to an incoming message, the default response including a plurality of emoji characters; In response to detecting a default user action to initiate display of multiple default responses to incoming messages, display multiple default responses, and display a default response in multiple default responses Detects default user action to select, detects default user action to initiate transmission of selected default response to incoming message, and transmits selected default response to incoming message In response to detecting a default user action for initiating a message, instructions are stored for sending a selected default response to the incoming message. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、タッチスクリーンディスプレイを伴うポータブル電子装置のグラフィックユーザインターフェイスは、当事者からポータブル電子装置のユーザへ到来するメッセージの少なくとも一部分と、その到来するメッセージに対する複数の既定の応答とを含む。その規定の応答は、複数の絵文字キャラクタを含む。ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンし、当事者からユーザへ到来
するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示し、到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出するのに応答して、複数の既定の応答を表示し、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出し、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、到来するメッセージに対する選択された既定の応答を送信する。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。
According to an embodiment, a graphic user interface of a portable electronic device with a touch screen display includes at least a portion of a message coming from a party to a user of the portable electronic device and a plurality of predefined responses to the incoming message. . The prescribed response includes a plurality of pictogram characters. While the portable electronic device is in user interface lock mode, the touch screen display is powered on in response to receiving an incoming message from the party to the user of the portable electronic device while the touch screen display is in a power saving state. Responsive to detecting a default user action to display at least a portion of an incoming message from the party to the user on the touch screen display and to initiate display of a plurality of default responses to the incoming message; Default response to view default response, detect default user action to select default response among multiple default responses, and start sending selected default response to incoming message In response to detecting a user action, Sending a default response that is selected for the message to be. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、ポータブル電子装置がユーザインターフェイスロックモードにある間に、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受け取る手段と、到来するメッセージを受け取るのに応答して、タッチスクリーンディスプレイを電源オンする手段と、当事者からユーザへ到来するメッセージの少なくとも一部分をタッチスクリーンディスプレイに表示する手段と、到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出する手段であって、その規定の応答が複数の絵文字キャラクタを含むような手段と、到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出するのに応答して、複数の既定の応答を表示する手段と、複数の既定の応答の中の既定の応答を選択するための既定のユーザアクションを検出する手段と、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出する手段と、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、到来するメッセージに対する選択された既定の応答を送信する手段と、を備えている。その選択された既定の応答は、複数の絵文字キャラクタの中の絵文字キャラクタを含む。   According to one embodiment, the portable electronic device arrives at the user of the portable electronic device from the party while the touch screen display is in a power saving state while the touch screen display and the portable electronic device are in user interface lock mode. Means for receiving a message to respond, means for powering on the touch screen display in response to receiving the incoming message, means for displaying at least a portion of the message coming from the party to the user on the touch screen display Means for detecting a default user action for initiating display of a plurality of default responses to a message, wherein the default response includes a plurality of pictogram characters; and a plurality of default responses to an incoming message A means for displaying multiple default responses in response to detecting a default user action for initiating display of responses, and a default for selecting a default response among the multiple default responses Means for detecting a user action, means for detecting a default user action for initiating transmission of a selected default response to an incoming message, and initiating transmission of a selected default response for an incoming message Means for transmitting a selected default response to an incoming message in response to detecting a default user action for the. The selected default response includes a pictograph character among the plurality of pictograph characters.

ある実施形態によれば、コンピュータ実施方法は、タッチスクリーンディスプレイを伴うポータブル電子装置において、ポータブル電子装置がユーザ定義ジェスチャー記録モードにある間にタッチスクリーンディスプレイ上でのユーザ定義ジェスチャーを検出し、そのユーザ定義ジェスチャーの表現を生成し、そのユーザ定義ジェスチャーの表現を絵文字キャラクタに関連付け、そしてユーザ定義ジェスチャーの表現、及びユーザ定義ジェスチャーの表現と絵文字キャラクタとの関連付けを記憶することを含む。   According to an embodiment, a computer-implemented method detects in a portable electronic device with a touch screen display a user-defined gesture on the touch screen display while the portable electronic device is in a user-defined gesture recording mode. Generating a representation of the defined gesture, associating the representation of the user-defined gesture with the pictogram character, and storing the representation of the user-defined gesture and the association of the user-defined gesture representation with the pictogram character.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムとを備え、1つ以上のプログラムは、メモリに記憶されて、1つ以上のプロセッサにより実行されるように構成される。1つ以上のプログラムは、ポータブル電子装置がユーザ定義ジェスチャー記録モードにある間にタッチスクリーンディスプレイ上でのユーザ定義ジェスチャーを検出し、そのユーザ定義ジェスチャーの表現を生成し、そのユーザ定義ジェスチャーの表現を絵文字キャラクタに関連付け、そしてユーザ定義ジェスチャーの表現、及びユーザ定義ジェスチャーの表現と絵文字キャラクタとの関連性を記憶するためのインストラクションを含む。   According to certain embodiments, a portable electronic device comprises a touch screen display, one or more processors, a memory, and one or more programs, the one or more programs stored in the memory, It is configured to be executed by one or more processors. One or more programs detect a user-defined gesture on the touch screen display while the portable electronic device is in a user-defined gesture recording mode, generate a representation of the user-defined gesture, and display the representation of the user-defined gesture. It includes instructions for associating with the pictogram character and storing the user-defined gesture representation and the relevance between the user-defined gesture representation and the pictogram character.

ある実施形態によれば、コンピュータ読み取り可能な記憶媒体は、タッチスクリーンディスプレイを伴うポータブル電子装置により実行されたときに、そのポータブル電子装置が、それがユーザ定義ジェスチャー記録モードにある間にタッチスクリーンディスプレイ上でのユーザ定義ジェスチャーを検出し、そのユーザ定義ジェスチャーの表現を生成し、そのユーザ定義ジェスチャーの表現を絵文字キャラクタに関連付け、そしてユーザ定義ジェスチャーの表現、及びユーザ定義ジェスチャーの表現と絵文字キャラクタとの関連性を記憶するようにさせるインストラクションを記憶している。   According to one embodiment, the computer-readable storage medium is displayed on a touch screen display when the portable electronic device is in a user-defined gesture recording mode when executed by the portable electronic device with a touch screen display. Detecting a user-defined gesture above, generating a representation of the user-defined gesture, associating the representation of the user-defined gesture with a pictogram character, and expressing the user-defined gesture and the representation of the user-defined gesture with the pictogram character Instructions for memorizing relevance are stored.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、ポータブル電子装置がユーザ定義ジェスチャー記録モードにある間にタッチスクリーンディスプレイ上でのユーザ定義ジェスチャーを検出する手段と、そのユーザ定義ジェスチャーの表現を生成する手段と、そのユーザ定義ジェスチャーの表現を絵文字キャラクタに関連付ける手段と、ユーザ定義ジェスチャーの表現、及びユーザ定義ジェスチャーの表現と絵文字キャラクタとの関連性を記憶する手段と、を備えている。   According to an embodiment, the portable electronic device includes a touch screen display, means for detecting a user-defined gesture on the touch screen display while the portable electronic device is in a user-defined gesture recording mode, and the user-defined gestures. Means for generating an expression; means for associating the expression of the user-defined gesture with the pictogram character; and means for storing the expression of the user-defined gesture and the relationship between the expression of the user-defined gesture and the pictogram character. .

ある実施形態によれば、コンピュータ実施方法は、タッチスクリーンディスプレイを伴うポータブル電子装置において、電子メッセージを受信することを含む。この電子メッセージは、地理マップアプリケーションを開始するためのインストラクション、地理マップ上の位置を表す位置データ、及び絵文字キャラクタを表す絵文字データを含む。絵文字データは、位置データに関連付けられる。又、この方法は、タッチスクリーンディスプレイ上に電子メッセージを表示し、地理マップアプリケーションを開始するためにその表示された電子メッセージに対する既定のユーザアクションを検出し、そして地理マップアプリケーションを開始するための既定のユーザアクションを検出するのに応答して、地理マップアプリケーションにおける地理マップを表示し、更に、位置データに対応する地理マップ上の位置に絵文字キャラクタを表示することも含む。   According to certain embodiments, a computer-implemented method includes receiving an electronic message at a portable electronic device with a touch screen display. The electronic message includes instructions for starting the geographic map application, location data representing a location on the geographic map, and pictographic data representing a pictographic character. The pictographic data is associated with the position data. The method also displays an electronic message on the touch screen display, detects a default user action for the displayed electronic message to start the geographic map application, and sets a default for starting the geographic map application. In response to detecting the user action, displaying a geographic map in the geographic map application, and further displaying an emoji character at a location on the geographic map corresponding to the location data.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムとを備え、1つ以上のプログラムは、メモリに記憶されて、1つ以上のプロセッサにより実行されるように構成される。1つ以上のプログラムは、電子メッセージを受信するためのインストラクションを含み、電子メッセージは、地理マップアプリケーションを開始するインストラクション、地理マップ上の位置を表す位置データ、及び絵文字キャラクタを表す絵文字データを含む。絵文字データは、位置データに関連付けられる。又、1つ以上のプログラムは、タッチスクリーンディスプレイ上に電子メッセージを表示し、地理マップアプリケーションを開始するためにその表示された電子メッセージに対する既定のユーザアクションを検出し、そして地理マップアプリケーションを開始するための既定のユーザアクションを検出するのに応答して、地理マップアプリケーションにおける地理マップを表示し、更に、位置データに対応する地理マップ上の位置に絵文字キャラクタを表示するためのインストラクションも含む。   According to certain embodiments, a portable electronic device comprises a touch screen display, one or more processors, a memory, and one or more programs, the one or more programs stored in the memory, It is configured to be executed by one or more processors. The one or more programs include instructions for receiving an electronic message, the electronic message including instructions for starting a geographic map application, location data representing a location on the geographic map, and pictographic data representing a pictographic character. The pictographic data is associated with the position data. One or more programs also display an electronic message on the touch screen display, detect a default user action for the displayed electronic message to start the geographic map application, and start the geographic map application. In response to detecting a default user action for displaying a geographic map in the geographic map application, and further including instructions for displaying an emoji character at a location on the geographic map corresponding to the location data.

ある実施形態によれば、コンピュータ読み取り可能な記憶媒体は、タッチスクリーンディスプレイを伴うポータブル電子装置によって実行されたときに、その装置が、電子メッセージを受信するようにさせるインストラクションを記憶している。電子メッセージは、地理マップアプリケーションを開始するインストラクション、地理マップ上の位置を表す位置データ、及び絵文字キャラクタを表す絵文字データを含む。絵文字データは、位置データに関連付けられる。又、インストラクションは、その装置が、タッチスクリーンディスプレイ上に電子メッセージを表示し、地理マップアプリケーションを開始するためにそ
の表示された電子メッセージに対する既定のユーザアクションを検出し、そして地理マップアプリケーションを開始するための既定のユーザアクションを検出するのに応答して、地理マップアプリケーションにおける地理マップを表示し、更に、位置データに対応する地理マップ上の位置に絵文字キャラクタを表示するようにもさせる。
According to certain embodiments, a computer-readable storage medium stores instructions that, when executed by a portable electronic device with a touch screen display, cause the device to receive an electronic message. The electronic message includes instructions for starting the geographic map application, location data representing a location on the geographic map, and pictographic data representing a pictographic character. The pictographic data is associated with the position data. The instruction also causes the device to display an electronic message on the touch screen display, detect a default user action for the displayed electronic message to initiate the geographic map application, and initiate the geographic map application. In response to detecting a default user action for displaying a geographic map in the geographic map application, and further displaying an emoji character at a location on the geographic map corresponding to the location data.

ある実施形態によれば、タッチスクリーンディスプレイを伴うポータブル電子装置のグラフィックユーザインターフェイスは、電子メッセージと、地理マップと、絵文字キャラクタとを含む。電子メッセージは、ポータブル電子装置により受信される。電子メッセージは、地理マップアプリケーションを開始するためのインストラクション、地理マップ上の位置を表す位置データ、及び絵文字キャラクタを表す絵文字データを含む。絵文字データは、位置データに関連付けられる。電子メッセージは、タッチスクリーンディスプレイ上に表示される。地理マップアプリケーションを開始するためにその表示された電子メッセージに対する既定のユーザアクションを検出するのに応答して、地理マップアプリケーションにおける地理マップを表示され、更に、位置データに対応する地理マップ上の位置に絵文字キャラクタが表示される。   According to an embodiment, a graphic user interface of a portable electronic device with a touch screen display includes an electronic message, a geographic map, and an emoji character. The electronic message is received by the portable electronic device. The electronic message includes instructions for starting the geographic map application, location data representing a location on the geographic map, and pictographic data representing a pictographic character. The pictographic data is associated with the position data. The electronic message is displayed on the touch screen display. In response to detecting a default user action for that displayed electronic message to initiate the geographic map application, a geographic map in the geographic map application is displayed, and the location on the geographic map corresponding to the location data A pictogram character is displayed.

ある実施形態によれば、ポータブル電子装置は、タッチスクリーンディスプレイと、電子メッセージを受信する手段とを備え、電子メッセージは、地理マップアプリケーションを開始するインストラクション、地理マップ上の位置を表す位置データ、及び絵文字キャラクタを表す絵文字データを含み、絵文字データは、位置データに関連付けられる。又、この装置は、タッチスクリーンディスプレイ上に電子メッセージを表示する手段と、地理マップアプリケーションを開始するためにその表示された電子メッセージに対する既定のユーザアクションを検出する手段と、地理マップアプリケーションを開始するための既定のユーザアクションを検出するのに応答して、地理マップアプリケーションにおける地理マップを表示する手段と、位置データに対応する地理マップ上の位置に絵文字キャラクタを表示する手段と、を備えている。   According to an embodiment, the portable electronic device comprises a touch screen display and means for receiving an electronic message, the electronic message including instructions for initiating a geographic map application, location data representing a location on the geographic map, and It includes pictographic data representing a pictographic character, and the pictographic data is associated with position data. The apparatus also includes means for displaying an electronic message on the touch screen display, means for detecting a default user action for the displayed electronic message to initiate the geographic map application, and starting the geographic map application. Means for displaying a geographic map in the geographic map application in response to detecting a default user action for, and means for displaying an emoji character at a location on the geographic map corresponding to the location data. .

従って、本発明は、タッチ感知ディスプレイを伴うポータブル電子装置に絵文字を使用するための簡単で、効率的で且つ使い易いインターフェイスを提供する。このようなインターフェイスは、ユーザがタスクをより速く完了させて、バッテリ充電とバッテリ充電との間の時間を延長できることで、電力を保存する。又、このようなインターフェイスは、ポータブル電子装置でのユーザの満足度を高める。   Accordingly, the present invention provides a simple, efficient and easy-to-use interface for using pictograms in portable electronic devices with touch sensitive displays. Such an interface conserves power by allowing the user to complete tasks faster and extend the time between battery charges. Such an interface also increases user satisfaction with portable electronic devices.

本発明の以上の実施形態及び付加的な実施形態を良く理解するため、全体を通して対応部分を同じ参照番号で示した添付図面を参照して実施形態の詳細な説明をする。   For a better understanding of the above and additional embodiments of the present invention, a detailed description of the embodiments will be given with reference to the accompanying drawings, wherein like reference numerals designate corresponding parts throughout.

ある実施形態によるタッチ感知ディスプレイを伴うポータブル多機能装置を示すブロック図である。1 is a block diagram illustrating a portable multifunction device with a touch-sensitive display according to some embodiments. FIG. ある実施形態によるタッチ感知ディスプレイを伴うポータブル多機能装置を示すブロック図である。1 is a block diagram illustrating a portable multifunction device with a touch-sensitive display according to some embodiments. FIG. ある実施形態によるタッチスクリーンを有するポータブル多機能装置を示す。1 illustrates a portable multifunction device having a touch screen according to certain embodiments. ある実施形態によりポータブル電子装置をアンロックするための規範的ユーザインターフェイスを示す。6 illustrates an example user interface for unlocking a portable electronic device according to some embodiments. ある実施形態によるポータブル多機能装置におけるアプリケーションのメニューのための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for a menu of applications in a portable multifunction device according to an embodiment. ある実施形態によるポータブル多機能装置におけるアプリケーションのメニューのための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for a menu of applications in a portable multifunction device according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置に絵文字キャラクタキーを設けて編成するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for providing and organizing pictogram character keys on a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置に絵文字キャラクタキーを設けて編成するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for providing and organizing pictogram character keys on a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置に絵文字キャラクタキーを設けて編成するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for providing and organizing pictogram character keys on a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置に絵文字キャラクタキーを設けて編成するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for providing and organizing pictogram character keys on a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置に絵文字キャラクタキーを設けて編成するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for providing and organizing pictogram character keys on a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置に絵文字キャラクタキーを設けて編成するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for providing and organizing pictogram character keys on a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置に絵文字キャラクタキーを設けて編成するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for providing and organizing pictogram character keys on a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において特定の絵文字カテゴリの絵文字キャラクタサブセット間をナビゲートしそしてある絵文字キャラクタを入力するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for navigating between pictogram character subsets of a particular pictogram category and entering certain pictogram characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において特定の絵文字カテゴリの絵文字キャラクタサブセット間をナビゲートしそしてある絵文字キャラクタを入力するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for navigating between pictogram character subsets of a particular pictogram category and entering certain pictogram characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において特定の絵文字カテゴリの絵文字キャラクタサブセット間をナビゲートしそしてある絵文字キャラクタを入力するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for navigating between pictogram character subsets of a particular pictogram category and entering certain pictogram characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において特定の絵文字カテゴリの絵文字キャラクタサブセット間をナビゲートしそしてある絵文字キャラクタを入力するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for navigating between pictogram character subsets of a particular pictogram category and entering certain pictogram characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において特定の絵文字カテゴリの絵文字キャラクタサブセット間をナビゲートしそしてある絵文字キャラクタを入力するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for navigating between pictogram character subsets of a particular pictogram category and entering certain pictogram characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタを入力しそして絵文字キャラクタを含む電子メッセージを送信するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for entering emoticon characters and transmitting an electronic message including the emoticon characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタを入力しそして絵文字キャラクタを含む電子メッセージを送信するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for entering emoticon characters and transmitting an electronic message including the emoticon characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタを入力しそして絵文字キャラクタを含む電子メッセージを送信するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for entering emoticon characters and transmitting an electronic message including the emoticon characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタを入力しそして絵文字キャラクタを含む電子メッセージを送信するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for entering emoticon characters and transmitting an electronic message including the emoticon characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタを入力しそして絵文字キャラクタを含む電子メッセージを送信するための規範的ユーザインターフェイスを示す。FIG. 6 illustrates an example user interface for entering emoticon characters and transmitting an electronic message including the emoticon characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置においてソフトウェアキーボードの絵文字キャラクタキーを再構成するための規範的ユーザインターフェイスを示す。6 illustrates an example user interface for reconfiguring emoji character keys of a software keyboard in a portable electronic device equipped with a touch sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置においてソフトウェアキーボードの絵文字キャラクタキーを再構成するための規範的ユーザインターフェイスを示す。6 illustrates an example user interface for reconfiguring emoji character keys of a software keyboard in a portable electronic device equipped with a touch sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置においてソフトウェアキーボードの絵文字キャラクタキーを再構成するための規範的ユーザインターフェイスを示す。6 illustrates an example user interface for reconfiguring emoji character keys of a software keyboard in a portable electronic device equipped with a touch sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタにユーザ定義ジェスチャーを指定するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for assigning user-defined gestures to emoji characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタにユーザ定義ジェスチャーを指定するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for assigning user-defined gestures to emoji characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタにユーザ定義ジェスチャーを指定するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for assigning user-defined gestures to emoji characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタにユーザ定義ジェスチャーを指定するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for assigning user-defined gestures to emoji characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタにユーザ定義ジェスチャーを指定するための規範的ユーザインターフェイスを示す。FIG. 4 illustrates an example user interface for assigning user-defined gestures to emoji characters in a portable electronic device equipped with a touch-sensitive display according to some embodiments. ある実施形態により電子メッセージを経て絵文字キャラクタをマップ上の位置指示子として使用するための規範的ユーザインターフェイスを示す。FIG. 5 illustrates an example user interface for using an emoji character as a position indicator on a map via an electronic message according to an embodiment. ある実施形態により電子メッセージを経て絵文字キャラクタをマップ上の位置指示子として使用するための規範的ユーザインターフェイスを示す。FIG. 5 illustrates an example user interface for using an emoji character as a position indicator on a map via an electronic message according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタキーボードを操作する方法を示すフローチャートである。6 is a flowchart illustrating a method of operating an emoji character keyboard in a portable electronic device equipped with a touch-sensitive display according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタキーボードを操作する方法を示すフローチャートである。6 is a flowchart illustrating a method of operating an emoji character keyboard in a portable electronic device equipped with a touch-sensitive display according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタキーボードを操作する方法を示すフローチャートである。6 is a flowchart illustrating a method of operating an emoji character keyboard in a portable electronic device equipped with a touch-sensitive display according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタキーボードを操作する方法を示すフローチャートである。6 is a flowchart illustrating a method of operating an emoji character keyboard in a portable electronic device equipped with a touch-sensitive display according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタキーボードを操作する方法を示すフローチャートである。6 is a flowchart illustrating a method of operating an emoji character keyboard in a portable electronic device equipped with a touch-sensitive display according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタキーボードを操作する方法を示すフローチャートである。6 is a flowchart illustrating a method of operating an emoji character keyboard in a portable electronic device equipped with a touch-sensitive display according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための方法を示すフローチャートである。6 is a flowchart illustrating a method for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための方法を示すフローチャートである。6 is a flowchart illustrating a method for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための方法を示すフローチャートである。6 is a flowchart illustrating a method for responding to a message with pictograms while a portable electronic device equipped with a touch-sensitive display is in a user interface lock mode according to an embodiment. ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字にユーザ定義ジェスチャーを指定する方法を示すフローチャートである。4 is a flowchart illustrating a method for specifying a user-defined gesture for a pictograph in a portable electronic device equipped with a touch-sensitive display according to an embodiment. ある実施形態により電子メッセージを経て絵文字をマップ上の位置指示子として使用する方法を示すフローチャートである。6 is a flowchart illustrating a method for using a pictograph as a position indicator on a map via an electronic message according to an embodiment.

添付図面に示した実施形態を以下に詳細に説明する。以下の詳細な説明において本発明を完全に理解するために多数の特定の細部について述べる。しかしながら、当業者であれば、これらの特定の細部なしに本発明を実施できることが明らかであろう。その他の点については、実施形態の観点を不必要に不明瞭にしないために、良く知られた方法、手順、コンポーネント、回路及びネットワークは、詳細に述べない。   Embodiments shown in the accompanying drawings will be described in detail below. In the following detailed description, numerous specific details are set forth in order to provide a thorough understanding of the present invention. However, it will be apparent to one skilled in the art that the present invention may be practiced without these specific details. In other instances, well-known methods, procedures, components, circuits, and networks have not been described in detail in order not to unnecessarily obscure aspects of the embodiments.

又、第1、第2、等の語は、ここでは、種々の要素を記述するのに使用されるが、これらの要素は、これらの語によって限定されないことも理解されたい。これらの語は、ある要素を別の要素と区別するためにだけ使用される。例えば、本発明の範囲から逸脱せずに、第1のジェスチャーを第2のジェスチャーと称してもよく、同様に、第2のジェスチャーを第1のジェスチャーと称してもよい。   Also, although the terms first, second, etc. are used herein to describe various elements, it should also be understood that these elements are not limited by these words. These terms are only used to distinguish one element from another. For example, a first gesture may be referred to as a second gesture, and, similarly, a second gesture may be referred to as a first gesture without departing from the scope of the present invention.

本発明の説明で使用される用語は、単に特定の実施形態を説明するためのものであり、本発明を何ら限定するものではない。本発明の説明及び特許請求の範囲で使用される単数形“a”“an”及び“the”は、特に明確な指示がない限り、複数形も含むものとする。又、ここで使用する「及び/又は」という語は、列挙された1つ以上の関連品目のいずれかの及び全ての考えられる組み合わせを指し及びそれらを包含するものと理解されたい。更に、本書で使用する「備える(comprises)」及び/又は「備えている(comprising)」という語は、記述された特徴、整数、ステップ、動作、エレメント、及び/又はコンポーネントの存在を特定するが、1つ以上の他の特徴、整数、ステップ、動作、エレメント、コンポーネント、及び/又はそのグループの存在又は追加を除外するものではない。   The terminology used in the description of the present invention is merely for describing particular embodiments and is not intended to limit the present invention in any way. In the description of the invention and in the claims, the singular forms “a”, “an”, and “the” are intended to include the plural forms as well, unless expressly stated otherwise. Also, as used herein, the term “and / or” should be understood to refer to and encompass any and all possible combinations of one or more of the associated items listed. Further, as used herein, the terms “comprises” and / or “comprising” identify the presence of the described feature, integer, step, action, element, and / or component. The presence or addition of one or more other features, integers, steps, operations, elements, components, and / or groups thereof is not excluded.

ここで使用する「〜場合には(if)」という語は、状況に応じて、「〜ときには(when)」又は「〜際には(upon)」又は「決定に応答して」又は「検出に応答して」を意味するものと解釈される。同様に、「〜決定された場合には」又は「[記述された条件又は事象]が検出された場合には」という句は、状況に応じて、「決定する際に」又は「決定するのに応答して」又は「[記述された条件又は事象]を検出する際に」又は「[記述された条件又は事象]を検出するのに応答して」を意味するものと解釈される。   As used herein, the term “if” refers to “when” or “upon” or “in response to a decision” or “detection” depending on the situation. Is interpreted to mean "in response to". Similarly, the phrases “when determined” or “when [stated condition or event] is detected” are used in the context of “when determining” or “determining” depending on the circumstances. "In response to detecting" or "in response to detecting [describing condition or event]" or "in response to detecting [describing condition or event]".

ポータブルの多機能装置、そのような装置のためのユーザインターフェイス、及びそのような装置を使用するための関連プロセスについて述べる。ある実施形態では、装置は、他の機能、例えば、PDA、及び/又は音楽プレーヤ機能も含む移動電話のようなポータブル通信装置である。ポータブルの多機能装置の規範的実施形態は、カリフォルニア州クパチーノのアップルコンピュータ社から入手できるiPhone(登録商標)及びiPod Touch(登録商標)装置を含むが、これに限定されない。   A portable multifunction device, a user interface for such a device, and associated processes for using such a device are described. In some embodiments, the device is a portable communication device such as a mobile phone that also includes other functions, such as PDA and / or music player functions. Exemplary embodiments of portable multifunction devices include, but are not limited to, iPhone® and iPod Touch® devices available from Apple Computer, Cupertino, California.

ユーザインターフェイスは、タッチスクリーン又はタッチスクリーンに表示される仮想クリックホイールに加えて物理的なクリックホイールを含むことができる。クリックホイールは、ホイールの角度的変位、又は装置のユーザによるホイールとの接触点に基づいてナビゲーションコマンドを与えるユーザインターフェイス装置である。又、クリックホイールは、例えば、装置のユーザがホイールの少なくとも一部分又はホイールの中心を押圧したときに、1つ以上のアイテムの選択に対応するユーザコマンドを与えるのにも使用される。或いは又、タッチスクリーン表面上のクリックホイール映像との接触が遮断することは、選択に対応するユーザコマンドを指示する。簡単化のために、以下の説明では、タッチスクリーンを含むポータブル多機能装置が規範的実施形態として使用される。しかしながら、ユーザインターフェイス及び関連プロセスの幾つかを他のポータブル装置に適用できることを理解されたい。   The user interface can include a physical click wheel in addition to the touch screen or a virtual click wheel displayed on the touch screen. A click wheel is a user interface device that provides navigation commands based on the angular displacement of the wheel or the point of contact of the device by the user with the wheel. The click wheel is also used, for example, to provide a user command corresponding to the selection of one or more items when the user of the device presses at least a portion of the wheel or the center of the wheel. Alternatively, blocking contact with the click wheel image on the touch screen surface indicates a user command corresponding to the selection. For simplicity, in the following description, a portable multifunction device that includes a touch screen is used as an exemplary embodiment. However, it should be understood that some of the user interface and associated processes can be applied to other portable devices.

装置は、種々のアプリケーション、例えば、次のアプリケーション1つ以上をサポートすることができる。即ち、電話アプリケーション、ビデオ会議アプリケーション、e−メールアプリケーション、インスタントメッセージングアプリケーション、ブログアプリケーション、写真マネージメントアプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーション。   The device can support various applications, for example, one or more of the following applications. Phone applications, video conferencing applications, email applications, instant messaging applications, blog applications, photo management applications, digital camera applications, digital video camera applications, web browsing applications, digital music player applications, and / or digital video player applications .

装置で実行できる種々のアプリケーションは、少なくとも1つの共通の物理的ユーザインターフェイス装置、例えば、タッチスクリーンを使用する。タッチスクリーンの1つ以上の機能、並びに装置に表示される対応する情報は、あるアプリケーションから次のアプリケーションへ及び/又は各アプリケーション内で調整され及び/又は変更される。このように、装置の共通の物理的アーキテクチャー(タッチスクリーンのような)は、直観的で且つ透過的なユーザインターフェイスで種々のアプリケーションをサポートすることができる。   Various applications that can run on the device use at least one common physical user interface device, such as a touch screen. One or more functions of the touch screen and the corresponding information displayed on the device are adjusted and / or changed from one application to the next and / or within each application. In this way, the common physical architecture of devices (such as touch screens) can support a variety of applications with an intuitive and transparent user interface.

ユーザインターフェイスは、テキストキャラクタ及び絵文字キャラクタを入力し、又は入力するように動作できるソフトキーボード実施形態を含む。ソフトキーボード実施形態は、キーボードの表示アイコンに標準(QWERTY)構成及び/又は非標準構成の記号を含み、これは、例えば、2006年7月24日に出願された“Keyboards For Portable Electronic Devices”と題する米国特許出願第11/459,606号、及び2006年7月24日に出願された“Touch Screen Keyboards For Portable Electronic Devices”と題する米国特許出願第11/459,615号に説明されており、これら特許出願の内容を参考としてここにそのまま援用する。キーボード実施形態は、タイプライター用のもののような既存の物理的キーボードにおけるキーの数に対して少数のアイコン(又はソフトキー)を含む。これは、ユーザがキーボードにおいて1つ以上のアイコン、ひいては、1つ以上の対応する記号を選択し易くする。このキーボード実施形態は、適応性のものである。例えば、表示アイコンは、1つ以上のアイコン及び/又は1つ以上の対応する記号を選択するようなユーザアクションに基づいて変更することができる。ポータブル装置における1つ以上のアプリケーションは、共通の及び/又は異なるキーボード実施形態を使用することができる。従って、使用されるキーボード実施形態は、少なくとも幾つかのアプリケーションに対して調整することができる。ある実施形態では、各ユーザに対して1つ以上のキーボード実施形態を調整することができる。例えば、各ユーザのワード使用履歴(辞書、俗語、個々の使用)に基づいて各ユーザに対して1つ以上のキーボード実施形態を調整することができる。1つ以上のアイコンを選択するとき、従って、ソフトキーボード実施形態を使用するときには1つ以上の記号を選択するときに、ユーザのエラーの確率を減少するために幾つかのキーボード実施形態を調整することができる。絵文字キャラクタを入力するか又は入力するように動作するソフトキーボードについて以下に詳細に述べる。   The user interface includes a soft keyboard embodiment that is operable to input or operate to input text characters and pictogram characters. The soft keyboard embodiment includes a standard (QWERTY) configuration and / or a non-standard configuration symbol on the keyboard display icon, for example, “Keyboards For Portable Electronic Devices” filed on July 24, 2006. US patent application Ser. No. 11 / 459,606, filed July 24, 2006, and US Patent Application No. 11 / 459,615 filed July 24, 2006, entitled “Touch Screen Keyboards For Portable Electronic Devices” The contents of these patent applications are incorporated herein by reference as they are. Keyboard embodiments include a small number of icons (or soft keys) for the number of keys in an existing physical keyboard, such as for a typewriter. This facilitates the user to select one or more icons and thus one or more corresponding symbols on the keyboard. This keyboard embodiment is adaptive. For example, the display icon can be changed based on a user action such as selecting one or more icons and / or one or more corresponding symbols. One or more applications in the portable device can use common and / or different keyboard embodiments. Thus, the keyboard embodiment used can be tailored for at least some applications. In some embodiments, one or more keyboard embodiments can be adjusted for each user. For example, one or more keyboard embodiments can be tailored for each user based on each user's word usage history (dictionary, slang, individual usage). When selecting one or more icons, and thus selecting one or more symbols when using a soft keyboard embodiment, adjust some keyboard embodiments to reduce the probability of user error. be able to. A soft keyboard that inputs or operates to input pictogram characters is described in detail below.

装置の実施形態に注意を向けることにする。図1A及び1Bは、ある実施形態によるタッチ感知ディスプレイ112を伴うポータブル多機能装置100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」とも称され、又、タッチ感知ディスプレイシステムとしても知られ又はそのように称される。装置100は、メモリ102(1つ以上のコンピュータ読み取り可能な記憶媒体を含む)と、メモリコントローラ122と、1つ以上の処理ユニット(CPU)120と、周辺インターフェイス118と、RF回路108と、オーディオ回路110と、スピーカ111と、マイクロホン113と、入力/出力(I/O)サブシステム106と、他の入力又はコントロール装置116と、外部ポート124とを備えている。装置100は、1つ以上の光学的センサ164を含む。これらのコンポーネントは、1つ以上の通信バス又は信号ライン103を経て通信することができる。   Attention will be directed to device embodiments. 1A and 1B are block diagrams illustrating a portable multifunction device 100 with a touch-sensitive display 112 according to an embodiment. Touch-sensitive display 112 is also referred to as a “touch screen” for convenience, and is also known or referred to as a touch-sensitive display system. The apparatus 100 includes a memory 102 (including one or more computer-readable storage media), a memory controller 122, one or more processing units (CPUs) 120, a peripheral interface 118, an RF circuit 108, and audio. A circuit 110, a speaker 111, a microphone 113, an input / output (I / O) subsystem 106, another input or control device 116, and an external port 124 are provided. The apparatus 100 includes one or more optical sensors 164. These components can communicate via one or more communication buses or signal lines 103.

装置100は、ポータブル多機能装置100の一例に過ぎず、そして装置100は、図示された以上又は以下のコンポーネントを有してもよく、2つ以上のコンポーネントを結合してもよく、或いはコンポーネントの異なる構成又は配列を有してもよいことが明らかであろう。図1及び1Bに示す種々のコンポーネントは、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含めて、ハードウェア、ソフトウェア、又はその両方の組み合わせで具現化されてもよい。   The device 100 is only one example of a portable multifunction device 100, and the device 100 may have more or less components shown, may combine two or more components, or It will be apparent that different configurations or arrangements may be provided. The various components shown in FIGS. 1 and 1B may be implemented in hardware, software, or a combination of both, including one or more signal processing circuits and / or application specific integrated circuits.

メモリ102は、高速ランダムアクセスメモリを含んでもよく、又、不揮発性メモリ、例えば、1つ以上の磁気ディスク記憶装置、フラッシュメモリ装置、又は他の不揮発性ソリッドステートメモリデバイスを含んでもよい。装置100の他のコンポーネント、例えば、CPU120及び周辺インターフェイス118によるメモリ102へのアクセスは、メモリコントローラ122によりコントロールすることができる。   Memory 102 may include high speed random access memory, and may also include non-volatile memory, such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. Access to the memory 102 by other components of the device 100, such as the CPU 120 and the peripheral interface 118, can be controlled by the memory controller 122.

周辺インターフェイス118は、装置の入力及び出力周辺装置をCPU120及びメモリ102へ結合する。1つ以上のプロセッサ120は、メモリ102に記憶された種々のソフトウェアプログラム及び/又はインストラクションセットを走らせ又は実行し、装置100の種々の機能を遂行し、データを処理する。   Peripheral interface 118 couples device input and output peripheral devices to CPU 120 and memory 102. One or more processors 120 run or execute various software programs and / or instruction sets stored in memory 102 to perform various functions of device 100 and process data.

ある実施形態では、周辺インターフェイス118、CPU120、及びメモリコントローラ122は、チップ104のような単一チップにおいて具現化される。他の実施形態では、それらは、個別のチップにおいて具現化されてもよい。   In some embodiments, peripheral interface 118, CPU 120, and memory controller 122 are implemented in a single chip, such as chip 104. In other embodiments, they may be embodied in separate chips.

RF(高周波)回路108は、電磁信号とも称されるRF信号を受信し送信する。RF回路108は、電気信号を電磁信号へ及びその逆に変換し、そして電磁信号により通信ネットワーク及び他の通信装置と通信する。RF回路108は、これらの機能を遂行するための良く知られた回路を含み、これに限定されないが、アンテナシステム、RFトランシーバ、1つ以上の増幅器、チューナ、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者アイデンティティモジュール(SIM)カード、メモリ、等を含む。RF回路108は、ワールドワイドウェブ(WWW)とも称されるインターネットのようなネットワーク、イントラネット及び/又はワイヤレスネットワーク、例えば、セルラー電話ネットワーク、ワイヤレスローカルエリアネットワーク(LAN)、及び/又はメトロポリタンエリアネットワーク(MAN)、及び他の装置と、ワイヤレス通信により通信することができる。ワイヤレス通信は、複数の通信規格、プロトコル、及び技術のいずれかを使用し、これは、移動通信用のグローバルシステム(GSM)、エンハンストデータGSM環境(EDGE)、高速ダウンリンクパケットアクセス(HSDPA)、ワイドバンドコード分割多重アクセス(W−CDMA)、コード分割多重アクセス(CDMA)、時分割多重アクセス(TDMA)、ブルーツース、ワイヤレスフィデリティ(Wi−Fi)(例えば、IEEE802.11a、IEEE802.11b、IEEE802.11g及び/又はIEEE802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、e−メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/又はポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、エクステンシブルメッセージング及びプレゼンスプロトコル(XMPP)、インスタントメッセージング及びプレゼンスレバレッジエクステンションのためのセッションイニシエーションプロトコル(SIMPLE)、インスタントメッセージング及びプレゼンスサービス(IMPS))、及び/又はショートメッセージングサービス(SMS)、或いは本出願の出願日にまだ開発されていない通信プロトコルを含む他の適当な通信プロトコルを含むが、それらに限定されない。   The RF (high frequency) circuit 108 receives and transmits an RF signal, also called an electromagnetic signal. The RF circuit 108 converts electrical signals to electromagnetic signals and vice versa, and communicates with communication networks and other communication devices via electromagnetic signals. The RF circuit 108 includes well-known circuits for performing these functions, including but not limited to antenna systems, RF transceivers, one or more amplifiers, tuners, one or more oscillators, digital signal processors. , CODEC chipset, subscriber identity module (SIM) card, memory, etc. The RF circuit 108 is a network such as the Internet, also referred to as the World Wide Web (WWW), an intranet and / or a wireless network, such as a cellular telephone network, a wireless local area network (LAN), and / or a metropolitan area network (MAN). ), And other devices. Wireless communication uses any of a number of communication standards, protocols, and technologies that include the Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), High Speed Downlink Packet Access (HSDPA), Wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth, wireless fidelity (Wi-Fi) (eg, IEEE 802.11a, IEEE 802.11b, IEEE 802. 11g and / or IEEE 802.11n), Voice over Internet Protocol (VoIP), Wi-MAX, e-mail protocol (eg, Internet Message Access Protocol (IMAP) and / or Post Office protocol (POP)), instant messaging (eg, extensible messaging and presence protocol (XMPP), session initiation protocol for instant messaging and presence leverage extension (SIMPLE), instant messaging and presence service (IMPS)), and / or Or other suitable communication protocols including, but not limited to, Short Messaging Service (SMS), or communication protocols not yet developed on the filing date of this application.

オーディオ回路110、スピーカ111、及びマイクロホン113は、ユーザと装置100との間のオーディオインターフェイスをなす。オーディオ回路110は、周辺インターフェイス118からオーディオデータを受信し、そのオーディオデータを電気的信号へ変換し、そしてその電気的信号をスピーカ111へ送信する。スピーカ111は、電気的信号を人間に聞こえる音波へ変換する。又、オーディオ回路110は、音波からマイクロホン113により変換された電気信号も受信する。オーディオ回路110は、電気信号をオーディオデータへ変換し、そのオーディオデータを処理のために周辺インターフェイス118へ送信する。オーディオデータは、周辺インターフェイス118によりメモリ102及び/又はRF回路108から検索され及び/又はそこへ送信される。ある実施形態では、オーディオ回路110は、ヘッドセットジャック(例えば、図2の212)も含む。ヘッドセットジャックは、オーディオ回路110と、取り外し可能なオーディオ入力/出力周辺装置、例えば、出力のみのヘッドホン、又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロホン)の両方を伴うヘッドセット、との間のインターフェイスをなす。   The audio circuit 110, the speaker 111, and the microphone 113 form an audio interface between the user and the device 100. The audio circuit 110 receives audio data from the peripheral interface 118, converts the audio data into an electrical signal, and transmits the electrical signal to the speaker 111. The speaker 111 converts an electrical signal into a sound wave that can be heard by humans. The audio circuit 110 also receives an electrical signal converted from a sound wave by the microphone 113. The audio circuit 110 converts the electrical signal into audio data and transmits the audio data to the peripheral interface 118 for processing. Audio data is retrieved from and / or transmitted to memory 102 and / or RF circuit 108 by peripheral interface 118. In some embodiments, the audio circuit 110 also includes a headset jack (eg, 212 in FIG. 2). The headset jack provides both audio circuitry 110 and removable audio input / output peripheral devices, such as output-only headphones, or both output (eg, one or both ear headphones) and input (eg, microphone). Interface with the accompanying headset.

I/Oサブシステム106は、装置100の入力/出力周辺装置、例えば、タッチスクリーン112及び他の入力/出力装置116を、周辺インターフェイス118へ結合する。I/Oサブシステム106は、ディスプレイコントローラ156と、他の入力又はコントロール装置のための1つ以上の入力コントローラ160とを含む。1つ以上の入力コントローラ160は、他の入力又はコントロール装置116から電気信号を受信し/そこへ電気信号を送信する。他の入力/コントロール装置116は、物理的なボタン(例えば、プッシュボタン、ロッカーボタン、等)、ダイヤル、スライダースイッチ、ジョイスティック、クリックホイール、等を含む。ある別の実施形態では、入力コントローラ160は、次のいずれかに結合される(又はいずれにも結合されない)。即ち、キーボード、赤外線ポート、USBポート、及びマウスのようなポインタ装置。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロホン113のボリュームコントロールのためのアップ/ダウンボタンを含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を含む。プッシュボタンを素早く押すと、タッチスクリーン112のロックが解離するか、又はタッチスクリーンにジェスチャーを使用して装置をアンロックするプロセスが開始し、これは、参考としてここに援用する2005年12月23日に出願された“Unlocking a Device by Performing Gestures on an Unlock Image”と題する米国特許出願第11/322,549号に説明されている。プッシュボタン(例えば、206)を長押しすると、装置100への電力をターンオン又はオフすることができる。ユーザは、1つ以上のボタンの機能をカスタマイズすることができる。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを具現化するのに使用される。   The I / O subsystem 106 couples the input / output peripherals of the device 100, such as the touch screen 112 and other input / output devices 116, to the peripheral interface 118. The I / O subsystem 106 includes a display controller 156 and one or more input controllers 160 for other inputs or control devices. One or more input controllers 160 receive / send electrical signals to / from other inputs or control device 116. Other input / control devices 116 include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, etc. In certain other embodiments, the input controller 160 is coupled to (or not coupled to) any of the following: That is, a pointer device such as a keyboard, an infrared port, a USB port, and a mouse. One or more buttons (eg, 208 in FIG. 2) include up / down buttons for volume control of the speaker 111 and / or microphone 113. The one or more buttons include a push button (eg, 206 in FIG. 2). A quick press of the push button releases the lock on the touch screen 112 or the process of unlocking the device using a gesture on the touch screen begins, which is hereby incorporated by reference as of December 23, 2005. This is described in US patent application Ser. No. 11 / 322,549, entitled “Unlocking a Device by Performing Gestures on an Unlock Image”. Pressing and holding a push button (eg, 206) can turn on or off power to the device 100. The user can customize the function of one or more buttons. The touch screen 112 is used to implement a virtual or soft button and one or more soft keyboards.

タッチ感知タッチスクリーン112は、装置とユーザとの間に入力インターフェイス及び出力インターフェイスを与える。ディスプレイコントローラ156は、タッチスクリーン112から電気信号を受信し/タッチスクリーン112へ電気信号を送信する。タッチスクリーン112は、ユーザに視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びその組み合わせを含む(総体的に「グラフィック」と称される)。ある実施形態では、視覚出力の幾つか又は全部がユーザインターフェイスオブジェクトに対応する。   Touch sensitive touch screen 112 provides an input interface and an output interface between the device and the user. Display controller 156 receives / transmits electrical signals from / to touch screen 112. Touch screen 112 displays visual output to the user. Visual output includes graphics, text, icons, video, and combinations thereof (collectively referred to as “graphics”). In some embodiments, some or all of the visual output corresponds to user interface objects.

タッチスクリーン112は、触覚及び/又は触感接触に基づいてユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156(並びに関連モジュール及び/又はメモリ102におけるインストラクションのセット)は、タッチスクリーン112上での接触(及び接触の移動又は切断)を検出し、そしてその検出された接触を、タッチスクリーンに表示されたユーザインターフェイスオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は映像)との相互作用へと変換する。規範的実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。   Touch screen 112 has a touch-sensitive surface, sensor, or set of sensors that accepts input from a user based on haptic and / or tactile touch. The touch screen 112 and display controller 156 (and associated modules and / or set of instructions in the memory 102) detect contact (and movement or disconnection of the contact) on the touch screen 112, and the detected contact is Translating into interaction with user interface objects (eg, one or more soft keys, icons, web pages or video) displayed on the touch screen. In the exemplary embodiment, the point of contact between the touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112は、LCD(液晶ディスプレイ)技術、又はLPD(光放射ポリマーディスプレイ)技術を使用するが、他の実施形態では、他の表示技術が使用されてもよい。タッチスクリーン112及びディスプレイコントローラ156は、現在知られている又は今後開発される複数のタッチ感知技術のいずれかを使用して接触及びその移動又は切断を検出することができ、それらの技術は、容量性、抵抗性、赤外線、及び表面音波技術、並びに他の接近センサアレイ、又はタッチスクリーン112との1つ以上の接触点を決定するための他の要素を含むが、それに限定されない。規範的実施形態では、カリフォルニア州クパチーノのアップルコンピュータ社から入手できるiPhone(登録商標)及びiPod Touch(登録商標)に見られるような投影相互キャパシタンス感知技術が使用される。   The touch screen 112 uses LCD (liquid crystal display) technology, or LPD (light emitting polymer display) technology, although other display technologies may be used in other embodiments. The touch screen 112 and the display controller 156 can detect touch and its movement or disconnection using any of a plurality of touch sensing technologies now known or developed in the future. , Resistive, infrared, and surface acoustic wave technologies, and other proximity sensor arrays, or other elements for determining one or more points of contact with the touch screen 112, but are not so limited. In an exemplary embodiment, a projected mutual capacitance sensing technique such as found in iPhone® and iPod Touch® available from Apple Computer, Inc. of Cupertino, California is used.

タッチスクリーン112のある実施形態におけるタッチ感知ディスプレイは、各々参考としてここに援用する次の米国特許に説明されたマルチタッチ感知タブレットと同様である。第6,323,846号(ウェスターマン氏等)、第6,570,557号(ウェスターマン氏等)、及び/又は第6,677,932号(ウェスターマン氏)、及び/又は米国特許公告第2002/0015024A1号。しかしながら、タッチスクリーン112は、ポータブル装置100からの視覚出力を表示するが、タッチ感知タブレットは、視覚出力を与えない。   The touch sensitive display in certain embodiments of the touch screen 112 is similar to the multi-touch sensitive tablet described in the following US patents, each of which is incorporated herein by reference. 6,323,846 (Mr. Westerman, etc.), 6,570,557 (Mr. Westerman, etc.), and / or 6,677,932 (Mr. Westerman), and / or US Patent Publication No. 2002 / 0015024A1. However, touch screen 112 displays visual output from portable device 100, but touch sensitive tablets do not provide visual output.

タッチスクリーン112のある実施形態におけるタッチ感知ディスプレイは、次の特許出願に説明されている。(1)2006年5月2日に出願された“Multipoint Touch Surface Controller”と題する米国特許出願第11/381,313号;(2)2004年5月6日に出願された“Multipoint Touch screen”と題する米国特許出願第10/840,862号;(3)2004年7月30日に出願された“Gestures For Touch Sensitive Input Devices”と題する米国特許出願第10/903,964号;(4)2005年1月31日に出願された“Gestures For Touch Sensitive Input Devices”と題する米国特許出願第11/048,264号;(5)2005年1月18日に出願された“Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices”と題する米国特許出願第11/038,590号;(6)2005年9月16日に出願された“Virtual Input Device Placement On A Touch Screen User Interface”と題する米国特許出願第11/228,758号;(7)2005年9月16日に出願された“Operation Of A Computer With A Touch Screen Interface”と題する米国特許出願第11/228,700号;(8)2005年9月16日に出願された“Activating Virtual Keys Of A Touch-Screen Virtual Keyboard”と題する米国特許出願第11/228,737号;及び(9)2006年3月3日に出願された“Multi-Functional Hand-Held Device”と題する米国特許出願第11/367,749号。これらの特許出願は、全て、参考としてここにそのまま援用する。   The touch sensitive display in one embodiment of the touch screen 112 is described in the following patent application. (1) US Patent Application No. 11 / 381,313 entitled “Multipoint Touch Surface Controller” filed on May 2, 2006; (2) “Multipoint Touch screen” filed on May 6, 2004; (3) US Patent Application No. 10 / 903,964, filed July 30, 2004, entitled “Gestures For Touch Sensitive Input Devices”; US Patent Application No. 11 / 048,264 entitled “Gestures For Touch Sensitive Input Devices” filed on January 31, 2005; (5) “Mode-Based Graphical User” filed on January 18, 2005; US Patent Application No. 11 / 038,590 entitled “Interfaces For Touch Sensitive Input Devices”; (6) entitled “Virtual Input Device Placement On A Touch Screen User Interface” filed on September 16, 2005; (7) US Patent Application No. 11 / 228,700 entitled “Operation Of A Computer With A Touch Screen Interface” filed on September 16, 2005; 8) US Patent Application No. 11 / 228,737 entitled “Activating Virtual Keys Of A Touch-Screen Virtual Keyboard” filed on September 16, 2005; and (9) filed on March 3, 2006. No. 11 / 367,749 entitled “Multi-Functional Hand-Held Device”. All of these patent applications are incorporated herein by reference in their entirety.

タッチスクリーン112は、解像度が100dpi以上である。規範的実施形態では、タッチスクリーンは、解像度が約160dpiである。ユーザは、適当な物体又は付属物、例えば、スタイラス、指、等を使用して、タッチスクリーン112に接触することができる。ある実施形態では、ユーザインターフェイスは、主として、指に基づく接触及びジェスチャーで機能するように設計され、これは、タッチスクリーンに対する指の接触面積が大きいためにスタイラスに基づく入力よりかなり精度が低い。ある実施形態では、装置は、指に基づく粗い入力を、正確なポインタ/カーソル位置、又はユーザが希望するアクションを遂行するためのコマンドへと変換する。   The touch screen 112 has a resolution of 100 dpi or more. In an exemplary embodiment, the touch screen has a resolution of about 160 dpi. The user can touch the touch screen 112 using a suitable object or accessory, such as a stylus, finger, etc. In some embodiments, the user interface is designed primarily to work with finger-based touches and gestures, which is significantly less accurate than stylus-based input due to the large finger contact area to the touch screen. In some embodiments, the device converts finger-based rough input into a precise pointer / cursor position or command for performing the action desired by the user.

ある実施形態では、タッチスクリーンに加えて、装置100は、特定の機能をアクチベート又はデアクチベートするためのタッチパッド(図示せず)を備えている。ある実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない装置のタッチ感知エリアである。タッチパッドは、タッチスクリーン112とは個別のタッチ感知面でもよいし、又はタッチスクリーンにより形成されたタッチ感知面の延長部でもよい。   In some embodiments, in addition to the touch screen, device 100 includes a touch pad (not shown) for activating or deactivating specific functions. In some embodiments, the touchpad is a touch sensitive area of the device that does not display visual output, unlike a touch screen. The touch pad may be a touch-sensitive surface that is separate from the touch screen 112 or may be an extension of the touch-sensitive surface formed by the touch screen.

ある実施形態では、装置100は、物理的又は仮想クリックホイールを入力コントロール装置116として含む。ユーザは、クリックホイールを回転するか又はクリックホイールとの接触点を移動することにより(例えば、接触点の移動量がクリックホイールの中心点に対するその角度変位により測定される)、タッチスクリーン112に表示される1つ以上のグラフィックオブジェクト(以下、アイコンと称される)の間でナビゲートし及びそれと対話することができる。又、クリックホイールは、表示されたアイコンの1つ以上を選択するのに使用されてもよい。例えば、ユーザは、クリックホイール又は関連ボタンの少なくとも一部分を押圧することができる。ユーザによりクリックホイールを経て与えられるユーザコマンド及びナビゲーションコマンドは、入力コントローラ160、並びにメモリ102におけるモジュール及び/又はインストラクションセットの1つ以上によって処理することができる。仮想クリックホイールの場合には、クリックホイール及びクリックホイールコントローラは、各々、タッチスクリーン112及びディスプレイコントローラ156の一部分である。仮想クリックホイールの場合、クリックホイールは、ユーザと装置との対話に応答してタッチスクリーンディスプレイに現れたり消えたりする不透明又は半透明のいずれかのオブジェクトである。ある実施形態では、仮想クリックホイールは、ポータブル多機能装置のタッチスクリーンに表示されて、タッチスクリーンとのユーザ接触により操作される。   In some embodiments, device 100 includes a physical or virtual click wheel as input control device 116. The user displays on the touch screen 112 by rotating the click wheel or moving the contact point with the click wheel (eg, the amount of movement of the contact point is measured by its angular displacement relative to the center point of the click wheel). Can be navigated and interacted with one or more graphical objects (hereinafter referred to as icons). The click wheel may also be used to select one or more of the displayed icons. For example, the user can press at least a portion of the click wheel or associated button. User commands and navigation commands provided by the user via the click wheel can be processed by the input controller 160 and one or more of the modules and / or instruction sets in the memory 102. In the case of a virtual click wheel, the click wheel and click wheel controller are part of the touch screen 112 and display controller 156, respectively. In the case of a virtual click wheel, the click wheel is either an opaque or translucent object that appears and disappears on the touch screen display in response to user interaction with the device. In some embodiments, the virtual click wheel is displayed on the touch screen of the portable multifunction device and is manipulated by user contact with the touch screen.

又、装置100は、種々のコンポーネントに電力供給するための電源システム162も備えている。この電源システム162は、電源マネージメントシステム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブル装置における電力の発生、管理及び配電に関連した他のコンポーネントを備えている。   The apparatus 100 also includes a power supply system 162 for powering various components. The power system 162 includes a power management system, one or more power sources (eg, battery, alternating current (AC)), recharging system, power failure detection circuit, power converter or inverter, power status indicator (eg, light emitting diode (LED)). ), And other components related to power generation, management and distribution in portable devices.

又、装置100は、1つ以上の光学的センサ164も備えている。図1A及び1Bは、I/Oサブシステム106における光学的センサコントローラ158に結合された光学的センサを示している。光学的センサ164は、電荷結合デバイス(CCD)又は相補的金属酸化物半導体(CMOS)ホトトランジスタを含む。光学的センサ164は、1つ以上のレンズを通して投影される環境からの光を受け取り、そしてその光を、映像を表すデータへと変換する。像形成モジュール143(カメラモジュールとも称される)に関連して、光学的センサ164は、静止映像又はビデオを捕獲することができる。ある実施形態で
は、光学的センサは、装置100の前方のタッチスクリーンディスプレイ112とは反対に、装置100の背面に配置され、タッチスクリーンディスプレイを静止映像及び/又はビデオ映像取得のためのビューファインダーとして使用できるようにしている。ある実施形態では、光学的センサが装置の前方に配置されて、ユーザの映像をビデオ会議のために得る一方、ユーザが他のビデオ会議参加者をタッチスクリーンディスプレイで見ることができるようにする。ある実施形態では、光学的センサ164の位置をユーザにより変更して(例えば、装置ハウジングにおいてレンズ及びセンサを回転することにより)、単一の光学的センサ164をビデオ会議と静止及び/又はビデオ映像取得の両方のためにタッチスクリーンディスプレイと共に使用できるようにする。
The device 100 also includes one or more optical sensors 164. FIGS. 1A and 1B show an optical sensor coupled to an optical sensor controller 158 in the I / O subsystem 106. The optical sensor 164 includes a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) phototransistor. Optical sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing the image. In conjunction with the imaging module 143 (also referred to as a camera module), the optical sensor 164 can capture still images or video. In some embodiments, the optical sensor is located on the back of the device 100, as opposed to the touch screen display 112 in front of the device 100, and the touch screen display is used as a viewfinder for still and / or video image acquisition. It can be used. In some embodiments, an optical sensor is placed in front of the device to obtain the user's video for the video conference while allowing the user to view other video conference participants on the touch screen display. In some embodiments, the position of the optical sensor 164 may be changed by the user (eg, by rotating the lens and sensor in the device housing) to make the single optical sensor 164 a video conference and a stationary and / or video image. Allows use with a touch screen display for both acquisition.

又、装置100は、1つ以上の接近センサ166も備えている。図1A及び1Bは、周辺インターフェイス118に結合された接近センサ166を示している。或いは又、接近センサ166は、I/Oサブシステム106の入力コントローラ160に結合されてもよい。接近センサ166は、参考としてここにそのまま援用する“Proximity Detector In Handheld Device”と題する米国特許出願第11/241,839号;“Proximity Detector In Handheld Device”と題する第11/240,788号;“Using Ambient Light Sensor To Augment Proximity Sensor Output”と題する第11/620,702号;“Automated Response To And Sensing Of User Activity In Portable Devices”と題する第11/586,862号;及び“Methods And Systems For Automatic Configuration Of Peripherals”と題する第11/638,251号に説明されたように機能する。ある実施形態では、接近センサは、多機能装置がユーザの耳の近くに置かれたとき(例えば、ユーザが電話コールを発信するとき)タッチスクリーン112をターンオフし、ディスエイブルする。ある実施形態では、接近センサは、装置がロック状態であるときに不必要なバッテリ消費を防止するために、装置がユーザのポケット、ハンドバッグ、又は他の暗いエリアにあるときにスクリーンをオフに保持する。   The device 100 also includes one or more proximity sensors 166. 1A and 1B show the proximity sensor 166 coupled to the peripheral interface 118. Alternatively, proximity sensor 166 may be coupled to input controller 160 of I / O subsystem 106. Proximity sensor 166 is US patent application Ser. No. 11 / 241,839 entitled “Proximity Detector In Handheld Device”, incorporated herein by reference in its entirety, and 11 / 240,788 entitled “Proximity Detector In Handheld Device”; 11 / 620,702 entitled “Using Ambient Light Sensor To Augment Proximity Sensor Output”; 11 / 586,862 entitled “Automated Response To And Sensing Of User Activity In Portable Devices”; and “Methods And Systems For Automatic It functions as described in 11 / 638,251 entitled “Configuration Of Peripherals”. In some embodiments, the proximity sensor turns off and disables the touch screen 112 when the multifunction device is placed near the user's ear (eg, when the user places a phone call). In some embodiments, the proximity sensor keeps the screen off when the device is in the user's pocket, handbag, or other dark area to prevent unnecessary battery consumption when the device is locked. To do.

又、装置100は、1つ以上の加速度計168も備えている。図1A及び1Bは、周辺インターフェイス118に結合された加速度計168を示す。或いは又、加速度計168は、I/Oサブシステム106の入力コントローラ160に結合されてもよい。加速度計168は、参考としてここにそのまま援用する“Acceleration-based Theft Detection System for Portable Electronic Devices”と題する米国特許公告第20050190059号、及び“Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer”と題する米国特許公告第20060017692号に説明されたように機能する。ある実施形態では、情報は、1つ以上の加速度計から受け取ったデータの分析に基づいて肖像ビュー又は風景ビューでタッチスクリーンディスプレイに表示される。   The device 100 also includes one or more accelerometers 168. 1A and 1B show an accelerometer 168 coupled to the peripheral interface 118. Alternatively, the accelerometer 168 may be coupled to the input controller 160 of the I / O subsystem 106. Accelerometers 168 are entitled US Patent Publication No. 20050190059 entitled “Acceleration-based Theft Detection System for Portable Electronic Devices” and “Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer” which is incorporated herein by reference in its entirety. It functions as described in US Patent Publication No. 20060017692. In certain embodiments, the information is displayed on the touch screen display in portrait view or landscape view based on analysis of data received from one or more accelerometers.

ある実施形態では、メモリ102に記憶されたソフトウェアコンポーネントは、オぺレーティングシステム126、通信モジュール(又はインストラクションセット)128、接触/運動モジュール(又はインストラクションセット)130、グラフィックモジュール(又はインストラクションセット)132、テキスト入力モジュール(又はインストラクションセット)134、グローバルポジショニングシステム(GPS)モジュール(又はインストラクションセット)135、及びアプリケーション(又はインストラクションセット)136を含む。   In some embodiments, software components stored in memory 102 include operating system 126, communication module (or instruction set) 128, touch / motion module (or instruction set) 130, graphics module (or instruction set) 132, A text input module (or instruction set) 134, a global positioning system (GPS) module (or instruction set) 135, and an application (or instruction set) 136 are included.

オペレーティングシステム126(例えば、Darwin、RTXC、LINUX、OS X、WINDOWS、又は埋め込み型オペレーティングシステム、例えば、VxWorks)は、一般的なシステムタスク(例えば、メモリマネージメント、記憶装置コントロール、電力マネージメント、等)をコントロールし及び管理するための種々のソフトウェアコンポーネント及び/又はドライバを備え、そして種々のハードウェア及びソフトウェアコンポーネント間の通信を容易にする。通信モジュール128は、1つ以上の外部ポート124を経て行われる他の装置との通信を容易にし、そしてRF回路108及び/又は外部ポート124により受け取られるデータを取り扱うための種々のソフトウェアコンポーネントも含む。外部ポート124(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE、等)は、他の装置に直結されるか、又はネットワーク(例えば、インターネット、ワイヤレスLAN、等)を経て間接的に結合される。ある実施形態では、外部ポートは、iPod(アップルコンピュータ社の商標)装置に使用される30ピンコネクタと同じであるか、同様であるか、及び/又はそれに適合するマルチピン(例えば、30ピン)コネクタである。   Operating system 126 (eg, Darwin, RTXC, LINUX, OS X, WINDOWS, or embedded operating system, eg, VxWorks) performs common system tasks (eg, memory management, storage device control, power management, etc.) It includes various software components and / or drivers for controlling and managing and facilitates communication between various hardware and software components. Communication module 128 facilitates communication with other devices through one or more external ports 124 and also includes various software components for handling data received by RF circuit 108 and / or external port 124. . The external port 124 (eg, universal serial bus (USB), FIREWIRE, etc.) is directly connected to other devices or indirectly connected via a network (eg, the Internet, wireless LAN, etc.). In some embodiments, the external port is the same, similar and / or compatible multi-pin (eg, 30-pin) connector as the 30-pin connector used in iPod (Apple Computer ™) devices. It is.

接触/運動モジュール130は、タッチスクリーン112(ディスプレイコントローラ156に関連する)及び他のタッチ感知装置(例えば、タッチパッド又は物理的クリックホイール)との接触を検出することができる。接触/運動モジュール130は、接触が生じたかどうか決定し(例えば、指ダウン事象を検出し)、接触の移動があるかどうか決定しそしてタッチスクリーン112を横切る移動を追跡し(例えば、1つ以上の指ドラグ事象を検出し)、接触が止んだかどうか決定し(例えば、指アップ事象又は接触の切断を検出し)、等の、接触の検出に関連した種々のオペレーションを遂行するための種々のソフトウェアコンポーネントを含む。接触/運動モジュール130は、タッチスクリーン112から接触データを受け取る。一連の接触データにより表される接触点の移動を決定することは、接触点の速さ(大きさ)、速度(大きさと方向)、及び/又は加速度(大きさ及び/又は方向の変化)を決定することを含む。これらのオペレーションは、単一の接触(例えば、1つの指の接触)、又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。又、ある実施形態では、接触/運動モジュール130及びディスプレイコントローラ156がタッチパッド上の接触を検出する。ある実施形態では、接触/運動モジュール130及びコントローラ160がクリックホイール上の接触を検出する。   The contact / motion module 130 can detect contact with the touch screen 112 (associated with the display controller 156) and other touch sensing devices (eg, a touchpad or physical click wheel). The contact / motion module 130 determines if a contact has occurred (eg, detects a finger down event), determines if there is a touch movement, and tracks the movement across the touch screen 112 (eg, one or more). A variety of operations to perform various operations related to contact detection, such as detecting finger drag events), determining whether contact has stopped (eg, detecting a finger up event or contact disconnection), etc. Includes software components. Contact / motion module 130 receives contact data from touch screen 112. Determining the movement of a contact point represented by a series of contact data can include the speed (size), speed (size and direction), and / or acceleration (change in size and / or direction) of the contact point. Including deciding. These operations apply to a single contact (eg, one finger contact) or multiple simultaneous contacts (eg, “multi-touch” / multiple finger contacts). In some embodiments, contact / motion module 130 and display controller 156 also detect contact on the touchpad. In some embodiments, contact / motion module 130 and controller 160 detect contact on the click wheel.

接触/運動モジュール130は、ユーザにより入力されるジェスチャーを検出することができる。タッチスクリーン112上の異なるジェスチャーは、異なる接触パターンを有する。従って、特定の接触パターンを検出することによりジェスチャーを検出することができる。例えば、指タップジェスチャーを検出することは、指ダウン事象の検出に続いて、指ダウン事象と同じ位置(又は実質的に同じ位置)において(例えば、ソフトキーボードではテキストキャラクタキー又は絵文字キャラクタキーのようなボタン型ユーザインターフェイスオブジェクトの位置において)指アップ事象を検出することを含む。別の例として、タッチスクリーン上で指スワイプジェスチャーを検出することは、指ダウン事象の検出に続いて、1つ以上の指ドラグ事象を検出し、その後、指アップ事象を検出することを含む。ある実施形態では、接触/運動モジュール130は、ユーザ定義ジェスチャーを検出する。   The contact / motion module 130 can detect a gesture input by a user. Different gestures on the touch screen 112 have different contact patterns. Therefore, a gesture can be detected by detecting a specific contact pattern. For example, detecting a finger tap gesture can be performed following detection of a finger down event at the same position (or substantially the same position) as the finger down event (eg, as a text character key or an emoji character key on a soft keyboard). Detecting a finger up event (at the location of a simple button type user interface object). As another example, detecting a finger swipe gesture on a touch screen includes detecting one or more finger drag events followed by a finger up event following detection of a finger down event. In some embodiments, the contact / movement module 130 detects user-defined gestures.

グラフィックモジュール132は、表示されるグラフィックの輝度を変化させるコンポーネントを含めて、タッチスクリーン112にグラフィックをレンダリングし表示するための種々の既知のソフトウェアコンポーネントを含む。ここで使用する「グラフィック」という語は、ユーザに表示できるオブジェクトを含み、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインターフェイスオブジェクトのような)、デジタル映像、ビデオ、アニメ、等を含むが、これに限定されない。   The graphics module 132 includes various known software components for rendering and displaying graphics on the touch screen 112, including components that change the brightness of the displayed graphics. As used herein, the term “graphic” includes objects that can be displayed to the user, including text, web pages, icons (like user interface objects that include softkeys), digital video, video, animation, etc. It is not limited to this.

ある実施形態では、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。各グラフィックには、対応するコードが指定される。グラフィックモジュール132は、表示されるグラフィックを特定する1つ以上のコードを、必要に応じて、座標データ及び他のグラフィックプロパティデータと共に、アプリケーション、等から受け取り、そしてスクリーン映像データを発生して、ディスプレイコントローラ156へ出力する。   In some embodiments, the graphics module 132 stores data representing the graphics used. Each graphic is assigned a corresponding code. The graphics module 132 receives one or more codes identifying the graphics to be displayed, optionally from the application, along with coordinate data and other graphics property data, and generates screen video data to display Output to the controller 156.

グラフィックモジュール132のコンポーネントであるテキスト入力モジュール134は、種々のアプリケーション(例えば、連絡先137、e−メール140、IM141、ブラウザ147、及びテキスト入力を必要とする他のアプリケーション)においてテキストを入力するためのソフトキーボードを与える。又、テキスト入力モジュール134は、種々のアプリケーション(例えば、e−メール140、IM141、及び絵文字キャラクタ入力を使用する他のアプリケーション)において絵文字キャラクタを入力するための絵文字ソフトキーボードを与えるようにも構成される。ある実施形態では、テキスト入力モジュール134は、テキストを入力するためのソフトキーボード及び絵文字ソフトキーボードを表すデータを記憶する。   A text input module 134, a component of the graphics module 132, for entering text in various applications (eg, contacts 137, e-mail 140, IM 141, browser 147, and other applications that require text input). Give a soft keyboard. The text input module 134 is also configured to provide an emoji soft keyboard for entering emoji characters in various applications (e.g., e-mail 140, IM 141, and other applications that use emoji character input). The In some embodiments, the text input module 134 stores data representing a soft keyboard and an emoji soft keyboard for entering text.

GPSモジュール135は、装置の位置を決定し、そしてこの情報を種々のアプリケーション(例えば、ローカルベースダイヤルに使用するための電話138、写真/ビデオメタデータとしてのカメラ143、並びに天気ウィジット、ローカルイエローページウィジット、及びマップ/ナビゲーションウィジットのような位置ベースサービスを提供するアプリケーション)に使用するために与える。   The GPS module 135 determines the location of the device and uses this information for various applications (eg, phone 138 for use in local base dialing, camera 143 as photo / video metadata, as well as weather widgets, local yellow pages Application for providing location-based services such as widgets and map / navigation widgets).

アプリケーション136は、次のモジュール(又はインストラクションセット)、或いはそのサブセット又はスーパーセットを含む。
・連絡先モジュール137(アドレス帳又は連絡先リストとも称される);
・電話モジュール138;
・ビデオ会議モジュール139;
・e−メールクライアントモジュール140;
・インスタントメッセージング(IM)モジュール141;
・トレーニングサポートモジュール142;
・静止及び/又はビデオ映像のためのカメラモジュール143;
・映像マネージメントモジュール144;
・ビデオプレーヤモジュール145;
・音楽プレーヤモジュール146;
・ブラウザモジュール147;
・カレンダーモジュール148;
・ウィジットモジュール149、これは、天気ウィジット149−1、株ウィジット149−2、計算器ウィジット149−3、アラームクロックウィジット149−4、辞書ウィジット149−5、及びユーザにより得られる他のウィジット、並びにユーザ生成ウィジット149−6を含む;
・ユーザ生成ウィジット149−6を作るためのウィジット生成モジュール150;
・サーチモジュール151;
・ビデオ及び音楽プレーヤモジュール152、これは、ビデオプレーヤモジュール145及び音楽プレーヤモジュール146を合体したもの;
・ノートモジュール153;
・マップモジュール154;及び/又は
・オンラインビデオモジュール155。
The application 136 includes the next module (or instruction set), or a subset or superset thereof.
A contact module 137 (also referred to as an address book or contact list);
A telephone module 138;
Video conferencing module 139;
E-mail client module 140;
An instant messaging (IM) module 141;
-Training support module 142;
A camera module 143 for still and / or video images;
A video management module 144;
A video player module 145;
A music player module 146;
Browser module 147;
Calendar module 148;
Widget module 149, which includes weather widget 149-1, stock widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other widgets obtained by the user, and Including a user-generated widget 149-6;
A widget generation module 150 for creating a user generated widget 149-6;
Search module 151;
A video and music player module 152, which combines a video player module 145 and a music player module 146;
Note module 153;
A map module 154; and / or an online video module 155.

メモリ102に記憶される他のアプリケーション136は、例えば、他のワード処理アプリケーション、JAVAイネーブルアプリケーション、暗号化、デジタルライツマネージメント、音声認識、及び音声複写を含む。   Other applications 136 stored in memory 102 include, for example, other word processing applications, JAVA enabled applications, encryption, digital rights management, voice recognition, and voice copying.

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、連絡先モジュール137は、アドレス帳又は連絡先リストを管理するのに使用され、これは、アドレス帳に名前(1つ又は複数)を追加すること、アドレス帳から名前(1つ又は複数)を削除すること、電話番号(1つ又は複数)、e−メールアドレス(1つ又は複数)、物理的アドレス(1つ又は複数)又は他の情報を名前に関連付けること、映像を名前に関連付けること、名前を分類し区分けすること、電話138、ビデオ会議139、e−メール140又はIM141による通信を開始し及び/又は容易にするために電話番号又はe−メールアドレスを与えること、等を含む。   In connection with the touch screen 112, display controller 156, contact module 130, graphics module 132, and text input module 134, the contact module 137 is used to manage an address book or contact list, which is an address Add name (s) to book, delete name (s) from address book, phone number (s), e-mail address (es), physical Associating a specific address (s) or other information with a name, associating a video with a name, categorizing and segmenting the name, initiating communication by phone 138, video conference 139, e-mail 140 or IM 141 Provide a phone number or email address to facilitate and / or facilitate Including the.

RF回路108、オーディオ回路110、スピーカ111、マイクロホン113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、電話モジュール138は、電話番号に対応するキャラクタのシーケンスを入力し、アドレス帳137の1つ以上の電話番号にアクセスし、入力された電話番号を変更し、各電話番号をダイヤルし、会話を行い、そして会話が完了したときに切断又はハングアップするのに使用される。上述したように、ワイヤレス通信は、複数の通信規格、プロトコル及び技術のいずれを使用してもよい。   In connection with the RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, contact module 130, graphics module 132, and text input module 134, the telephone module 138 corresponds to a telephone number. Enter a sequence of characters, access one or more phone numbers in the address book 137, change the phone numbers entered, dial each phone number, engage in a conversation, and disconnect or disconnect when the conversation is complete Used to hang up. As described above, wireless communication may use any of a plurality of communication standards, protocols, and technologies.

RF回路108、オーディオ回路110、スピーカ111、マイクロホン113、タッチスクリーン112、ディスプレイコントローラ156、光学的センサ164、光学的センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138に関連して、ビデオ会議モジュール139は、ユーザと1つ以上の他の参加者との間のビデオ会議を開始し、実行しそして終了するのに使用される。   RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, optical sensor 164, optical sensor controller 158, contact module 130, graphic module 132, text input module 134, contact list 137 , And in conjunction with the telephone module 138, the video conferencing module 139 is used to initiate, execute and end a video conference between the user and one or more other participants.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、e−メールクライアントモジュール140は、e−メールを生成し、送信し、受信し及び管理するのに使用される。映像マネージメントモジュール144に関連して、e−メールモジュール140は、カメラモジュール143で撮影された静止又はビデオ映像と共にe−メールを生成して送信するのを非常に容易にする。更に、テキスト入力モジュール134は、e−メールクライアントモジュール140に関連して機能して、e−メールへの絵文字の挿入を容易にする。   In connection with the RF circuit 108, touch screen 112, display controller 156, contact module 130, graphics module 132, and text input module 134, the email client module 140 generates, sends, and receives emails. And used to manage. In connection with the video management module 144, the e-mail module 140 makes it very easy to generate and send e-mail along with still or video images taken by the camera module 143. Further, the text input module 134 functions in conjunction with the email client module 140 to facilitate the insertion of pictographs into the email.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、インスタントメッセージングモジュール141は、インスタントメッセージに対応するキャラクタのシーケンスを入力し、以前に入力されたキャラクタを変更し、各インスタントメッセージを送信し(例えば、電話ベースのインスタントメッセージについてはショートメッセージサービス(SMS)又はマルチメディアメッセージサービス(MMS)プロトコルプロトコルを使用して、或いはインターネットベースのインスタントメッセージについてはXMPP、SIMPLE、又はIMPSを使用して)、インスタントメッセージを受信し、そして受信したインスタントメッセージを見るのに使用される。ある実施形態では、送信及び/又は受信されるインスタントメッセージは、グラフィック、写真、オーディオファイル、ビデオファイルを含み、及び/又はMMS及び/又はエンハンストメッセージングサービス(EMS)でサポートされる他のアタッチメントも含む。ここで使用する「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE又はIMPSを使用して送信されるメッセージ)の両方を指す。更に、テキスト入力モジュール134は、インスタントメッセージングモジュール141に関連して機能して、各インスタントメッセージへの絵文字の挿入を容易にする。   In connection with the RF circuit 108, touch screen 112, display controller 156, contact module 130, graphics module 132, and text input module 134, the instant messaging module 141 inputs a sequence of characters corresponding to the instant message, previously Change the entered character and send each instant message (for example, using the Short Message Service (SMS) or Multimedia Message Service (MMS) protocol protocols for phone-based instant messages, or Internet-based instant messages For messages (using XMPP, SIMPLE, or IMPS), receive and receive instant messages It was used to see the instant message. In some embodiments, instant messages sent and / or received include graphics, photos, audio files, video files, and / or other attachments supported by MMS and / or Enhanced Messaging Service (EMS). . As used herein, “instant messaging” refers to phone-based messages (eg, messages sent using SMS or MMS) and Internet-based messages (eg, sent using XMPP, SIMPLE, or IMPS). Message). Further, the text input module 134 functions in conjunction with the instant messaging module 141 to facilitate the insertion of pictographs into each instant message.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、マップモジュール154、及び音楽プレーヤモジュール146に関連して、トレーニングサポートモジュール142は、トレーニング(例えば、時間、距離及び/又はカロリー燃焼目標をもつ)を生成し、トレーニングセンサ(スポーツ器具)と通信し、トレーニングセンサデータを受信し、トレーニングを監視するのに使用されるセンサを校正し、トレーニング用の音楽を選択して再生し、そしてトレーニングデータを表示し、記憶し及び送信するのに使用される。   In connection with the RF circuit 108, touch screen 112, display controller 156, contact module 130, graphics module 132, text input module 134, GPS module 135, map module 154, and music player module 146, the training support module 142 is a training module. Generate (e.g., have a time, distance and / or calorie burning target), communicate with a training sensor (sport equipment), receive training sensor data, calibrate the sensor used to monitor training, It is used to select and play music for training and to display, store and transmit training data.

タッチスクリーン112、ディスプレイコントローラ156、光学的センサ164、光学的センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び映像マネージメントモジュール144に関連して、カメラモジュール143は、静止映像又はビデオ(ビデオストリームを含む)を捕獲してメモリ102へ記憶し、静止映像又はビデオの特性を変更し、又はメモリ102から静止映像又はビデオを削除するのに使用される。   In connection with the touch screen 112, display controller 156, optical sensor 164, optical sensor controller 158, contact module 130, graphics module 132, and video management module 144, the camera module 143 is a still image or video (video stream). Are captured and stored in the memory 102, used to change the characteristics of the still image or video, or to delete the still image or video from the memory 102.

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143に関連して、映像マネージメントモジュール144は、静止及び/又はビデオ映像をアレンジし、変更し、さもなければ、操作し、ラベル添付し、削除し、提示し(例えば、デジタルスライドショー又はアルバムで)、そして記憶するのに使用される。   In connection with the touch screen 112, display controller 156, contact module 130, graphics module 132, text input module 134, and camera module 143, the video management module 144 arranges and modifies still and / or video images, and so on. If not, it is used to manipulate, label, delete, present (eg, in a digital slide show or album), and store.

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110及びスピーカ111に関連して、ビデオプレーヤモジュール145は、ビデオを(例えば、タッチスクリーンに、又は外部ポート124を経て接続された外部ディスプレイに)表示し、提示し、さもなければ、再生するのに使用される。   In connection with the touch screen 112, display controller 156, contact module 130, graphics module 132, audio circuit 110 and speaker 111, the video player module 145 is connected to video (eg, to the touch screen or via an external port 124. (Displayed on an external display) used to display, present, or play.

タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147に関連して、音楽プレーヤモジュール146は、録音された音楽及び1つ以上のファイルフォーマットで記憶された他のサウンドファイル、例えば、MP3又はAACファイルをユーザがダウンロードして再生できるようにする。ある実施形態では、装置100は、iPod(アップルコンピュータ社の商標)のような、MP3プレーヤの機能を含む。   In connection with the touch screen 112, display system controller 156, contact module 130, graphics module 132, audio circuit 110, speaker 111, RF circuit 108, and browser module 147, the music player module 146 includes recorded music and one The user can download and play back other sound files stored in the above file format, for example, MP3 or AAC files. In some embodiments, the device 100 includes the functionality of an MP3 player, such as iPod (a trademark of Apple Computer).

RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、ブラウザモジュール147は、ウェブページ又はその一部分、並びにウェブページにリンクされたアタッチメント及び他のファイルをサーチし、それにリンクし、それを受信し及び表示することを含めて、インターネットをブラウズするのに使用される。   In conjunction with the RF circuit 108, touch screen 112, display system controller 156, contact module 130, graphics module 132, and text input module 134, the browser module 147 includes a web page or portion thereof, and attachments linked to the web page. And browsing the Internet, including searching, linking to, receiving and displaying it, and other files.

RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、e−メールモジュール140、及びブラウザモジュール147に関連して、カレンダーモジュール148は、カレンダー及びカレンダーに関連したデータ(例えば、カレンダーエントリー、ツードゥ(to do)リスト、等)を生成し、表示し、変更し、そして記憶するのに使用される。更に、テキスト入力モジュール134は、カレンダーモジュール148に関連して機能して、カレンダーエントリー、ツードゥリスト、等への絵文字の挿入を容易にする。   In conjunction with the RF circuit 108, touch screen 112, display system controller 156, contact module 130, graphics module 132, text input module 134, email module 140, and browser module 147, the calendar module 148 can be used for calendars and calendars. Used to create, display, modify, and store relevant data (eg, calendar entries, to-do lists, etc.). Further, the text input module 134 functions in conjunction with the calendar module 148 to facilitate the insertion of pictographs into calendar entries, to-do lists, etc.

RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147に関連して、ウィジットモジュール149は、ユーザによりダウンロードされて使用されるミニアプリケーション(例えば、天気ウィジット149−1、株ウィジット149−2、計算器ウィジット149−3、アラームクロックウィジット149−4、及び辞書ウィジット149−5)であるか、又はユーザにより生成されるミニアプリケーション(例えば、ユーザ生成ウィジット149−6)である。ある実施形態では、ウィジットは、HTML(ハイパーテキストマークアップ言語)ファイル、CSS(カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。ある実施形態では、ウィジットは、XML(エクステンシブルマークアップ言語)ファイル、及びJavaScriptファイル(例えば、Yahoo!ウィジット)を含む。   In conjunction with the RF circuit 108, touch screen 112, display system controller 156, contact module 130, graphics module 132, text input module 134, and browser module 147, the widget module 149 is a mini-application that is downloaded and used by the user. (E.g., weather widget 149-1, stock widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5) or a user-generated mini application (e.g. , User generated widget 149-6). In one embodiment, the widget includes an HTML (Hyper Text Markup Language) file, a CSS (Cascading Style Sheet) file, and a JavaScript file. In one embodiment, the widget includes an XML (Extensible Markup Language) file and a JavaScript file (eg, Yahoo! Widget).

RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147に関連して、ウィジット生成モジュール150は、ユーザによりウィジットを生成するのに使用される(例えば、ウェブページのユーザ指定部分をウィジットへと転化させる)。   In conjunction with the RF circuit 108, touch screen 112, display system controller 156, contact module 130, graphics module 132, text input module 134, and browser module 147, the widget generation module 150 is used to generate a widget by the user. (Eg, converting a user-specified portion of a web page into a widget).

タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、サーチモジュール151は、1つ以上のサーチ基準(例えば、1つ以上のユーザ指定サーチ用語)に一致するテキスト、音楽、サウンド、映像、ビデオ、及び又は他のファイルをメモリ102においてサーチするのに使用される。   In connection with touch screen 112, display system controller 156, contact module 130, graphics module 132, and text input module 134, search module 151 may include one or more search criteria (eg, one or more user-specified search terms). Is used to search memory 102 for text, music, sound, video, video, and / or other files that match

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、ノートモジュール153は、ノート、ツードゥリスト、等を生成し管理するのに使用される。更に、テキスト入力モジュール134は、ノートモジュール153に関連して機能し、ノート、ツードゥリスト、等への絵文字の挿入を容易にする。   In conjunction with touch screen 112, display controller 156, contact module 130, graphics module 132, and text input module 134, note module 153 is used to generate and manage notes, to-do lists, and the like. In addition, the text input module 134 functions in conjunction with the note module 153 to facilitate the insertion of pictographs into notes, to-do lists, and the like.

RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147に関連して、マップモジュール154は、マップ及びマップに関連したデータ(例えば、運転方向、特定の場所又はその付近の店舗及び他の交差点に関するデータ、及び場所に基づく他のデータ)を受け取り、表示し、変更し及び記憶するのに使用される。更に、テキスト入力モジュール134は、マップモジュール154に関連して機能し、マップへの絵文字の挿入を容易にする。   In connection with RF circuit 108, touch screen 112, display system controller 156, contact module 130, graphics module 132, text input module 134, GPS module 135, and browser module 147, map module 154 is associated with maps and maps. It is used to receive, display, modify and store data (eg, driving directions, data about a particular location or nearby stores and other intersections, and other data based on location). Further, the text input module 134 functions in conjunction with the map module 154 to facilitate the insertion of pictographs into the map.

タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、e−メールクライアントモジュール140、及びブラウザモジュール147に関連して、オンラインビデオモジュール155は、ユーザが、アクセス、ブラウズ、受信(例えば、ストリーミング及び/又はダウンロードにより)、再生(例えば、タッチスクリーンに、又は外部ポート124を経て接続された外部ディスプレイに)を行えるようにし、更に、特定のオンラインビデオへのリンクと共にe−メールを送信し、その他、オンラインビデオをH.264のような1つ以上のファイルフォーマットで管理できるようにする。ある実施形態では、e−メールクライアントモジュール140ではなくインスタントメッセージングモジュール141を使用して、特定のオンラインビデオへのリンクを送信する。オンラインビデオアプリケーションの付加的な説明は、2007年6月20日に出願された“Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos”と題する米国プロビジョナル特許出願第60/936,562号、及び2007年12月31日に出願された“Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos”と題する米国特許出願第11/968,067号に見ることができ、それらの内容を参考としてここに援用する。   Online in connection with touch screen 112, display system controller 156, contact module 130, graphics module 132, audio circuit 110, speaker 111, RF circuit 108, text input module 134, email client module 140, and browser module 147 The video module 155 allows the user to access, browse, receive (eg, by streaming and / or download), play (eg, on a touch screen or an external display connected via the external port 124), In addition, an e-mail is sent with a link to a specific online video, and other online videos are It can be managed in one or more file formats such as H.264. In one embodiment, the instant messaging module 141 is used instead of the email client module 140 to send a link to a particular online video. Additional description of online video applications can be found in US Provisional Patent Application No. 60 / 936,562, entitled “Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos,” filed June 20, 2007, And US patent application Ser. No. 11 / 968,067 entitled “Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos” filed on Dec. 31, 2007. Incorporated herein by reference.

上述したモジュール及びアプリケーションの各々は、上述した1つ以上の機能を遂行するためのインストラクションのセットに対応する。これらのモジュール(即ち、インストラクションのセット)は、個別のソフトウェアプログラム、手順又はモジュールとして具現化される必要がなく、従って、これらモジュールの種々のサブセットを種々の実施形態において結合し、さもなければ、再アレンジすることができる。例えば、ビデオプレーヤモジュール145は、音楽プレーヤモジュール146と共に単一のモジュール(例えば、図1Bのビデオ及び音楽プレーヤモジュール152)へと結合することができる。ある実施形態では、メモリ102は、上述したモジュール及びデータ構造体のサブセットを記憶することができる。更に、メモリ102は、上述しなかった付加的なモジュール及びデータ構造体を記憶することもできる。   Each of the modules and applications described above corresponds to a set of instructions for performing one or more functions described above. These modules (i.e., sets of instructions) need not be embodied as separate software programs, procedures or modules, thus combining various subsets of these modules in various embodiments, otherwise, Can be rearranged. For example, video player module 145 can be combined with music player module 146 into a single module (eg, video and music player module 152 of FIG. 1B). In some embodiments, the memory 102 may store a subset of the modules and data structures described above. In addition, the memory 102 can store additional modules and data structures not described above.

ある実施形態では、装置100は、その機能の既定セットの動作がタッチスクリーン112及び/又はタッチパッドを通して排他的に実行される装置である。タッチスクリーン及び/又はタッチパッドを装置100の動作のための一次入力/コントロール装置として使用することにより、装置100における物理的入力/コントロール装置(プッシュボタン、ダイヤル、等)の数を減少することができる。   In some embodiments, the device 100 is a device in which a predefined set of functions is performed exclusively through the touch screen 112 and / or touchpad. Using the touch screen and / or touchpad as a primary input / control device for operation of the device 100 may reduce the number of physical input / control devices (push buttons, dials, etc.) in the device 100. it can.

タッチスクリーン及び/又はタッチパッドを通して排他的に遂行される機能の既定セットは、ユーザインターフェイス間のナビゲーションを含む。ある実施形態では、タッチパッドは、ユーザがタッチすると、装置100を、装置100に表示されるユーザインターフェイスから、メイン、ホーム又はルートメニューへとナビゲートする。このような実施形態では、タッチパッドは、「メニューボタン」と称される。他の実施形態では、メニューボタンは、タッチパッドではなく、物理的なプッシュボタン又は他の物理的な入力/コントロール装置である。   The default set of functions performed exclusively through the touch screen and / or touch pad includes navigation between user interfaces. In some embodiments, the touchpad navigates the device 100 from a user interface displayed on the device 100 to a main, home or root menu when the user touches. In such an embodiment, the touchpad is referred to as a “menu button”. In other embodiments, the menu button is a physical push button or other physical input / control device rather than a touchpad.

図2は、ある実施形態によるタッチスクリーン112を有するポータブル多機能装置100を示す。タッチスクリーンは、ユーザインターフェイス(UI)200内に1つ以上のグラフィックを表示する。この実施形態及び他の実施形態では、ユーザは、例えば、1本以上の指202(図には適切な縮尺率で描かれていない)でグラフィックに接触又はタッチすることにより、1つ以上のグラフィックを選択することができる。ある実施形態では、1つ以上のグラフィックの選択は、ユーザが1つ以上のグラフィックとの接触を切断したときに生じる。ある実施形態では、接触は、装置100に接触する1つ以上のタップ、1つ以上のスワイプ(左から右、右から左、アップ方向及び/又はダウン方向)、及び/又は指の回転(右から左、左から右、アップ方向及び/又はダウン方向)のようなジェスチャーを含む。ある実施形態では、グラフィックとの偶発的な接触でグラフィックが選択されることはない。例えば、選択に対応するジェスチャーがタップであるときに、アプリケーションアイコンの上をスイープするスワイプジェスチャーでは、対応するアプリケーションが選択されることがない。   FIG. 2 illustrates a portable multifunction device 100 having a touch screen 112 according to an embodiment. The touch screen displays one or more graphics within a user interface (UI) 200. In this and other embodiments, the user can select one or more graphics, for example, by touching or touching the graphics with one or more fingers 202 (not drawn to scale in the illustration). Can be selected. In some embodiments, the selection of one or more graphics occurs when the user disconnects contact with the one or more graphics. In some embodiments, the contact may include one or more taps that contact the device 100, one or more swipes (left to right, right to left, up and / or down directions), and / or finger rotation (right To left, left to right, up direction and / or down direction). In some embodiments, the graphic is not selected by accidental contact with the graphic. For example, when the gesture corresponding to the selection is a tap, the corresponding application is not selected in the swipe gesture that sweeps over the application icon.

又、装置100は、「ホーム」又はメニューボタン204のような1つ以上の物理的なボタンも含む。上述したように、メニューボタン204は、装置100で実行されるアプリケーションのセットにおいて任意のアプリケーション136へナビゲートするのに使用される。或いは又、ある実施形態では、メニューボタンは、タッチスクリーン112においてGUIのソフトキーとして具現化される。   The device 100 also includes one or more physical buttons such as a “Home” or menu button 204. As described above, the menu button 204 is used to navigate to any application 136 in the set of applications executed on the device 100. Alternatively, in some embodiments, the menu button is embodied as a GUI soft key on the touch screen 112.

一実施形態において、装置100は、タッチスクリーン112と、メニューボタン204と、装置の電源をオン/オフし及び装置をロックするためのプッシュボタン206と、ボリューム調整ボタン208と、加入者アイデンティティモジュール(SIM)カードスロット210と、ヘッドセットジャック212と、ドッキング/充電外部ポート124とを備えている。プッシュボタン206は、これを押して、所定時間インターバル中、押圧状態に保持することにより装置の電源をターンオン/オフし、又、このボタンを押して、所定時間インターバルが経過する前に放すことにより装置をロックし、及び/又は装置をアンロックするか又はアンロックプロセスを開始するのに使用される。又、別の実施形態では、装置100は、マイクロホン113を通してある機能をアクチベート又はデアクチベートするために口頭入力を受け入れることもできる。   In one embodiment, the device 100 includes a touch screen 112, a menu button 204, a push button 206 for turning the device on and off and locking the device, a volume adjustment button 208, a subscriber identity module ( SIM) card slot 210, headset jack 212, and docking / charging external port 124. Push button 206 is pressed and held in a pressed state for a predetermined time interval to turn the device on and off, and this button is pressed and released before the predetermined time interval elapses to release the device. Used to lock and / or unlock the device or initiate an unlock process. In another embodiment, the device 100 can also accept verbal input to activate or deactivate certain functions through the microphone 113.

図3は、ある実施形態によりポータブル電子装置をアンロックするための規範的ユーザインターフェイスを示す。ある実施形態では、ユーザインターフェイス300は、次の要素、或いはそのサブセット又はスーパーセットを含む。
・装置をアンロックするためにフィンガージェスチャーと共に移動するアンロック映像
302;
・アンロックジェスチャーに対して視覚キューを与える矢印304;
・アンロックジェスチャーに対して付加的なキューを与えるチャンネル306;
・時刻308;
・曜日310;
・日付312;及び
・壁紙映像314。
FIG. 3 illustrates an example user interface for unlocking a portable electronic device according to an embodiment. In some embodiments, the user interface 300 includes the following elements, or a subset or superset thereof:
An unlock video 302 that moves with a finger gesture to unlock the device;
An arrow 304 giving a visual cue to the unlock gesture;
A channel 306 that provides additional cues for unlock gestures;
Time 308;
・ Day of the week 310;
Date 312; and • Wallpaper image 314.

ある実施形態では、装置は、それがユーザインターフェイスロック状態にある間にタッチ感知ディスプレイとの接触(例えば、ユーザの指がアンロック映像302又はその付近に接触する)を検出する。装置は、接触に基づいてアンロック映像302を移動させる。装置は、検出された接触が、チャンネル306にわたってアンロック映像を移動するような規定のジェスチャーに対応する場合には、ユーザインターフェイスアンロック状態へと移行する。逆に、装置は、検出された接触が既定のジェスチャーに対応しない場合には、ユーザインターフェイスをロック状態に保持する。上述したように、タッチスクリーンにおけるジェスチャーを使用して装置をアンロックするプロセスは、2005年12月23日に出願された“Unlocking A Device By Performing Gestures On An Unlock Image”と題する米国特許出願第11/322,549号;及び2005年12月23日に出願された“Indication Of Progress Towards Satisfaction Of A User Input Condition”と題する第11/322,550号に説明されており、これらは、参考としてここにそのまま援用する。   In some embodiments, the device detects contact with the touch-sensitive display (eg, a user's finger touches or near unlocked image 302) while it is in a user interface locked state. The device moves the unlock video 302 based on the contact. The device transitions to the user interface unlocked state if the detected contact corresponds to a predefined gesture that moves the unlocked video across the channel 306. Conversely, the device keeps the user interface locked if the detected contact does not correspond to a predefined gesture. As described above, the process of unlocking a device using a gesture on a touch screen is described in US patent application Ser. No. 11 entitled “Unlocking A Device By Performing Gestures On An Unlock Image” filed on Dec. 23, 2005. / 322,549; and 11 / 322,550 entitled “Indication Of Progress Towards Satisfaction Of A User Input Condition” filed on December 23, 2005, which are hereby incorporated by reference Is used as is.

図4A及び4Bは、ある実施形態によるポータブル多機能装置におけるアプリケーションのメニューのための規範的ユーザインターフェイスを示す。ある実施形態では、ユーザインターフェイス400Aは、次の要素、或いはそのサブセット又はスーパーセットを含む。
・セルラー及びWi−Fi信号のような、ワイヤレス通信用の信号強度インジケータ402;
・時刻404;
・バッテリ状態インジケータ406;
・次のような頻繁に使用するアプリケーションのためのアイコンを伴うトレイ408:
・逸したコール又はボイスメールメッセージの数のインジケータ414を含む電話138;
・未読e−メールの数のインジケータ410を含むe−メールクライアント140;
・ブラウザ147;及び
・音楽プレーヤ146;並びに
・次のような他のアプリケーションのためのアイコン:
・IM141;
・映像マネージメント144;
・カメラ143;
・ビデオプレーヤ145;
・天気149−1;
・株149−2;
・トレーニングサポート142;
・カレンダー148;
・計算器149−3;
・アラームクロック149−4;
・辞書149−5;及び
・ユーザ生成ウィジット149−6。
4A and 4B illustrate an exemplary user interface for a menu of applications in a portable multifunction device according to an embodiment. In some embodiments, user interface 400A includes the following elements, or a subset or superset thereof:
A signal strength indicator 402 for wireless communications, such as cellular and Wi-Fi signals;
Time 404;
A battery status indicator 406;
A tray 408 with icons for frequently used applications such as:
A phone 138 that includes an indicator 414 of the number of missed calls or voicemail messages;
An email client 140 that includes an indicator 410 of the number of unread emails;
Browser 147; and music player 146; and icons for other applications such as:
・ IM141;
Video management 144;
-Camera 143;
A video player 145;
・ Weather 149-1;
-Strain 149-2;
-Training support 142;
Calendar 148;
-Calculator 149-3;
Alarm clock 149-4;
A dictionary 149-5; and a user-generated widget 149-6.

ある実施形態では、ユーザインターフェイス400Bは、次の要素、或いはそのサブセット又はスーパーセットを含む。
・上述した402、404、406、141、148、144、143、149−3、149−2、149−1、149−4、410、414、138、140及び147;
・マップ154;
・ノート153;
・以下に述べるように、装置100の設定及びその種々のアプリケーション136へのアクセスを与える設定412;
・iPod(アップルコンピュータ社の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152;及び
・YouTube(グーグル社の商標)モジュール155とも称されるオンラインビデオモジュール155。
In some embodiments, user interface 400B includes the following elements, or a subset or superset thereof:
-402, 404, 406, 141, 148, 144, 143, 149-3, 149-2, 149-1, 149-4, 410, 414, 138, 140 and 147 described above;
Map 154;
・ Note 153;
A setting 412 that gives access to the settings of the device 100 and its various applications 136, as described below;
A video and music player module 152, also referred to as iPod (trademark of Apple Computer) 152; and an online video module 155, also referred to as YouTube (trademark of Google) module 155.

ある実施形態では、UI400A又は400Bは、ウィジットベースアプリケーション及び非ウィジットベースアプリケーションの両方へ一体的アクセスを与える。ある実施形態では、ユーザ生成であるかどうかに関わらず、全てのウィジットがUI400A又は400Bに表示される。他の実施形態では、ユーザ生成ウィジット149−6のアイコンをアクチベートすると、ユーザ生成ウィジット又はユーザ生成ウィジットに対応するアイコンを含む別のUIを導く。   In some embodiments, UI 400A or 400B provides integrated access to both widget-based and non-widget-based applications. In some embodiments, all widgets are displayed on UI 400A or 400B, whether user generated or not. In other embodiments, activating the user generated widget 149-6 icon leads to a user generated widget or another UI containing an icon corresponding to the user generated widget.

ある実施形態では、ユーザは、例えば、参考としてここにそのまま援用する2006年7月24日に出願された“Portable Electronic Device With Interface Reconfiguration Mode”と題する米国特許出願第11/459,602号説明されたプロセスを使用して、UI400A又は400Bにおけるアイコンを再アレンジすることができる。例えば、ユーザは、指ジェスチャーを使用して、アプリケーションアイコンをトレイ408に入れたり出したりすることができる。   In one embodiment, the user is described, for example, in US patent application Ser. No. 11 / 459,602, entitled “Portable Electronic Device With Interface Reconfiguration Mode,” filed July 24, 2006, which is incorporated herein by reference in its entirety. The process can be used to re-arrange icons in UI 400A or 400B. For example, the user can use a finger gesture to put or remove application icons in the tray 408.

図5A−5Gは、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100に絵文字キャラクタキーを設けて編成するための規範的ユーザインターフェイスを示す。これらの図の概略をここに述べる。   FIGS. 5A-5G illustrate an example user interface for providing and organizing pictogram character keys on a portable electronic device 100 equipped with a touch-sensitive display 112 according to some embodiments. An outline of these figures is given here.

図5Aは、インスタントメッセージングアプリケーション141におけるユーザインターフェイス500Aを示す。この例で述べるように、ユーザにより選択されたテキストキャラクタ入力及び絵文字キャラクタ入力を表示し又は表示するよう動作できるキャラクタ入力エリア5000が設けられる。上述したように、明細書及び特許請求の範囲で使用されるテキストキャラクタとは、アルファニューメリックキャラクタ、サイノグラフ、日本語の漢字又は仮名記号、及び/又はその他、人間の書記言語キャラクタを指し、一方、絵文字キャラクタとは、人間の書記言語におけるテキストキャラクタではない静止及びアニメ化絵文字を指す。ユーザインターフェイス500Aには、複数の絵文字カテゴリアイコン5010を含むキーボードディスプレイエリア5005も設けられる。絵文字カテゴリアイコン5010は、複数の絵文字カテゴリ、例えば、最も最近及び頻繁に使用されるもの、人、自然、物体、旅行、記号、及び/又は季節的な絵文字カテゴリに対応する。UI500Aに表示される規範的な実施形態では、絵文字カテゴリアイコン5010−1は、最も最近及び頻繁に使用されるものに対応し、絵文字カテゴリアイコン5010−2は、人に対応し、絵文字カテゴリアイコン5010−3は、自然に対応し、絵文字カテゴリアイコン5010−4は、物体に対応し、絵文字カテゴリアイコン5010−5は、旅行に対応し、そして絵文字カテゴリアイコン5010−6は、記号に対応する。   FIG. 5A shows a user interface 500A in the instant messaging application 141. FIG. As described in this example, a character input area 5000 is provided that can be operated to display or display text character input and pictogram character input selected by the user. As mentioned above, text characters used in the description and claims refer to alphanumeric characters, sinographs, Japanese kanji or kana symbols, and / or other human written language characters, An emoji character refers to a stationary and animated pictogram that is not a text character in human writing languages. The user interface 500A is also provided with a keyboard display area 5005 including a plurality of pictogram category icons 5010. The pictogram category icon 5010 corresponds to a plurality of pictogram categories, such as those most recently and frequently used, people, nature, objects, travel, symbols, and / or seasonal pictogram categories. In the exemplary embodiment displayed on the UI 500A, the pictogram category icon 5010-1 corresponds to the most recently and frequently used, the pictogram category icon 5010-2 corresponds to a person, and the pictogram category icon 5010. -3 corresponds to nature, pictogram category icon 5010-4 corresponds to an object, pictogram category icon 5010-5 corresponds to travel, and pictogram category icon 5010-6 corresponds to a symbol.

又、UI500Aは、表示される各絵文字カテゴリに対してキーボード表示エリア5005内に規範的な絵文字キャラクタキー5015も含む。規範的なUI500Aでは、表示される絵文字キャラクタキー(即ち、5015−1、5015−2及び5015−3)は、絵文字カテゴリ「最も最近及び頻繁に使用されるもの」に対応する。というのは、絵文字カテゴリアイコン5010−1、最も最近及び頻繁に使用されるもの、が現在選択されているからである。現在選択されている絵文字カテゴリアイコン5010は、典型的に、例えば、その背景カラーを未選択の絵文字カテゴリアイコンに対しハイライトにするか又は変更することにより、未選択の絵文字カテゴリアイコンとは視覚上区別される。   UI 500A also includes a normative pictogram character key 5015 in keyboard display area 5005 for each pictogram category to be displayed. In the normative UI 500A, the displayed emoji character keys (ie, 5015-1, 5015-2 and 5015-3) correspond to the emoji category “most recently and frequently used”. This is because the pictogram category icon 5010-1, the most recently and frequently used one, is currently selected. The currently selected pictogram category icon 5010 is typically visually different from the unselected pictogram category icon, for example by highlighting or changing its background color relative to the unselected pictogram category icon. Differentiated.

ある実施形態では、絵文字カテゴリアイコン5010−1、最も最近及び頻繁に使用される絵文字キャラクタ、に対応する絵文字カテゴリの絵文字キャラクタキーが、使用された絵文字キャラクタの使用の最新性及び使用の頻度を分析するアルゴリズムに基づいて、表示のために選択される。このアルゴリズムは、絵文字キャラクタ使用の履歴リストを生成する。履歴リストの各エントリは、履歴リストにおけるエントリの位置に基づいて相対的な重みが与えられる。例えば、最も最近使用された絵文字キャラクタは、最も高い重みを得、2番目に最近使用された絵文字キャラクタは、最も最近使用された絵文字キャラクタより小さな重みを得、3番目に最近使用された絵文字キャラクタは、2番目に最近使用された絵文字キャラクタより小さい重みを得、等々となる。次いで、各々の個別の絵文字キャラクタに対して、その絵文字キャラクタの相対的な重みを合成(例えば、総計)することにより全体的なスコアが決定される。例えば、履歴リストにおいて2番目、10番目及び20番目の位置を占有する絵文字キャラクタの場合、その絵文字キャラクタの全体的スコアは、履歴リストの第2、第10及び第20番目の位置に与えられた相対的な重みの和となる。次いで、全体的スコアが最も高い絵文字キャラクタが、絵文字カテゴリ「最も最近及び頻繁に使用される」に表示される(例えば、スコアが小さくなる順序で)。   In one embodiment, the emoji character keys of the emoji category corresponding to the emoji category icon 5010-1, the most recent and frequently used emoji characters, analyze the up-to-date and frequency of use of the emoji characters used. Based on the algorithm to be selected for display. This algorithm generates a history list of pictogram character usage. Each entry in the history list is given a relative weight based on the position of the entry in the history list. For example, the most recently used emoji character gets the highest weight, the second most recently used emoji character gets a lower weight than the most recently used emoji character, and the third most recently used emoji character Obtains a smaller weight than the second most recently used pictogram character, and so on. Then, for each individual pictogram character, the overall score is determined by combining (eg, summing) the relative weights of that pictogram character. For example, in the case of a pictogram character occupying the second, tenth and twentieth positions in the history list, the overall score of the pictogram character is given to the second, tenth and twentieth positions in the history list. It is the sum of relative weights. The emoji character with the highest overall score is then displayed in the emoji category “most recently and frequently used” (eg, in order of decreasing score).

又、この規範的実施形態において、UI500Aは、キーボード選択アイコン5020も含む。ある実施形態では、キーボード選択アイコン5020は、例えば、タッチスクリーンディスプレイの底部に沿った既定のエリア5009において、複数の絵文字カテゴリアイコン5010と同時に表示される。キーボード選択アイコン5020は、ある実施形態では、キーボード表示エリア5005において絵文字キャラクタキーの表示をテキストキャラクタ入力キーボードの表示(例えば、図5Gの5055)と置き換えるのに使用される。更に、UI500Aは、第2のアイコン5025も備え、これは、(例えば、指タップジェスチャーにより)アクチベートされたときに、エリア5000に入力された電子メッセージの送信を開始する。又、UI500Aは、削除アイコン5011も備え、これは、(例えば、指タップジェスチャーにより)アクチベートされたとき、入力エリア5000における1つ以上のキャラクタを削除する。   In this exemplary embodiment, UI 500A also includes a keyboard selection icon 5020. In some embodiments, the keyboard selection icon 5020 is displayed simultaneously with multiple pictogram category icons 5010, for example, in a predetermined area 5009 along the bottom of the touch screen display. Keyboard select icon 5020 is used in some embodiments to replace the display of pictogram character keys with the display of a text character input keyboard (eg, 5055 in FIG. 5G) in keyboard display area 5005. UI 500A also includes a second icon 5025, which initiates transmission of an electronic message entered in area 5000 when activated (eg, by a finger tap gesture). The UI 500A also includes a delete icon 5011 that deletes one or more characters in the input area 5000 when activated (eg, by a finger tap gesture).

UI500B(図5B)は、各絵文字カテゴリ、ここでは、絵文字カテゴリアイコン5010−2をハイライトにすることで選択されたときに目に見えるように指示される人、に対するサブセットシーケンス印アイコン5040を含むキーボード表示エリア5005を示す。サブセットシーケンス印アイコン5040は、現在表示されている絵文字カテゴリにおけるサブセットの数と、キーボード表示エリア5005内の絵文字キャラクタキーのサブセットのシーケンスにおける表示されたサブセットの位置とに関する情報を与える。ここで、サブセットシーケンス印アイコン5040は、人絵文字カテゴリに絵文字キャラクタキーのサブセットが6つあり、且つ人絵文字カテゴリの第1サブセットが現在表示されていることを指示する。別の例としては、図6A−6Cのサブセットシーケンス印アイコン6000についての以下の説明を参照されたい。   UI 500B (FIG. 5B) includes a subset sequence mark icon 5040 for each emoji category, here a person who is instructed to be visible when selected by highlighting emoji category icon 5010-2. A keyboard display area 5005 is shown. Subset sequence mark icon 5040 provides information regarding the number of subsets in the currently displayed pictogram category and the position of the displayed subset in the sequence of pictogram character key subsets in keyboard display area 5005. Here, the subset sequence mark icon 5040 indicates that there are six subsets of pictogram character keys in the human pictogram category and that the first subset of the human pictogram category is currently displayed. For another example, see the description below for the subset sequence mark icon 6000 of FIGS. 6A-6C.

図5Cないし5Fに各々示されたUI500C、UI500D、UI500E及びUI500Fは、他の規範的絵文字カテゴリ及び絵文字キャラクタキーボードとのユーザインターフェイスを示す。   UI 500C, UI 500D, UI 500E, and UI 500F, shown in FIGS. 5C-5F, respectively, show user interfaces with other normative emoji categories and an emoji character keyboard.

UI500G(図5G)は、キーボード表示エリア5005におけるテキストキャラクタ入力キーボード5055を示す。ある実施形態では、キーボード5055は、テキストキャラクタ入力カテゴリアイコン5060を備え、これは、(例えば、アイコン上での指タップジェスチャーにより)アクチベートされたとき、数字キー及び他のテキストキャラクタ入力キーを伴う別のテキストキャラクタキーボードを表示させる。ある実施形態では、キーボード5055は、スペースキャラクタを入力するように動作すると共に、テキストキャラクタ入力時に自動完了及び/又は自動修正を確認するようにも動作するハイブリッド目的キー5062を備えている。例えば、日本語のテキストを入力するときには、ある実施形態では、音声テキストを使用することができる。装置が、ユーザにより入力されたテキストキャラクタを評価するときに、既に入力されたテキストに対して、1つ以上のワードの推奨完了候補が提示される。例えば、ユーザがキャラクタ“ra”をタイプした場合には、完了候補として“rain”が推奨される。その後、“rain”完了候補が表示されている間に(図示せず)、(例えば、キー5062上での指タップジェスチャーにより)ハイブリッド目的キー5062をアクチベートし、“rain”が入力を意図したテキストであることを確認し、装置は、キャラクタストリング“rain”をキャラクタ入力エリア5000へ挿入する。ある実施形態では、サイノグラフ又は日本語の仮名キャラクタを完了候補として提示してもよい。ある実施形態では、キーボード5055は、改行キャラクタを入力するよう動作すると共に、アクションに対して自動完了を確認するようにも動作できるハイブリッド目的キー5063を含む。例えば、ユーザがキャラクタ“goo”をタイプした場合に、装置は、アクション完了候補としてGoogleサーチエンジンへ進むことを推奨する。その後、(例えば、キー5063上での指タップジェスチャーにより)ハイブリッド目的キー5063をアクチベートし、装置が、ブラウジングモジュール147をオープンして、Googleサーチエンジンのウェブページを表示するようにさせる。又、キーボード5055は、キーボード選択アイコン5020も含む。更に、キーボード5055は、とりわけ、5065−1(Q)、5065−2(A)、及び5065−3(S)のようなテキストキャラクタ入力キー5065も含む。   A UI 500G (FIG. 5G) shows a text character input keyboard 5055 in the keyboard display area 5005. In some embodiments, the keyboard 5055 includes a text character input category icon 5060, which when associated with a numeric key and other text character input keys when activated (eg, by a finger tap gesture on the icon). Display the text character keyboard. In some embodiments, the keyboard 5055 includes a hybrid purpose key 5062 that operates to input a space character and also operates to confirm automatic completion and / or automatic correction upon text character input. For example, when inputting Japanese text, in some embodiments, speech text can be used. When the device evaluates a text character entered by the user, one or more recommended word completion candidates are presented for the text already entered. For example, when the user types the character “ra”, “rain” is recommended as a completion candidate. Thereafter, while the “rain” completion candidate is displayed (not shown), the hybrid purpose key 5062 is activated (eg, by a finger tap gesture on the key 5062) and the text “rain” is intended for input. The apparatus inserts the character string “rain” into the character input area 5000. In some embodiments, a sinograph or Japanese kana character may be presented as a completion candidate. In some embodiments, the keyboard 5055 includes a hybrid purpose key 5063 that operates to enter a newline character and can also operate to confirm auto-completion for the action. For example, if the user types the character “goo”, the device recommends proceeding to the Google search engine as an action completion candidate. Thereafter, the hybrid purpose key 5063 is activated (eg, by a finger tap gesture on the key 5063), causing the device to open the browsing module 147 to display the Google search engine web page. The keyboard 5055 also includes a keyboard selection icon 5020. In addition, the keyboard 5055 includes text character input keys 5065, such as 5065-1 (Q), 5065-2 (A), and 5065-3 (S), among others.

図6A−6Eは、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100において特定の絵文字カテゴリの絵文字キャラクタサブセット間をナビゲートしそしてある絵文字キャラクタを入力するための規範的ユーザインターフェイスを示す。これらの図の概略をここに述べる。   6A-6E illustrate an example user interface for navigating between emoticon character subsets of a particular emoji category and inputting certain emoji characters in portable electronic device 100 equipped with touch-sensitive display 112 according to some embodiments. . An outline of these figures is given here.

UI600A(図6A)は、現在表示されている絵文字カテゴリ、ここでは、絵文字カテゴリアイコン5010−3をハイライトにすることで選択されたときに目に見えるように指示される自然、に対するサブセットシーケンス印アイコン6000−1、6000−2及び6000−3を示す。このサブセットシーケンス印アイコン6000−1、6000−2及び6000−3は、現在表示されている絵文字カテゴリにおけるサブセットの数と、キーボード表示エリア5005内の絵文字キャラクタキーのサブセットのシーケンスにおける表示されたサブセットの位置とに関する情報を与える。例えば、UI600Aにおいて、印アイコン6000の数は、この絵文字カテゴリ(自然)に3つのサブセットがあることを指示する。更に、アイコン6000−2及び6000−3に対してアイコン6000−1を視覚上ハイライトにすることは、このカテゴリの第1サブセット6015が表示されることを指示する。   UI 600A (FIG. 6A) is a subset sequence mark for the currently displayed pictogram category, here, the natural that is instructed to be visible when selected by highlighting the pictogram category icon 5010-3. Icons 6000-1, 6000-2 and 6000-3 are shown. The subset sequence mark icons 6000-1, 6000-2 and 6000-3 indicate the number of subsets in the currently displayed pictogram category and the displayed subsets in the sequence of the subset of pictogram character keys in the keyboard display area 5005. Give information about location and. For example, in the UI 600A, the number of mark icons 6000 indicates that there are three subsets in this pictogram category (natural). Further, visually highlighting icon 6000-1 for icons 6000-2 and 6000-3 indicates that the first subset 6015 of this category is displayed.

ある実施形態では、キーボード表示エリア5005においてジェスチャー(例えば、ジェスチャー6010(図6A)、水平又は実質的に水平の指スワイプジェスチャー)を検出すると、絵文字キャラクタキーの第1サブセット6015が、キーボード表示エリア5005において絵文字キャラクタキーの第2サブセット6020(図6B)に置き換えられる。更に、ある実施形態では、サブセットシーケンス印アイコンにより与えられる情報は、絵文字キャラクタキーの表示された第1サブセット6015が絵文字キャラクタキーの第2サブセット6020に置き換えられたことを反映するように更新される。この例では、サブセットシーケンス印アイコン6000−1がUI600Aにおいてハイライトにされる。というのは、自然カテゴリにおける絵文字キャラクタキーの第1サブセット6015が表示されるからである。絵文字キャラクタキーの第1サブセット6015が絵文字キャラクタキーの第2サブセット6020(図6B)に置き換えられると、サブセットシーケンス印アイコン6000−2がハイライトにされる。ある実施形態では、現在表示されている絵文字キャラクタキーのサブセットに対応するサブセットシーケンス印アイコンがハイライトにされるか、さもなければ、視覚上区別される一方、表示されていた絵文字キャラクタキーのサブセットに対応する別のサブセットシーケンス印アイコンをハイライトにするか、さもなければ、視覚上区別することが停止される。   In some embodiments, upon detecting a gesture (eg, gesture 6010 (FIG. 6A), horizontal or substantially horizontal finger swipe gesture) in the keyboard display area 5005, the first subset 6015 of emoji character keys is displayed in the keyboard display area 5005. Are replaced with the second subset 6020 (FIG. 6B) of pictogram character keys. Further, in some embodiments, the information provided by the subset sequence mark icon is updated to reflect that the displayed first subset 6015 of emoji character keys has been replaced with the second subset 6020 of emoji character keys. . In this example, the subset sequence mark icon 6000-1 is highlighted in the UI 600A. This is because the first subset 6015 of pictogram character keys in the nature category is displayed. When the first subset 6015 of pictogram character keys is replaced with the second subset 6020 (FIG. 6B) of pictogram character keys, the subset sequence mark icon 6000-2 is highlighted. In some embodiments, a subset sequence mark icon corresponding to a currently displayed subset of emoji character keys is highlighted or otherwise visually distinguished while a subset of displayed emoji character keys. Highlighting or otherwise visually distinguishing another subset sequence mark icon corresponding to.

既にある程度説明したUI600B(図6B)は、キーボード表示エリア5005における別のジェスチャー(例えば、ジェスチャー6025、水平又は実質的に水平の指スワイプジェスチャー)の検出を示す。ジェスチャー6025の検出に応答して、絵文字キャラクタキーの第2サブセット6020が、キーボード表示エリア5005における絵文字キャラクタキーの第3サブセット6040(図6C)の表示に置き換えられる。対応的に、UI600C(図6C)に示すように、サブセットシーケンス印アイコン6000−2ではなく、サブセットシーケンス印アイコン6000−3がハイライトにされる。   UI 600B (FIG. 6B), which has already been described to some extent, illustrates the detection of another gesture in keyboard display area 5005 (eg, gesture 6025, a horizontal or substantially horizontal finger swipe gesture). In response to detection of gesture 6025, the second subset 6020 of pictogram character keys is replaced with the display of the third subset 6040 of pictogram character keys (FIG. 6C) in the keyboard display area 5005. Correspondingly, as shown in UI 600C (FIG. 6C), subset sequence mark icon 6000-3 is highlighted instead of subset sequence mark icon 6000-2.

UI600C(図6C)は、キーボード表示エリア5005における別のジェスチャー(例えば、ジェスチャー6030、即ち、ジェスチャー6025の方向とは実質的に逆の水平又は実質的に水平の指スワイプジェスチャー)の検出を示す。ジェスチャー6030の検出に応答して、絵文字キャラクタキーの第3サブセット6040が、キーボード表示エリア5005における絵文字キャラクタキーの第2サブセット6020(図6B)の表示に置き換えられる。対応的に、サブセットシーケンス印アイコン6000−3ではなく、サブセットシーケンス印アイコン6000−2がハイライトにされる(図6B)。   UI 600C (FIG. 6C) illustrates the detection of another gesture in keyboard display area 5005 (eg, gesture 6030, a horizontal or substantially horizontal finger swipe gesture that is substantially opposite to the direction of gesture 6025). In response to detection of gesture 6030, the third subset 6040 of pictogram character keys is replaced with the display of the second subset 6020 (FIG. 6B) of pictogram character keys in the keyboard display area 5005. Correspondingly, subset sequence mark icon 6000-2 is highlighted instead of subset sequence mark icon 6000-3 (FIG. 6B).

UI600C(図6C)は、絵文字キー6050におけるユーザジェスチャー6045(例えば、指タップジェスチャー)も示す。UI600D(図6D)は、ユーザジェスチャー6045の指接触が、(図6Cに示した)絵文字キー6050上に依然ある間に表示されるキー選択アイコン6060を示す。このキー選択アイコン6060は、ユーザの指が、タッチスクリーンディスプレイ上の指接触の現在位置においてタッチスクリーンディスプレイから持ち上げられる(接触を中止する)場合に選択されるキーを示す。ある実施形態では、選択された絵文字キャラクタ、この場合は、絵文字キー6050に対応する絵文字キャラクタの映像6061が、キー選択アイコン6060内に表示される。   UI 600C (FIG. 6C) also shows a user gesture 6045 (eg, a finger tap gesture) on pictograph key 6050. UI 600D (FIG. 6D) shows a key selection icon 6060 that is displayed while a finger touch of user gesture 6045 is still on the emoji key 6050 (shown in FIG. 6C). The key selection icon 6060 indicates a key that is selected when the user's finger is lifted (stops contact) from the touch screen display at the current position of finger contact on the touch screen display. In an embodiment, the selected pictograph character, in this case, the pictograph character image 6061 corresponding to the pictograph key 6050 is displayed in the key selection icon 6060.

UI600E(図6E)は、選択された絵文字キャラクタ、この場合は、ジェスチャー6045の検出に応答してキャラクタ入力エリア5000内に表示される、絵文字キー6050に対応する絵文字キャラクタキーの映像6070を示す。   UI 600E (FIG. 6E) shows a pictographic character key image 6070 corresponding to pictographic key 6050 displayed in character input area 5000 in response to detection of a selected pictographic character, in this case gesture 6045.

図7A−7Eは、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100において絵文字キャラクタを入力しそして絵文字キャラクタを含む電子メッセージを送信するための規範的ユーザインターフェイスを示す。これらの図の概略をここに述べる。   7A-7E illustrate an exemplary user interface for entering emoticon characters and sending an electronic message including the emoticon characters in portable electronic device 100 equipped with touch-sensitive display 112 according to some embodiments. An outline of these figures is given here.

UI700AないしUI700Cは、上述したのと同様の形態での絵文字キャラクタのユーザ選択を示す。UI700Aにおいて、絵文字キー7000が、ユーザジェスチャー7001(例えば、指タップジェスチャー)の検出に応答して選択される。UI700B(図7B)は、ジェスチャー7001に使用される指が、絵文字キー7000に対応するエリアにまだ接触している間に表示されるキー選択アイコン7010を示す。   UI 700A to UI 700C indicate user selection of pictogram characters in the same manner as described above. In UI 700A, pictogram key 7000 is selected in response to detection of user gesture 7001 (eg, finger tap gesture). UI 700 </ b> B (FIG. 7B) shows a key selection icon 7010 displayed while the finger used for gesture 7001 is still in contact with the area corresponding to pictogram key 7000.

UI700C(図7C)は、ジェスチャー7001の検出に応答してキャラクタ入力エリア5000内に表示される選択された絵文字キャラクタの映像7025を示す。送信アイコン5025(図7D)におけるユーザジェスチャー(例えば、図7Dの指タップジェスチャー7026)の検出に応答して、エリア5000に入力されたテキストキャラクタ及び絵文字キャラクタが別の当事者(例えば、図7D及び7Eのjohn appleseed)へ電子メッセージとして送信される。   UI 700C (FIG. 7C) shows an image 7025 of the selected pictogram character displayed in character input area 5000 in response to detection of gesture 7001. In response to detection of a user gesture (eg, finger tap gesture 7026 of FIG. 7D) in send icon 5025 (FIG. 7D), the text character and pictogram character entered in area 5000 are different parties (eg, FIGS. 7D and 7E). John appleseed) as an electronic message.

この例では、絵文字キャラクタがインスタントメッセージで入力され送信される。しかし、当業者であれば、絵文字キャラクタは、e−メール140のような他の形式の電子メッセージ及びドキュメントで入力され送信されてもよいことが理解されよう。   In this example, pictogram characters are input and transmitted in an instant message. However, those skilled in the art will appreciate that emoji characters may be entered and transmitted in other forms of electronic messages and documents, such as e-mail 140.

図8A−8Cは、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100においてソフトウェアキーボードの絵文字キャラクタキーを再構成するための規範的ユーザインターフェイスを示す。このプロセスは、ユーザが、ポータブル電子装置において絵文字キャラクタキーを再アレンジするための(例えば、絵文字キャラクタキーの位置を、ユーザがより効率的に入力するように最適化するための)簡単で効率的なメカニズムを与える。   8A-8C illustrate an exemplary user interface for reconfiguring the emoji character keys of a software keyboard in portable electronic device 100 equipped with touch sensitive display 112 according to some embodiments. This process is simple and efficient for the user to re-arrange the emoji character keys on the portable electronic device (eg, to optimize the location of the emoji character keys for the user to input). Give the mechanism.

UI800A(図8A)は、絵文字キー8001−1及び8001−2を含む複数の絵文字キャラクタキー8002を伴うキーボード表示エリア5005を示す。ユーザインターフェイスは、既定のユーザインターフェイス再構成プロセスを開始するために既定のユーザアクション(例えば、絵文字キャラクタキー8001を指で押して指接触8005を所定時間以上保持する)を検出するように構成される。   UI 800A (FIG. 8A) shows a keyboard display area 5005 with a plurality of pictogram character keys 8002 including pictogram keys 8001-1 and 8001-2. The user interface is configured to detect a default user action (eg, pressing the pictogram character key 8001 with a finger and holding the finger contact 8005 for a predetermined time or more) to initiate a default user interface reconfiguration process.

UI800B(図8B)は、ある実施形態において、既定のユーザアクション8005を検出した際に、キーボード表示エリア5005内の絵文字キャラクタキー8001が、各絵文字キャラクタキーの各平均位置を実質的に中心とする領域において振動する(例えば、振動8020−1、8020−2、8020−3、等)ことを示している。これらの振動は、装置が現在インターフェイス再構成モードにあり且つ振動アイコンが再アレンジされるという簡単な視覚指示を与える。   In one embodiment, the UI 800B (FIG. 8B), when detecting a predetermined user action 8005, the pictogram character key 8001 in the keyboard display area 5005 is substantially centered on the average position of each pictogram character key. It indicates that the region vibrates (for example, vibrations 8020-1, 8020-2, 8020-3, etc.). These vibrations give a simple visual indication that the device is currently in interface reconfiguration mode and that the vibration icons are rearranged.

又、UI800Bに示すように、ある実施形態において、装置は、複数の絵文字キャラクタキー8002の第1絵文字キャラクタキー8001−2に対応する第1位置でユーザがタッチスクリーンディスプレイ112とで接触点8050を形成することを検出し、更に、その接触点8050がタッチスクリーンディスプレイ112上を第2位置8025へ移動することを検出する。ある実施形態において、ユーザインターフェイスは、接触点8050の検出された移動に基づき第1の絵文字キャラクタキー8001−2がタッチスクリーンディスプレイ112上を第2位置8025へ移動することを表示する。   Also, as shown in UI 800B, in some embodiments, the device may provide a touch point 8050 with the touch screen display 112 at a first position corresponding to the first pictogram character key 8001-2 of the plurality of pictogram character keys 8002. It is detected that the contact point 8050 is moved to the second position 8025 on the touch screen display 112. In some embodiments, the user interface indicates that the first emoji character key 8001-2 is moved on the touch screen display 112 to the second position 8025 based on the detected movement of the contact point 8050.

UI800C(図8C)において、ユーザインターフェイスは、既定のユーザインターフェイス再構成プロセスを終了するための第2の既定のユーザアクションを検出する(例えば、ホームボタン204のアクチベーションを検出する)のに応答して、第1の絵文字キャラクタキー8001−2の位置を第2位置に固定する。ここに示す例では、その正味の結果として、絵文字キャラクタキー8001−1及び8001−2は、UI800Aと比較したときにUI800Cにおいて位置が交換されている。   In UI 800C (FIG. 8C), the user interface is responsive to detecting a second default user action (eg, detecting activation of the home button 204) to end the default user interface reconfiguration process. The position of the first pictogram character key 8001-2 is fixed to the second position. In the example shown here, the net result is that the pictogram character keys 8001-1 and 8001-2 have been swapped in the UI 800C when compared to the UI 800A.

図9A−9Hは、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための規範的ユーザインターフェイスを示す。これらの図の概略をここに述べる。   9A-9H illustrate an exemplary user interface for responding to messages with pictograms while the portable electronic device 100 equipped with the touch-sensitive display 112 is in user interface lock mode, according to an embodiment. An outline of these figures is given here.

UI900(図9A)は、ユーザインターフェイスロックモードにある規範的ユーザインターフェイスを示す。上述した図3の説明も参照されたい。ユーザインターフェイスアンロックモードでは、装置100は、その通常の動作状態にあり、ユーザインターフェイスとの対話に対応するユーザ入力を検出しそしてそれに応答する。アンロックモードにある装置100は、アンロック状態装置100として説明する。アンロック状態装置100は、ユーザインターフェイスの間をナビゲートするユーザ入力、データのエントリ、及び機能のアクチベーション又はデアクチベーションを検出し、それに応答する。ユーザインターフェイスアンロックモードとは対照的に、ユーザインターフェイスロックモードでは、コントロールアイコンの限定されたサブセットだけが表示され、装置100は、指ジェスチャーの限定されたセットだけに応答する。例えば、アンロック映像302、矢印304、及びチャンネル306だけが、壁紙映像314と共に表示される(UI900A)。更に、以下に述べるように、絵文字キャラクタを含む少数の既定の応答が表示され、及び/又はユーザインターフェイスロックモードにある間に受信したメッセージに応答するために少数のジェスチャーが使用される。   UI 900 (FIG. 9A) shows an example user interface in user interface lock mode. See also the description of FIG. 3 above. In the user interface unlock mode, the device 100 is in its normal operating state and detects and responds to user input corresponding to interaction with the user interface. The device 100 in the unlock mode will be described as the unlocked device 100. The unlocked state device 100 detects and responds to user input navigating between user interfaces, data entries, and functional activation or deactivation. In contrast to the user interface unlock mode, in the user interface lock mode, only a limited subset of control icons are displayed and the device 100 responds only to a limited set of finger gestures. For example, only the unlock video 302, the arrow 304, and the channel 306 are displayed together with the wallpaper video 314 (UI 900A). In addition, as described below, a small number of predefined responses including pictogram characters are displayed and / or a small number of gestures are used to respond to messages received while in user interface lock mode.

UI900(図9B)は、ユーザインターフェイスがユーザインターフェイスロックモードにある間にある当事者2210(ここでは、“Jane Doe”)からポータブル電子装置のユーザへ到来するメッセージを受け取ることを示し、当事者221から到来するメッセージ2212の少なくとも一部分は、タッチスクリーンディスプレイ112においてユーザに表示される。   UI 900 (FIG. 9B) shows receiving a message arriving from a party 2210 (here “Jane Doe”) to the user of the portable electronic device while the user interface is in user interface lock mode. At least a portion of the message 2212 to be displayed to the user on the touch screen display 112.

UI900C(図9C)は、タッチスクリーンディスプレイ112において絵文字キャラクタに対応する1つ以上の既定の指ジェスチャー(例えば、タップジェスチャー9100−1、9100−2、及びスワイプジェスチャー9100−3)をユーザインターフェイスが検出することを示している。ある実施形態では、図10A−10E及び図16を参照して以下に述べるように、1つ以上の既定の指ジェスチャーを絵文字キャラクタに指定することにより、これら1つ以上の既定の指ジェスチャーと絵文字キャラクタとの間の対応性が形成される。又、ある実施形態では、ユーザインターフェイスは、到来するメッセージ2212に対する応答の送信を開始するための既定のユーザアクション(例えば、スワイプジェスチャー2213)を検出し、次いで、到来するメッセージ2212に対する応答を送信し、この応答は、タッチスクリーンディスプレイ112で検出された1つ以上の既定の指ジェスチャー(例えば、9100−1、9100−2及び9100−3)に対応する絵文字キャラクタを含む。   UI 900C (FIG. 9C) allows the user interface to detect one or more predefined finger gestures (eg, tap gestures 9100-1, 9100-2, and swipe gesture 9100-3) corresponding to the emoji character on touch screen display 112. It shows that In some embodiments, the one or more default finger gestures and pictograms are designated by designating the emoticon character with one or more default finger gestures, as described below with reference to FIGS. 10A-10E and FIG. A correspondence with the character is formed. In some embodiments, the user interface also detects a default user action (eg, a swipe gesture 2213) to initiate transmission of a response to the incoming message 2212 and then transmits a response to the incoming message 2212. The response includes pictographic characters corresponding to one or more predefined finger gestures (eg, 9100-1, 9100-2, and 9100-3) detected on the touch screen display 112.

UI900D(図9D)は、ある実施形態において、ユーザインターフェイスが、到来するメッセージ2212に対する複数の既定の応答9110を表示することを示し、これら既定の応答(例えば、9110−1、9110−2及び9110−3)は、複数の絵文字キャラクタキー(例えば、9111−1、9111−2及び9111−3)を含む。UI900Dにおいて、各既定の応答9110は、単一の絵文字キャラクタ9111を含む。より詳細には、他の既定の応答9110は、2つ以上の絵文字キャラクタを含み、そしてある既定の応答9110は、絵文字キャラクタを含まなくてもよい(図示せず)。   UI 900D (FIG. 9D) illustrates that in some embodiments, the user interface displays a plurality of default responses 9110 for incoming messages 2212, such as 9110-1, 9110-2 and 9110. -3) includes a plurality of pictogram character keys (for example, 9111-1, 911-2, and 9111-3). In the UI 900D, each default response 9110 includes a single pictogram character 9111. More specifically, other predefined responses 9110 include two or more emoji characters, and certain predefined responses 9110 may not include emoji characters (not shown).

UI900E(図9E)は、既定の応答(例えば、応答9110−1)を選択するためのユーザアクション(例えば、タップジェスチャー9120)の検出を示す。ユーザは、絵文字キャラクタを含む既定の応答のリストから素早く選択を行い、そしてその選択された応答を、装置をアンロックせずに、送信することができる。ある実施形態では、既定の応答9110の選択を検出すると、ユーザによる更なるアクションを検出せずに、既定の応答の送信を開始する。ある実施形態では、既定の応答9110の選択を検出した後に、応答の送信を開始するための更なる既定のユーザアクションが検出され、例えば、ホームボタン204のアクチベーションが検出され、「送信」ボタン(図示せず)のアクチベーションが検出され、或いは見掛け上チャンネル306にわたってアンロック映像302を移動するスライド指ジェスチャー2213が検出される(この場合、チャンネル306におけるメッセージ「スライドして見る」は、図9Eのメッセージ「スライドして応答を送信する」又は同様のメッセージに切り換えられる)。   UI 900E (FIG. 9E) illustrates detection of a user action (eg, tap gesture 9120) to select a default response (eg, response 9110-1). The user can quickly make a selection from a list of predefined responses containing pictogram characters and send the selected response without unlocking the device. In certain embodiments, upon detection of selection of default response 9110, transmission of the default response is initiated without detecting further action by the user. In some embodiments, after detecting selection of a default response 9110, further default user actions to initiate transmission of the response are detected, for example, activation of the home button 204 is detected, and a “Send” button ( Activation (not shown) is detected, or a sliding finger gesture 2213 that apparently moves the unlocked image 302 across the channel 306 is detected (in this case, the message “slide to see” in the channel 306 is shown in FIG. Message “slide to send response” or similar message).

UI900F(図9F)は、装置がその後にアンロックされた後のメッセージングアプリケーションにおいてユーザインターフェイスを示し、これは、装置がロック状態にあった間に送信された既定の応答9110−1を示している。   UI 900F (FIG. 9F) shows the user interface in a messaging application after the device is subsequently unlocked, which shows a default response 9110-1 that was sent while the device was in the locked state. .

UI900G及びUI900H(各々図9G及び9H)は、UI900E及びUI900F(各々図9E及び9F)と同様であるが、既定の応答9110−4、9110−5、及び9110−6は、テキストキャラクタ及び絵文字キャラクタの組み合わせではなく、絵文字キャラクタのみで構成される。同様に、図9Hの既定応答送信9110−4は、図9Gの既定応答9110−4に対応し、絵文字キャラクタ9225のみで構成される。   UI900G and UI900H (FIGS. 9G and 9H, respectively) are similar to UI900E and UI900F (FIGS. 9E and 9F, respectively), but the default responses 9110-4, 9110-5, and 9110-6 are text characters and pictogram characters. It is composed only of pictogram characters, not a combination of Similarly, the default response transmission 9110-4 in FIG. 9H corresponds to the default response 9110-4 in FIG.

図10A−10Eは、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100において絵文字キャラクタにユーザ定義ジェスチャーを指定するための規範的ユーザインターフェイスを示す。これらの図の概略をここに述べる。   FIGS. 10A-10E illustrate an example user interface for assigning user-defined gestures to pictogram characters in portable electronic device 100 equipped with touch-sensitive display 112 according to some embodiments. An outline of these figures is given here.

UI1000A(図10A)は、ユーザ定義ジェスチャーを記録するための規範的ユーザインターフェイスを示す。UI1000Aは、記録アイコン1001、関連付けアイコン1010、記憶アイコン1015、及びキャンセルアイコン1016を含む。記録アイコン1001におけるユーザジェスチャー1020を検出すると、ユーザインターフェイスは、ジェスチャー記録モードに入る。UI1000B(図10B)は、ジェスチャー記録モードにある間にタッチスクリーン112において検出されるユーザ定義ジェスチャー1030を示す。ある実施形態では、関連付けアイコン1010におけるジェスチャー(例えば、図10Cの指タップジェスチャー1040)の検出に応答して、ユーザ定義ジェスチャー1030の表現を絵文字キャラクタに関連付けるためのプロセスが開始され、これは、絵文字キャラクタキーを伴う1つ以上のユーザインターフェイス(例えば、図10DのUI1000D)を表示することを含む。ある実施形態では、絵文字キャラクタキーを伴うユーザインターフェイスは、UI500A−500F(図5A−F)と同様であるが、ユーザインターフェイスは、ここでは、電子メッセージ又はドキュメントに入力するために絵文字キャラクタを選択するのではなく、絵文字をユーザ定義ジェスチャー1030に関連付けるために使用される。絵文字キャラクタキーにおけるジェスチャー(例えば、図10Dの絵文字キー1060における指タップジェスチャー1070)を検出するのに応答して、ユーザ定義ジェスチャー1030の表現が、絵文字キャラクタキー1060に対応する絵文字キャラクタに関連付けられる(又はユーザ確認保留中は、仮に関連付けられる)。ある実施形態では、確認UI(例えば、図10EのUI1000E)は、記憶アイコン1015のアクチベーションが(例えば、図10Eの指タップジェスチャー1080により)検出された場合にユーザ定義ジェスチャー1030に関連付けられる絵文字キャラクタ1075を表示する。(例えば、指タップジェスチャーによる)キャンセルアイコン1016のアクチベーションに応答して、ユーザ定義ジェスチャーを絵文字キャラクタに指定するプロセスが終了される。   UI 1000A (FIG. 10A) shows an example user interface for recording user-defined gestures. The UI 1000A includes a record icon 1001, an association icon 1010, a storage icon 1015, and a cancel icon 1016. When a user gesture 1020 is detected in the recording icon 1001, the user interface enters a gesture recording mode. UI 1000B (FIG. 10B) shows user-defined gesture 1030 detected on touch screen 112 while in gesture recording mode. In some embodiments, in response to detecting a gesture in association icon 1010 (eg, finger tap gesture 1040 in FIG. 10C), a process is initiated to associate a representation of user-defined gesture 1030 with an emoji character, which is an emoji character. Including displaying one or more user interfaces (eg, UI 1000D of FIG. 10D) with character keys. In some embodiments, the user interface with emoji character keys is similar to UI 500A-500F (FIGS. 5A-F), but the user interface now selects the emoji character for input into an electronic message or document. Rather than being used to associate pictograms with user-defined gestures 1030. In response to detecting a gesture on the emoji character key (eg, a finger tap gesture 1070 on the emoji key 1060 in FIG. 10D), the representation of the user-defined gesture 1030 is associated with the emoji character corresponding to the emoji character key 1060 ( (Alternatively, the user confirmation is put on hold). In some embodiments, the confirmation UI (eg, UI 1000E of FIG. 10E) may include an emoji character 1075 associated with the user-defined gesture 1030 when activation of the storage icon 1015 is detected (eg, with the finger tap gesture 1080 of FIG. 10E). Is displayed. In response to activation of the cancel icon 1016 (eg, by a finger tap gesture), the process of designating a user-defined gesture as an emoji character is terminated.

図11A−11Bは、ある実施形態により電子メッセージを経て絵文字キャラクタをマップ上の位置指示子として使用するための規範的ユーザインターフェイスを示す。これらの図の概略をここに述べる。   FIGS. 11A-11B illustrate an example user interface for using an emoji character as a position indicator on a map via an electronic message according to an embodiment. An outline of these figures is given here.

UI1100A(図11A)は、インスタントメッセージングアプリケーション141に表示される電子メッセージ2216を示す。電子メッセージは、地理マップアプリケーションを開始するためのインストラクション、地理マップ上の位置を表す位置データ、及び絵文字キャラクタを表す絵文字データを含む。絵文字データは、位置データに関連付けられる。メッセージに対する既定のユーザアクション(例えば、Lake Tahoeへのリンク2220上での指タップジェスチャー)を検出するのに応答して、装置は、地理マップアプリケーション154において地理マップ(例えば、図11Bのマップ1115)を表示し、そして装置は、位置データに対応する地理マップ1115上の位置に絵文字キャラクタ1120(図11B)を表示する。   UI 1100A (FIG. 11A) shows an electronic message 2216 displayed on instant messaging application 141. The electronic message includes instructions for starting the geographic map application, location data representing a location on the geographic map, and pictographic data representing a pictographic character. The pictographic data is associated with the position data. In response to detecting a predefined user action on the message (eg, a finger tap gesture on the link 2220 to Lake Tahoe), the device responds in the geographic map application 154 with a geographic map (eg, map 1115 in FIG. 11B). And the apparatus displays a pictographic character 1120 (FIG. 11B) at a position on the geographic map 1115 corresponding to the position data.

図5A−11Cにおけるユーザインターフェイスの幾つかを使用して、図12A−12F及び図13−17に示すプロセスを以下に説明する。   The processes shown in FIGS. 12A-12F and FIGS. 13-17 are described below using some of the user interfaces in FIGS. 5A-11C.

図12A−12Fは、ある実施形態によりタッチ感知ディスプレイを装備したポータブル電子装置において絵文字キャラクタキーボードを操作する方法を示すフローチャートである。この方法1200は、タッチスクリーンディスプレイを有するポータブル電子装置(例えば、ポータブル多機能装置100)において遂行される。この方法は、ポータブル電子装置において絵文字キャラクタを編成し選択するためのより効率的な仕方を与え、それにより、電力を保存し、バッテリ充電と充電との間の時間を延長し、且つ装置でのユーザの満足度を高める。   12A-12F are flowcharts illustrating a method of operating an emoji character keyboard in a portable electronic device equipped with a touch sensitive display according to some embodiments. The method 1200 is performed in a portable electronic device (eg, portable multifunction device 100) having a touch screen display. This method provides a more efficient way to organize and select emoji characters in portable electronic devices, thereby conserving power, extending the time between battery charges, and at the device Increase user satisfaction.

ポータブル電子装置は、キャラクタ入力エリア(例えば、図6Aのエリア5000)、キーボード表示エリア(例えば、図6Aのエリア5005)、及び複数の絵文字カテゴリアイコン(例えば、図6Aのアイコン5010)を同時に表示する(1202)。キャラクタ入力エリア5005は、ユーザにより選択されたテキストキャラクタ入力及び絵文字キャラクタ入力を表示し、又は表示するように動作できる。   The portable electronic device simultaneously displays a character input area (eg, area 5000 in FIG. 6A), a keyboard display area (eg, area 5005 in FIG. 6A), and a plurality of pictogram category icons (eg, icon 5010 in FIG. 6A). (1202). The character input area 5005 can be operated to display or display a text character input and a pictogram character input selected by the user.

絵文字カテゴリアイコンは、複数の絵文字カテゴリ(例えば、図6Aの5010−1ないし5010−6)に対応する。ある実施形態では、複数の絵文字カテゴリアイコンは、ユーザにより最近及び頻繁に選択された複数の絵文字キャラクタに対応する最近及び頻繁に使用される絵文字カテゴリアイコン(例えば、図6Aの最近及び頻繁に使用される絵文字カテゴリアイコン5010−1)を含む(1204)。ある実施形態では、複数の絵文字カテゴリアイコンは、特定の季節(例えば、春、夏、秋又は冬)に関連した複数の絵文字キャラクタに対応する季節絵文字キャラクタアイコンを含む(1206)。ある実施形態では、複数の絵文字カテゴリアイコンは、複数の休日(例えば、クリスマス又は新年)に関連した複数の絵文字キャラクタに対応する休日絵文字カテゴリアイコンを含む(1208)。   The pictogram category icons correspond to a plurality of pictogram categories (for example, 5010-1 to 5010-6 in FIG. 6A). In some embodiments, a plurality of pictogram category icons are used for recently and frequently used pictogram category icons corresponding to a plurality of pictogram characters recently and frequently selected by the user (eg, the recent and frequently used pictogram category icons of FIG. 6A). (1204). In some embodiments, the plurality of pictogram category icons include seasonal pictogram character icons corresponding to a plurality of pictogram characters associated with a particular season (eg, spring, summer, autumn or winter) (1206). In some embodiments, the plurality of pictogram category icons includes holiday pictogram category icons corresponding to a plurality of pictogram characters associated with a plurality of holidays (eg, Christmas or New Year) (1208).

ある実施形態では、複数の絵文字カテゴリアイコン5010が、キーボード表示エリア5005(図6A)に表示される(1210)。   In some embodiments, a plurality of pictogram category icons 5010 are displayed (1210) in the keyboard display area 5005 (FIG. 6A).

装置は、複数の絵文字カテゴリアイコンの各絵文字カテゴリアイコン5010においてジェスチャーを検出する(1212)。ある実施形態では、ジェスチャーは、指タップジェスチャー(例えば、図5Aのカテゴリアイコン5010−3におけるタップジェスチャー5007)である。   The apparatus detects a gesture in each pictogram category icon 5010 of the plurality of pictogram category icons (1212). In some embodiments, the gesture is a finger tap gesture (eg, tap gesture 5007 in category icon 5010-3 of FIG. 5A).

各絵文字カテゴリアイコンにおけるジェスチャーの検出に応答して、装置は、キーボード表示エリア5005における各絵文字カテゴリの絵文字キャラクタキーの第1サブセット(例えば、図6Aのサブセット6015)と、各絵文字カテゴリの複数のサブセットシーケンス印アイコン(例えば、図6Aのサブセットシーケンス印アイコン6000)とを同時に表示する(1214)。   In response to detecting a gesture in each pictogram category icon, the device may include a first subset of pictogram character keys for each pictogram category in keyboard display area 5005 (eg, subset 6015 in FIG. 6A) and a plurality of subsets for each pictogram category. A sequence mark icon (for example, the subset sequence mark icon 6000 in FIG. 6A) is simultaneously displayed (1214).

各絵文字カテゴリは、キーボード表示エリアにおける絵文字キャラクタキーのサブセットのシーケンスとして別々に表示されるよう構成された絵文字キャラクタキーの多数のサブセットを含む。例えば、図6A−6Cの自然絵文字カテゴリは、キーボード表示エリア5005における絵文字キャラクタキーのサブセットのシーケンスとして別々に表示されるよう構成された絵文字キャラクタキーの3つのサブセット、即ち図6Aの第1サブセット6015、図6Bの第2サブセット6020、及び図6Cの第3サブセット6040を含む。   Each pictogram category includes multiple subsets of pictogram character keys configured to be displayed separately as a sequence of subsets of pictogram character keys in the keyboard display area. For example, the natural pictogram categories of FIGS. 6A-6C are three subsets of pictogram character keys configured to be displayed separately as a sequence of subsets of pictogram character keys in the keyboard display area 5005, ie, the first subset 6015 of FIG. 6A. , The second subset 6020 of FIG. 6B, and the third subset 6040 of FIG. 6C.

サブセットシーケンス印アイコンは、各絵文字カテゴリにおけるサブセットの数、及びキーボード表示エリア内の絵文字キャラクタキーのサブセットのシーケンスにおける表示されたサブセットの位置に関する情報を与える。例えば、図6A−6Cでは、サブセットシーケンス印アイコン6000−1、6000−2及び6000−3は、自然絵文字カテゴリ5010−3に絵文字キャラクタキーの3つのサブセットがあることを指示する。更に、アイコン6000−1は、第1サブセット6015が表示されるときにハイライトにされ(図6A)、アイコン6000−2は、第2サブセット6020が表示されるときにハイライトにされ(図6B)、そしてアイコン6000−3は、第3サブセット6040が表示されるときにハイライトにされる(図6C)。ある実施形態では、サブセットシーケンス印アイコンは、円、正方形、長方形又は星のような簡単な幾何学形状を有する。   The subset sequence mark icon provides information about the number of subsets in each pictogram category and the position of the displayed subset in the pictogram character key subset sequence within the keyboard display area. For example, in FIGS. 6A-6C, subset sequence mark icons 6000-1, 6000-2 and 6000-3 indicate that there are three subsets of pictogram character keys in natural pictogram category 5010-3. Further, icon 6000-1 is highlighted when the first subset 6015 is displayed (FIG. 6A) and icon 6000-2 is highlighted when the second subset 6020 is displayed (FIG. 6B). ), And icon 6000-3 is highlighted when the third subset 6040 is displayed (FIG. 6C). In some embodiments, the subset sequence mark icon has a simple geometric shape such as a circle, square, rectangle or star.

ある実施形態では、少なくとも1つの絵文字カテゴリにおける絵文字キャラクタキーが絵文字キャラクタ使用データに基づいて順序付けされる(1216)。ある実施形態では、絵文字キャラクタ使用データは、ポータブル電子装置で実行されるソフトウェアアプリケーションからの絵文字キャラクタ使用データを含む(1218)。ある実施形態では、絵文字キャラクタ使用データは、ポータブル電子装置のサービスプロバイダーから受け取られた(例えば、ダウンロードされた)絵文字キャラクタ使用データを含む(1220)。ある実施形態では、少なくとも1つの絵文字カテゴリにおける絵文字キャラクタキーは、絵文字キャラクタ人気データに基づいて順序付けされる(1222)。   In some embodiments, the emoji character keys in at least one emoji category are ordered based on the emoji character usage data (1216). In some embodiments, the emoji character usage data includes emoji character usage data from a software application running on the portable electronic device (1218). In some embodiments, the emoji character usage data includes (2020) emoji character usage data received (eg, downloaded) from a portable electronic device service provider. In some embodiments, the emoji character keys in at least one emoji category are ordered based on the emoji character popularity data (1222).

ある実施形態では、サブセットシーケンス印アイコンがキーボード表示エリアに表示される(1224)(例えば、サブセットシーケンス印アイコン6000がエリア5005に表示される、図6A)。   In some embodiments, a subset sequence mark icon is displayed 1224 in the keyboard display area (eg, subset sequence mark icon 6000 is displayed in area 5005, FIG. 6A).

キーボード表示エリアにおいて各絵文字カテゴリの絵文字キャラクタキーの第1サブセットを表示する間に、装置は、キーボード表示エリアにおけるジェスチャーを検出する(1226)。例えば、装置は、エリア5005(図6A)における水平又は実質的に水平の指スワイプジェスチャー6010を検出する。   While displaying the first subset of pictogram character keys for each pictogram category in the keyboard display area, the device detects a gesture in the keyboard display area (1226). For example, the device detects a horizontal or substantially horizontal finger swipe gesture 6010 in area 5005 (FIG. 6A).

キーボード表示エリアにおけるジェスチャーの検出に応答して、装置は、各絵文字カテゴリの絵文字キャラクタキーの第1サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリの絵文字キャラクタキーの第2サブセットの表示に置き換え、そしてサブセットシーケンス印アイコンにより与えられる情報を、絵文字キャラクタキーの第2サブセットによる絵文字キャラクタキーの表示された第1サブセットとの置き換えを反映するように更新する(1228)。例えば、キーボード表示エリア5005における水平の指スワイプジェスチャー6010の検出に応答して、装置は、自然絵文字カテゴリの絵文字キャラクタキー(図6A)の第1サブセット6015の表示をキーボード表示エリア5005における自然絵文字カテゴリ(図6B)の絵文字キャラクタキーの第2サブセット6020の表示に置き換え、そしてサブセットシーケンス印アイコン6000により与えられる情報を、絵文字キャラクタキーの第2サブセット6020による絵文字キャラクタキーの表示された第1サブセット6015との置き換えを反映するように更新する。サブセットシーケンス印アイコンにより与えられる情報を更新することは、絵文字キャラクタキーの第2サブセットに対応するサブセットシーケンス印アイコンをハイライトにするか、又は視覚上区別する一方、絵文字キャラクタキーの第1サブセットに対応する別のサブセットシーケンス印アイコンのハイライト化又は視覚上の区別化を中止する(例えば、図6Bにおいて、アイコン6000−2をハイライトにする一方、アイコン6000−1のハイライト化を中止する)ことを含むが、これに限定されない。   In response to detecting a gesture in the keyboard display area, the device replaces the display of the first subset of pictogram character keys of each pictogram category with the display of the second subset of pictogram character keys of each pictogram category in the keyboard display area; and The information provided by the subset sequence mark icon is updated to reflect the replacement of the pictograph character key with the displayed first subset by the second subset of pictograph character keys (1228). For example, in response to detecting a horizontal finger swipe gesture 6010 in the keyboard display area 5005, the device displays a display of the first subset 6015 of the pictogram character keys (FIG. 6A) of the natural pictogram category in the natural pictogram category in the keyboard display area 5005. Replace the display of the second subset 6020 of pictogram character keys of FIG. 6B and replace the information provided by the subset sequence mark icon 6000 with the first subset 6015 of pictogram character keys displayed by the second subset 6020 of pictogram character keys. Update to reflect the replacement. Updating the information provided by the subset sequence mark icon highlights or visually distinguishes the subset sequence mark icon corresponding to the second subset of pictogram character keys, while the first subset of pictogram character keys. Stop highlighting or visually distinguishing another corresponding subset sequence mark icon (eg, highlight icon 6000-2 while highlighting icon 6000-1 in FIG. 6B) ), But is not limited to this.

ある実施形態では、各絵文字カテゴリの絵文字キャラクタキーの第1サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリの絵文字キャラクタキーの第2サブセットの表示に置き換えることは、タッチスクリーンディスプレイから外れるように移動する絵文字キャラクタキーの第1サブセットのアニメーションを表示することを含む(1230)。例えば、図6Aと6Bとの間で、タッチスクリーンディスプレイ112から外れるサブセット6015のアニメーションが表示される。   In some embodiments, replacing the display of the first subset of pictogram character keys of each pictogram category with the display of the second subset of pictogram character keys of each pictogram category in the keyboard display area moves away from the touch screen display. Displaying an animation of a first subset of emoji character keys (1230). For example, between FIGS. 6A and 6B, an animation of subset 6015 that deviates from touch screen display 112 is displayed.

ある実施形態では、各絵文字カテゴリの絵文字キャラクタキーの第1サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリの絵文字キャラクタキーの第2サブセットの表示に置き換えることは、タッチスクリーンディスプレイへと移動する絵文字キャラクタキーの第2サブセットのアニメーションを表示することを含む(1232)。例えば、図6Aと6Bとの間で、タッチスクリーンディスプレイ112へと移動するサブセット6020のアニメーションが表示される。   In some embodiments, replacing the display of the first subset of pictogram character keys of each pictogram category with the display of the second subset of pictogram character keys of each pictogram category in the keyboard display area is a pictogram character moving to a touch screen display. Displaying an animation of the second subset of keys (1232). For example, an animation of subset 6020 moving to touch screen display 112 is displayed between FIGS. 6A and 6B.

ある実施形態では、各絵文字カテゴリの絵文字キャラクタキーの第1サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリの絵文字キャラクタキーの第2サブセットの表示に置き換えることは、タッチスクリーンディスプレイから外れるように移動する絵文字キャラクタキーの第1サブセットのアニメーションを表示すると共に、タッチスクリーンディスプレイへと移動する絵文字キャラクタキーの第2サブセットのアニメーションを表示することを含む(1234)。例えば、図6Aと6Bとの間で、タッチスクリーンディスプレイ112から外れるよう移動するサブセット6015及びタッチスクリーンディスプレイ112へと移動するサブセット6020のアニメーションが表示される。   In some embodiments, replacing the display of the first subset of pictogram character keys of each pictogram category with the display of the second subset of pictogram character keys of each pictogram category in the keyboard display area moves away from the touch screen display. Displaying an animation of the first subset of emoji character keys and displaying an animation of the second subset of emoji character keys moving to the touch screen display (1234). For example, between FIGS. 6A and 6B, animations of subset 6015 moving away from touch screen display 112 and subset 6020 moving to touch screen display 112 are displayed.

ある実施形態では、装置は、キーボード表示エリアに各絵文字カテゴリの絵文字キャラクタキーの第2サブセットを表示する間にキーボード表示エリアにおけるジェスチャーを検出する。例えば、装置は、サブセット6020(図6B)を表示する間にエリア5005における水平又は実質的に水平の指スワイプジェスチャー6025を検出する。キーボード表示エリアにおけるジェスチャー(例えば、ジェスチャー6025)を検出するのに応答して、装置は、各絵文字カテゴリの絵文字キャラクタキーの第2サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリの絵文字キャラクタキーの第3サブセットの表示に置き換える(1236)。又、キーボード表示エリアにおけるジェスチャー(例えば、ジェスチャー6025)を検出するのに応答して、装置は、サブセットシーケンス印アイコンにより与えられる情報を、絵文字キャラクタキーの第3サブセットによる絵文字キャラクタキーの表示された第2サブセットとの置き換えを反映するように更新する(1236)。例えば、キーボード表示エリア5000において水平の指スワイプジェスチャー6025を検出するのに応答して、装置は、自然絵文字カテゴリの絵文字キャラクタキー(図6B)の第2サブセット6020の表示をキーボード表示エリア5005において自然絵文字カテゴリ(図6C)の絵文字キャラクタキーの第3サブセット6040の表示に置き換え、そしてサブセットシーケンス印アイコン6000により与えられる情報を、絵文字キャラクタキーの第3サブセット6040による絵文字キャラクタキーの表示された第2サブセット6020との置き換えを反映するように更新する。情報の更新は、絵文字キャラクタキーの第3サブセットに対応するサブセットシーケンス印アイコンをハイライトにするか、又は視覚上区別する一方、絵文字キャラクタキーの第2サブセットに対応する別のサブセットシーケンス印アイコンのハイライト化又は視覚上の区別化を中止する(例えば、図6Cにおいて、アイコン6000−3をハイライトにする一方、アイコン6000−2のハイライト化を中止する)ことを含むが、これに限定されない。   In some embodiments, the device detects a gesture in the keyboard display area while displaying a second subset of the emoji character keys for each emoji category in the keyboard display area. For example, the device detects a horizontal or substantially horizontal finger swipe gesture 6025 in area 5005 while displaying subset 6020 (FIG. 6B). In response to detecting a gesture (eg, gesture 6025) in the keyboard display area, the device displays a second subset of the pictogram character keys of each pictogram category and the first of the pictogram character keys of each pictogram category in the keyboard display area. Replace with the display of 3 subsets (1236). Also, in response to detecting a gesture (eg, gesture 6025) in the keyboard display area, the device displays the information provided by the subset sequence mark icon for the pictogram character key displayed by the third subset of pictogram character keys. Update to reflect replacement with the second subset (1236). For example, in response to detecting a horizontal finger swipe gesture 6025 in the keyboard display area 5000, the device naturally displays in the keyboard display area 5005 the display of the second subset 6020 of the emoji character keys of the natural emoji category (FIG. 6B). The display is replaced with the display of the third subset 6040 of the pictogram character keys of the pictogram category (FIG. 6C), and the information provided by the subset sequence mark icon 6000 is replaced with the second displayed pictogram character key by the third subset 6040 of the pictogram character keys. Update to reflect replacement with subset 6020. Updating the information highlights or visually distinguishes the subset sequence mark icon corresponding to the third subset of emoji character keys, while another subset sequence mark icon corresponding to the second subset of emoji character keys. Including, but not limited to, highlighting or visual differentiation (eg, in FIG. 6C, highlighting icon 6000-3 while highlighting icon 6000-2 is stopped). Not.

ある実施形態では、絵文字キャラクタキーの第2サブセットを表示する間に検出されたジェスチャーは、第1方向のスワイプジェスチャーである(例えば、右から左へのスワイプジェスチャー6025、図6B)。第1方向とは実質的に逆の方向におけるキーボード表示エリアでのタッチスクリーンディスプレイに対する第2のスワイプジェスチャー(例えば、左から右へのスワイプジェスチャー6030、図6C)を装置が検出するのに応答して、装置は、各絵文字カテゴリの絵文字キャラクタキーの第3サブセットの表示をキーボード表示エリアにおける各絵文字カテゴリの絵文字キャラクタキーの第2サブセットの表示に置き換え、そしてサブセットシーケンス印アイコンにより与えられる情報を、絵文字キャラクタキーの第2サブセットによる絵文字キャラクタキーの表示された第3サブセットとの置き換えを反映するように更新する(例えば、絵文字キャラクタキーの第2サブセットに対応するサブセットシーケンス印アイコンをハイライトにするか又は視覚上区別する一方、絵文字キャラクタキーの第3サブセットに対応する別のサブセットシーケンス印アイコンのハイライト化又は視覚上の区別化を中止する)(1238)。例えば、ジェスチャー6025(図6B)の方向とは実質的に逆の方向におけるキーボード表示エリア5005でのタッチスクリーンディスプレイに対するスワイプジェスチャー6030(図6C)を検出するのに応答して、装置は、自然絵文字カテゴリの絵文字キャラクタキー6040の第3サブセットの表示をキーボード表示エリア5005における自然絵文字カテゴリの絵文字キャラクタキー6020の第2サブセットの表示に置き換え、そしてサブセットシーケンス印アイコン6000により与えられる情報を、絵文字キャラクタキーの第2サブセットによる絵文字キャラクタキーの表示された第3サブセットとの置き換えを反映するように更新する(例えば、絵文字キャラクタキーの第2サブセット6020に対応するサブセットシーケンス印アイコン6000−2をハイライトにするか又は視覚上区別する一方、絵文字キャラクタキーの第3サブセット6040に対応するサブセットシーケンス印アイコン6003のハイライト化又は視覚上の区別化を中止する)。   In some embodiments, the gesture detected while displaying the second subset of emoji character keys is a first direction swipe gesture (eg, a right-to-left swipe gesture 6025, FIG. 6B). Responsive to the device detecting a second swipe gesture (eg, left-to-right swipe gesture 6030, FIG. 6C) on the touch screen display in the keyboard display area in a direction substantially opposite to the first direction. The device replaces the display of the third subset of the pictogram character keys of each pictogram category with the display of the second subset of the pictogram character keys of each pictogram category in the keyboard display area, and the information provided by the subset sequence mark icon, Update to reflect replacement of the displayed third subset of pictogram character keys with the second subset of pictogram character keys (eg, highlight the subset sequence mark icon corresponding to the second subset of pictogram character keys) While distinguish Luke or visual, to stop the differentiation of highlighting or visual on another subset sequence mark icon corresponding to a third subset of pictograms character key) (1238). For example, in response to detecting a swipe gesture 6030 (FIG. 6C) for the touch screen display in the keyboard display area 5005 in a direction substantially opposite to the direction of the gesture 6025 (FIG. 6B), the device The display of the third subset of the pictogram character key 6040 of the category is replaced with the display of the second subset of the pictogram character key 6020 of the natural pictogram category in the keyboard display area 5005, and the information provided by the subset sequence mark icon 6000 is replaced with the pictogram character key. Updated to reflect the replacement of the displayed emoticon character key with the displayed third subset by the second subset of e.g. (e.g., the subset corresponding to the second subset 6020 of emoji character keys) Sequence while distinguishing mark icon 6000-2 whether or visual to highlight, to stop the differentiation of highlighting or visual subset sequence mark icon 6003 corresponding to the third subset 6040 of the pictograph character keys).

ある実施形態では、装置は、キーボード選択アイコン(例えば、アイコン5020、図6B)を表示する。ある実施形態では、キーボード選択アイコン5020には、複数の絵文字カテゴリアイコン5010が同時に表示される(例えば、タッチスクリーンディスプレイの底部に沿った既定のエリア5009に)。装置は、キーボード選択アイコン上でのジェスチャー(例えば、図6Bの指タップジェスチャー6055)を検出する。キーボード選択アイコン上でのジェスチャーを検出した後に、装置は、各絵文字カテゴリの絵文字キャラクタキーの第2サブセットの表示をキーボード表示エリアにおけるテキストキャラクタ入力キーボードの表示に置き換える(1240)。例えば、キーボード選択アイコン5020上でのタップジェスチャー6055を検出した後に、装置は、自然絵文字カテゴリの絵文字キャラクタキー(図6B)の第2サブセット6020の表示をキーボード表示エリア5055(図5G)におけるテキストキャラクタ入力キーボード5055の表示に置き換える。ある実施形態では、絵文字キャラクタキーの第2サブセット6020が、ジェスチャー6055の検出に応答してテキストキャラクタ入力キーボード5055に置き換えられる。ある実施形態では、特定のテキストキャラクタ入力キーボード(例えば、アルファニューメリックキーボード、仮名キーボード、又は漢字キーボード)が選択されてエリア5005に表示される前に、1つ以上の中間のテキストキャラクタ入力キーボード選択UIが示される。   In some embodiments, the device displays a keyboard selection icon (eg, icon 5020, FIG. 6B). In some embodiments, the keyboard selection icon 5020 displays multiple pictogram category icons 5010 simultaneously (eg, in a predetermined area 5009 along the bottom of the touch screen display). The device detects a gesture on the keyboard selection icon (eg, finger tap gesture 6055 of FIG. 6B). After detecting the gesture on the keyboard selection icon, the apparatus replaces the display of the second subset of the pictogram character keys of each pictogram category with the display of the text character input keyboard in the keyboard display area (1240). For example, after detecting the tap gesture 6055 on the keyboard selection icon 5020, the device displays the second subset 6020 of the pictogram character keys (FIG. 6B) in the natural pictogram category as text characters in the keyboard display area 5055 (FIG. 5G). Replace with the display of the input keyboard 5055. In some embodiments, the second subset 6020 of emoji character keys is replaced with a text character input keyboard 5055 in response to detecting gesture 6055. In some embodiments, one or more intermediate text character input keyboard selection UIs are selected before a particular text character input keyboard (eg, an alphanumeric keyboard, kana keyboard, or kanji keyboard) is selected and displayed in area 5005. Is shown.

ある実施形態では、装置は、テキストキャラクタ入力キーボード(例えば、図5Gのキーボード5055)でユーザによって入力された1つ以上のワードを受け取る。装置は、ユーザによりキャラクタ入力エリア5000に入力された1つ以上のワードを表示する。テキストキャラクタ入力キーボードでユーザにより入力された1つ以上のワードを受け取るのに応答して、装置は、ユーザにより入力された1つ以上のワードに少なくとも一部分基づいて推奨絵文字キャラクタを決定し、そしてその推奨絵文字キャラクタをタッチスクリーンディスプレイに表示する(1242)。推奨絵文字キャラクタの決定は、ユーザにより入力される句読点ではなく、ユーザにより入力されるワードに基づく。例えば、ユーザがワード“rain”をタイプする場合には、傘及び/又は雨滴の絵文字キャラクタが推奨される。同様に、ユーザがワード“fly”をタイプする場合には、航空機の絵文字キャラクタが推奨される。ある実施形態では、単一の絵文字キャラクタが推奨される。又、他の実施形態では、複数の絵文字キャラクタが推奨される。ある実施形態では、装置は、タッチスクリーンディスプレイに対するジェスチャーを検出する(例えば、テキストキャラクタ入力キーボードのスペースバーに対するタップジェスチャー、又は推奨される絵文字キャラクタに対するタップジェスチャー)。そのジェスチャーの検出に応答して、装置は、ユーザによりキャラクタ入力エリアに入力された1つ以上のワードの後に推奨絵文字キャラクタを挿入し表示する(1244)。   In some embodiments, the device receives one or more words entered by a user with a text character input keyboard (eg, keyboard 5055 of FIG. 5G). The apparatus displays one or more words input to the character input area 5000 by the user. In response to receiving one or more words entered by the user with the text character input keyboard, the device determines a recommended emoji character based at least in part on the one or more words entered by the user, and the The recommended pictogram character is displayed on the touch screen display (1242). The determination of the recommended pictogram character is based on the word input by the user, not the punctuation marks input by the user. For example, when the user types the word “rain”, an umbrella and / or raindrop pictogram character is recommended. Similarly, if the user types the word “fly”, an aircraft pictogram character is recommended. In some embodiments, a single emoji character is recommended. In other embodiments, a plurality of pictogram characters are recommended. In some embodiments, the device detects a gesture for a touch screen display (eg, a tap gesture for a space bar of a text character input keyboard or a recommended gesture character tap character). In response to detecting the gesture, the apparatus inserts and displays a recommended pictogram character after one or more words input to the character input area by the user (1244).

ある実施形態では、装置は、テキストキャラクタ入力キーボード5055がキーボード表示エリア5055(図5G)に表示される間にキーボード選択アイコン5020を表示する。次いで、キーボード選択アイコン5020上でのジェスチャー、例えば、指タップジェスチャーを検出した後に、装置は、テキストキャラクタ入力キーボード5055(図6B)の表示を、キーボード表示エリアにおける各絵文字カテゴリの絵文字キャラクタキー(図6B)の第2サブセット6020及びそれに対応するサブセットシーケンス印アイコン6000の同時表示に置き換える(1246)。ある実施形態では、テキストキャラ
クタ入力キーボード5055は、ジェスチャーの検出に応答して、絵文字キャラクタキーの第2サブセットに置き換えられる。ある実施形態では、絵文字キャラクタキーの特定のサブセットが選択されてエリア5005に表示される前に、1つ以上の中間絵文字キーボード選択UIが示される。ある実施形態では、キーボード選択アイコン5020上でのジェスチャーを検出するのに応答して、装置は、テキストキャラクタ入力キーボードの表示と、絵文字キャラクタキーの最も最近表示されたサブセットとの間をトグルする。
In some embodiments, the device displays a keyboard selection icon 5020 while the text character input keyboard 5055 is displayed in the keyboard display area 5055 (FIG. 5G). Next, after detecting a gesture on the keyboard selection icon 5020, for example, a finger tap gesture, the apparatus displays the text character input keyboard 5055 (FIG. 6B) with the pictogram character keys (FIG. 6B) of each pictogram category in the keyboard display area. 6B) and the simultaneous display of the second subset 6020 and the corresponding subset sequence mark icon 6000 (1246). In some embodiments, the text character input keyboard 5055 is replaced with a second subset of emoji character keys in response to detecting a gesture. In some embodiments, one or more intermediate pictogram keyboard selection UIs are shown before a particular subset of pictogram character keys are selected and displayed in area 5005. In some embodiments, in response to detecting a gesture on the keyboard selection icon 5020, the device toggles between the display of the text character input keyboard and the most recently displayed subset of emoji character keys.

ある実施形態では、装置は、絵文字キャラクタキーの第2サブセットにおける各絵文字キャラクタキーに対するジェスチャーを検出する。絵文字キャラクタキーの第2サブセットにおける各絵文字キャラクタキーに対するジェスチャーを検出するのに応答して、装置は、それに対応する絵文字キャラクタをキャラクタ入力キーに挿入し表示する(1248)。例えば、絵文字キャラクタキーの第2サブセット6020における絵文字キャラクタキーに対するタップジェスチャーを検出するのに応答して、装置は、それに対応する絵文字キャラクタをキャラクタ入力エリア5000に挿入し表示する。図6C−6Eは、絵文字キャラクタの第3サブセット6040からの入力エリア5000への絵文字キャラクタの同様の挿入及び表示を示している。付加的な絵文字キャラクタキーに対するジェスチャーの検出に応答して、付加的な絵文字キャラクタが絵文字入力エリア5000に挿入され表示されてもよい。   In some embodiments, the apparatus detects a gesture for each pictogram character key in the second subset of pictogram character keys. In response to detecting a gesture for each pictogram character key in the second subset of pictogram character keys, the device inserts and displays the corresponding pictogram character in the character input key (1248). For example, in response to detecting a tap gesture for a pictograph character key in the second subset 6020 of pictograph character keys, the apparatus inserts and displays a corresponding pictograph character in the character input area 5000. 6C-6E illustrate similar insertion and display of pictogram characters from the third subset 6040 of pictogram characters to the input area 5000. FIG. In response to detecting a gesture for an additional pictogram character key, an additional pictogram character may be inserted into the pictogram input area 5000 and displayed.

ある実施形態では、装置は、既定のユーザインターフェイス再構成プロセスを開始するための既定のユーザアクション(例えば、絵文字キャラクタキーを指で押して、指接触を所定時間より長く保持する)を検出する。既定のユーザアクションを検出するのに応答して、装置は、絵文字キャラクタキーの第2サブセットにおける2つ以上の絵文字キャラクタキーの位置を変化させる。この変化は、2つ以上の絵文字キャラクタキーの他の絵文字キャラクタキーの各平均位置とは異なる各平均位置の周りで2つ以上の絵文字キャラクタキーの各絵文字キャラクタの位置を変化させることを含む(1249)。例えば、所定時間(例えば、1秒)より長い絵文字キャラクタキー8001(図8A)に対する指接触を検出するのに応答して、装置は、絵文字キャラクタキーのサブセット8002(図8A、これは、図6Bのサブセット6020に対応する)における全ての絵文字キャラクタキーの位置を変化させる。   In some embodiments, the device detects a default user action to initiate a default user interface reconfiguration process (eg, pressing an emoji character key with a finger and holding finger contact for longer than a predetermined time). In response to detecting the predetermined user action, the device changes the position of two or more emoji character keys in the second subset of emoji character keys. This change includes changing the position of each pictogram character of two or more pictogram character keys around each average position different from each average position of other pictogram character keys of two or more pictogram character keys ( 1249). For example, in response to detecting a finger touch on an emoji character key 8001 (FIG. 8A) that is longer than a predetermined time (eg, 1 second), the device may detect a subset 8002 of the emoji character keys (FIG. 8A, which is shown in FIG. 6B). Change the positions of all pictogram character keys in the sub-set 6020).

ある実施形態では、2つ以上の絵文字キャラクタキーの各絵文字キャラクタキーは、各絵文字キャラクタキーの各平均位置を実質的に中心とする領域において振動する(図8Bに示す)(1250)。   In one embodiment, each pictogram character key of two or more pictogram character keys vibrates in a region substantially centered at each average position of each pictogram character key (shown in FIG. 8B) (1250).

ある実施形態では、装置は、ユーザが、絵文字キャラクタキーの第2サブセットにおける第1絵文字キャラクタキーに対応する第1位置でタッチスクリーンディスプレイと接触点を形成するのを検出すると共に、タッチスクリーンディスプレイ上の第2位置に対する接触点の移動も検出する。これら2つの検出に応答して、装置は、検出された接触点移動に基づきタッチスクリーンディスプレイ上の第2位置に対する第1絵文字キャラクタキーの移動を表示する(1252)。例えば、絵文字キャラクタキー8001−2に対応する位置においてユーザがタッチスクリーンディスプレイとの接触点8050(図8B)を形成するのを検出し、そしてタッチスクリーンディスプレイ上の第2位置825に対する接触点8050の移動も検出するのに応答して、装置は、その検出された接触点移動に基づきタッチスクリーンディスプレイ上の第2位置825に対する絵文字キャラクタキー8001−2の移動を表示する。   In some embodiments, the device detects that the user forms a contact point with the touch screen display at a first position corresponding to the first emoji character key in the second subset of emoji character keys and on the touch screen display. The movement of the contact point with respect to the second position is also detected. In response to these two detections, the device displays the movement of the first pictogram character key relative to the second position on the touch screen display based on the detected touch point movement (1252). For example, it is detected that the user forms a contact point 8050 (FIG. 8B) with the touch screen display at a position corresponding to the emoji character key 8001-2, and the contact point 8050 with respect to the second position 825 on the touch screen display. In response to detecting the movement, the apparatus displays the movement of the pictogram character key 8001-2 relative to the second position 825 on the touch screen display based on the detected touch point movement.

ある実施形態では、装置は、既定のユーザインターフェイス再構成プロセスを終了する第2の既定のユーザアクションを検出する(例えば、ホームボタン204のアクチベーションを検出する)のに応答して第2位置に第1絵文字キャラクタキー(例えば、図8Cの8000−2)の位置を固定する(1254)。   In some embodiments, the device is in a second position in a second position in response to detecting a second default user action (eg, detecting activation of the home button 204) that terminates the default user interface reconfiguration process. The position of one pictogram character key (for example, 8000-2 in FIG. 8C) is fixed (1254).

図13は、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための方法を示すフローチャートである。この方法1300は、装置がロック状態にある間にユーザが到来するメッセージに素早く応答するための簡単で且つ直観的な仕方を提供し、これにより、電力を保存すると共に、バッテリ充電時とバッテリ充電時との間の期間を延長するものである。   FIG. 13 is a flowchart illustrating a method for responding to a message with a pictogram while the portable electronic device 100 equipped with the touch-sensitive display 112 is in a user interface lock mode according to an embodiment. This method 1300 provides a simple and intuitive way for a user to quickly respond to incoming messages while the device is in a locked state, thereby conserving power and at the time of battery charging and battery charging. Extends the period of time.

ポータブル電子装置100がユーザインターフェイスロックモードにある間に(1301)オペレーション1302−1314が遂行される。この装置は、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受信する(1302)。電力保存状態において、タッチスクリーンは、ブランク(何も表示されない)であり、タッチ感知ではない。   While the portable electronic device 100 is in the user interface lock mode (1301), operations 1302-1314 are performed. The device receives an incoming message from the party to the user of the portable electronic device while the touch screen display is in a power saving state (1302). In the power save state, the touch screen is blank (nothing is displayed) and is not touch sensitive.

到来するメッセージを受信するのに応答して、装置は、タッチスクリーンディスプレイを電源オンし、そして当事者からユーザへ到来するメッセージの少なくとも一部分(例えば、図9Bのメッセージ部分2212)をタッチスクリーンディスプレイに表示する(1304)。装置は、絵文字キャラクタに対応するタッチスクリーンディスプレイ上での1つ以上の既定の指ジェスチャー(例えば、図9Cのジェスチャー9100−1、9100−2及び9100−3)を検出する(1306)。装置は、到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出する(例えば、ホームボタン204のアクチベーションを検出するか、「送信」ボタン(図示せず)のアクチベーションを検出するか、又は図9Cのスワイプジェスチャー2213を検出する)(1308)。到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出するのに応答して、装置は、到来するメッセージに対する応答を送信する(1310)。この応答は、タッチスクリーンディスプレイ上で検出された1つ以上の既定の指ジェスチャーに対応する絵文字キャラクタを含む。例えば、図9Cの既定の指ジェスチャー9100−1、9100−2及び9100−3は、笑顔の絵文字キャラクタに対応する。1つ以上の既定の指ジェスチャーに絵文字を関連付ける1つの方法を、図10A−10Eを参照して以下に述べる。   In response to receiving the incoming message, the device powers on the touch screen display and displays at least a portion of the incoming message from the party to the user (eg, message portion 2212 of FIG. 9B) on the touch screen display. (1304). The device detects (1306) one or more predefined finger gestures (eg, gestures 9100-1, 9100-2, and 9100-3 in FIG. 9C) on the touch screen display corresponding to the pictogram character. Does the device detect a default user action to initiate transmission of a response to an incoming message (eg, detect activation of home button 204 or activation of a “send” button (not shown)) Or the swipe gesture 2213 of FIG. 9C is detected) (1308). In response to detecting a predefined user action to initiate transmission of a response to an incoming message, the device transmits a response to the incoming message (1310). The response includes an emoji character corresponding to one or more default finger gestures detected on the touch screen display. For example, the default finger gestures 9100-1, 9100-2, and 9100-3 in FIG. 9C correspond to smiley pictogram characters. One method for associating an emoji with one or more predefined finger gestures is described below with reference to FIGS. 10A-10E.

ある実施形態では、到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出するのに応答して、装置は、タッチスクリーンディスプレイを電力保存状態に戻す(1312)。ある実施形態では、装置は、到来するメッセージに対する応答が送信された後に所定時間(例えば、5ないし15秒)以内にタッチスクリーンディスプレイを電力保存状態に戻す(1314)。   In some embodiments, in response to detecting a default user action to initiate transmission of a response to an incoming message, the device returns the touch screen display to a power save state (1312). In some embodiments, the device returns (1314) the touch screen display to a power save state within a predetermined time (eg, 5 to 15 seconds) after a response to the incoming message is sent.

図14は、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための別の方法を示すフローチャートである。この方法1400は、装置がロック状態にある間にユーザが到来するメッセージに素早く応答するための簡単で且つ直観的な仕方を提供し、これにより、電力を保存すると共に、バッテリ充電時とバッテリ充電時との間の期間を延長するものである。   FIG. 14 is a flowchart illustrating another method for responding to a message with a pictogram while the portable electronic device 100 equipped with the touch-sensitive display 112 according to an embodiment is in a user interface lock mode. This method 1400 provides a simple and intuitive way for a user to quickly respond to incoming messages while the device is locked, thereby conserving power and at the time of battery charging and battery charging. It extends the period between time.

ポータブル電子装置100がユーザインターフェイスロックモードにある間に(1401)オペレーション1402−1414が遂行される。この装置は、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受信する(1402)。電力保存状態において、タッチスクリーンは、ブランク(何も表示されない)であり、タッチ感知ではない。   While the portable electronic device 100 is in the user interface lock mode (1401), operations 1402-1414 are performed. The device receives an incoming message from the party to the user of the portable electronic device while the touch screen display is in a power saving state (1402). In the power save state, the touch screen is blank (nothing is displayed) and is not touch sensitive.

到来するメッセージを受信するのに応答して、装置は、タッチスクリーンディスプレイを電源オンし、当事者からユーザへ到来するメッセージの少なくとも一部分(例えば、図9Dのメッセージ部分2212)をタッチスクリーンディスプレイに表示し、そして到来するメッセージに対する複数の既定の応答(例えば、図9D又は図9Gの応答9110)を表示する(1404)。既定の応答9110は、複数の絵文字キャラクタを含む(例えば、図9Dの絵文字キャラクタ9111又は図9Gの応答9110における絵文字キャラクタ)。   In response to receiving the incoming message, the device powers on the touch screen display and displays at least a portion of the incoming message from the party to the user (eg, message portion 2212 of FIG. 9D) on the touch screen display. And a plurality of predefined responses to the incoming message (eg, response 9110 of FIG. 9D or FIG. 9G) are displayed (1404). The predetermined response 9110 includes a plurality of pictogram characters (for example, the pictogram character 9111 in FIG. 9D or the pictogram character in the response 9110 in FIG. 9G).

装置は、複数の既定の応答におけるある既定の応答を選択するための既定のユーザアクションを検出する(例えば、図9Eの応答9110−1に対する指タップジェスチャー9120、又は図9Gの応答9110−4に対する指タップジェスチャー9210)(1406)。装置は、到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出する(1408)。ある実施形態では、既定の応答9110の選択を検出すると、ユーザによる更なるアクションを検出せずに、既定の応答の送信が開始される。ある実施形態では、既定の応答9110の選択が検出された後に、応答の送信を開始するための更なる既定のユーザアクションが検出され、例えば、ホームボタン204のアクチベーションが検出され、「送信」ボタン(図示せず)のアクチベーションが検出され、或いは見掛け上チャンネル306にわたってアンロック映像302を移動するスライド指ジェスチャー2213が検出される(この場合、チャンネル306におけるメッセージ「スライドして見る」は、図9Eのメッセージ「スライドして応答を送信する」又は同様のメッセージに切り換えられる)。   The device detects a default user action for selecting a certain default response among a plurality of default responses (eg, for a finger tap gesture 9120 for response 9110-1 in FIG. 9E, or for response 9110-4 in FIG. 9G). Finger tap gesture 9210) (1406). The device detects a default user action to start sending a response to the incoming message (1408). In some embodiments, upon detection of selection of default response 9110, transmission of the default response is initiated without detecting further action by the user. In some embodiments, after selection of a default response 9110 is detected, further default user actions to initiate transmission of the response are detected, for example, activation of the home button 204 is detected, and a “Send” button (Not shown) activation is detected, or a sliding finger gesture 2213 that apparently moves the unlocked image 302 across the channel 306 is detected (in this case, the message “slide to see” in the channel 306 is shown in FIG. Message "Slide to send response" or similar message).

到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出するのに応答して、装置は、到来するメッセージに対する応答を送信する(1410)。選択された既定の応答9110は、複数の絵文字キャラクタにおけるある絵文字キャラクタ(例えば、9111)を含む(1410)。   In response to detecting a default user action to initiate transmission of a response to an incoming message, the device transmits a response to the incoming message (1410). The selected default response 9110 includes a pictographic character (eg, 9111) among a plurality of pictographic characters (1410).

ある実施形態では、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、装置は、タッチスクリーンディスプレイを電力保存状態に戻す(1412)。ある実施形態では、装置は、到来するメッセージに対する選択された既定の応答が送信された後に所定時間(例えば、5ないし15秒)以内にタッチスクリーンディスプレイを電力保存状態に戻す(1414)。   In an embodiment, in response to detecting a default user action to initiate transmission of a selected default response to an incoming message, the device returns the touch screen display to a power save state (1412). . In some embodiments, the device returns (1414) the touch screen display to a power save state within a predetermined time (eg, 5 to 15 seconds) after the selected default response to the incoming message has been sent.

図15は、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100がユーザインターフェイスロックモードにある間に絵文字を伴うメッセージに応答するための別の方法を示すフローチャートである。この方法1500は、装置がロック状態にある間にユーザが到来するメッセージに素早く応答するための簡単で且つ直観的な仕方を提供し、これにより、電力を保存すると共に、バッテリ充電時とバッテリ充電時との間の期間を延長するものである。   FIG. 15 is a flowchart illustrating another method for responding to a message with a pictogram while the portable electronic device 100 equipped with the touch-sensitive display 112 is in a user interface lock mode according to an embodiment. This method 1500 provides a simple and intuitive way for a user to respond quickly to incoming messages while the device is in a locked state, thereby conserving power and at the time of battery charging and battery charging. It extends the period between time.

ポータブル電子装置100がユーザインターフェイスロックモードにある間に(1501)オペレーション1502−1518が遂行される。この装置は、タッチスクリーンディスプレイが電力保存状態にある間に当事者からポータブル電子装置のユーザへ到来するメッセージを受信する(1502)。電力保存状態において、タッチスクリーンは、ブランク(何も表示されない)であり、タッチ感知ではない。   While portable electronic device 100 is in the user interface lock mode (1501), operations 1502-1518 are performed. The device receives an incoming message from the party to the user of the portable electronic device while the touch screen display is in a power saving state (1502). In the power save state, the touch screen is blank (nothing is displayed) and is not touch sensitive.

到来するメッセージを受信するのに応答して、装置は、タッチスクリーンディスプレイを電源オンし、そして当事者からユーザへ到来するメッセージの少なくとも一部分(例えば、図9Bのメッセージ部分2212)をタッチスクリーンディスプレイに表示する(1504)。   In response to receiving the incoming message, the device powers on the touch screen display and displays at least a portion of the incoming message from the party to the user (eg, message portion 2212 of FIG. 9B) on the touch screen display. (1504).

装置は、到来するメッセージに対する複数の既定の応答9110の表示を開始するための既定のユーザアクション(例えば、応答アイコン(図示せず)に対する指タップ、又はタッチスクリーン112に対するダブルタップジェスチャー)を検出する(1506)。その規定の応答は、複数の絵文字キャラクタ(例えば、図9Dの絵文字キャラクタ9111及び図9Gの応答9110における絵文字キャラクタ)を含む。到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出するのに応答して、装置は、複数の既定の応答(例えば、図9D又は図9Gの応答9110)を表示する(1508)。   The device detects a default user action (e.g., a finger tap on a response icon (not shown) or a double tap gesture on the touch screen 112) to initiate display of a plurality of default responses 9110 for incoming messages. (1506). The prescribed response includes a plurality of pictogram characters (for example, the pictogram character 9111 in FIG. 9D and the pictogram character in the response 9110 in FIG. 9G). In response to detecting a default user action to initiate display of a plurality of default responses to an incoming message, the device displays a plurality of default responses (eg, response 9110 of FIG. 9D or FIG. 9G). It is displayed (1508).

装置は、複数の既定の応答におけるある既定の応答を選択するための既定のユーザアクション(例えば、図9Eの応答9110−1に対する指タップジェスチャー9120又は図9Gの応答9110−4に対する指タップジェスチャー9210)を検出する(1510)。   The apparatus may use a predefined user action (eg, finger tap gesture 9120 for response 9110-1 in FIG. 9E or finger tap gesture 9210 for response 9110-4 in FIG. 9G) to select a predetermined response among a plurality of default responses. ) Is detected (1510).

装置は、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出する(1512)。ある実施形態では、既定の応答9110の選択を検出すると、ユーザによる更なるアクションを検出せずに、既定の応答の送信が開始される。ある実施形態では、既定の応答9110の選択が検出された後に、応答の送信を開始するための更なる既定のユーザアクションが検出され、例えば、ホームボタン204のアクチベーションが検出され、「送信」ボタン(図示せず)のアクチベーションが検出され、或いは見掛け上チャンネル306にわたってアンロック映像302を移動するスライド指ジェスチャー2213が検出される(この場合、チャンネル306におけるメッセージ「スライドして見る」は、図9Eのメッセージ「スライドして応答を送信する」又は同様のメッセージに切り換えられる)。   The device detects a default user action to initiate transmission of the selected default response to the incoming message (1512). In some embodiments, upon detection of selection of default response 9110, transmission of the default response is initiated without detecting further action by the user. In some embodiments, after selection of a default response 9110 is detected, further default user actions to initiate transmission of the response are detected, for example, activation of the home button 204 is detected, and a “Send” button (Not shown) activation is detected, or a sliding finger gesture 2213 that apparently moves the unlocked image 302 across the channel 306 is detected (in this case, the message “slide to see” in the channel 306 is shown in FIG. Message "Slide to send response" or similar message).

到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、装置は、到来するメッセージに対する選択された既定の応答を送信する(1514)。選択された既定の応答は、複数の絵文字キャラクタにおけるある絵文字キャラクタを含む。   In response to detecting a default user action to initiate transmission of the selected default response to the incoming message, the device transmits the selected default response to the incoming message (1514). The selected default response includes a pictographic character in the plurality of pictographic characters.

ある実施形態では、到来するメッセージに対する選択された既定の応答の送信を開始するための既定のユーザアクションを検出するのに応答して、装置は、タッチスクリーンディスプレイを電力保存状態に戻す(1516)。ある実施形態では、装置は、到来するメッセージに対する選択された既定の応答が送信された後に所定時間(例えば、5ないし15秒)以内にタッチスクリーンディスプレイを電力保存状態に戻す(1518)。   In an embodiment, in response to detecting a default user action to initiate transmission of a selected default response to an incoming message, the device returns the touch screen display to a power save state (1516). . In some embodiments, the device returns 1518 the touch screen display to a power save state within a predetermined time (eg, 5-15 seconds) after a selected default response to an incoming message has been sent.

図16は、ある実施形態によりタッチ感知ディスプレイ112を装備したポータブル電子装置100において絵文字にユーザ定義ジェスチャーを指定する方法を示すフローチャートである。この方法1600は、ユーザが後で再コールするためにユーザ定義ジェスチャーに絵文字キャラクタを関連付けるための簡単で且つ直観的な仕方を提供し、これにより、ユーザは、絵文字キーボードを使用する必要なく、絵文字キャラクタ(例えば、ユーザが頻繁に使用する絵文字キャラクタ)を装置に入力できるようにする。   FIG. 16 is a flowchart illustrating a method for specifying user-defined gestures for pictograms in portable electronic device 100 equipped with touch-sensitive display 112 according to some embodiments. This method 1600 provides a simple and intuitive way for a user to associate an emoji character with a user-defined gesture for later recall so that the user does not have to use an emoji keyboard. A character (for example, a pictograph character frequently used by a user) can be input to the apparatus.

ポータブル電子装置は、それがユーザ定義ジェスチャー記録モードにある間にタッチスクリーンディスプレイにおいてユーザ定義ジェスチャー(例えば、図10Bのジェスチャー1030)を検出する(1602)。装置は、ユーザ定義ジェスチャーの表現を生成する(1604)。この表現は、ジェスチャーにおける指接触の絶対的又は相対的位置と、ジェスチャーにおける指接触の相対的又は絶対的移動とを含む。装置は、ユーザ定義ジェスチャーの表現を絵文字キャラクタに関連付ける(図10C−10Eを参照して上述したように)(1606)。装置は、ユーザ定義ジェスチャーの表現、及びユーザ定義ジェスチャーの表現と絵文字キャラクタとの関連付けを記憶する(1608)。   The portable electronic device detects a user-defined gesture (eg, gesture 1030 of FIG. 10B) on the touch screen display while it is in the user-defined gesture recording mode (1602). The device generates a representation of the user-defined gesture (1604). This representation includes the absolute or relative position of the finger contact in the gesture and the relative or absolute movement of the finger contact in the gesture. The device associates the representation of the user-defined gesture with the pictogram character (as described above with reference to FIGS. 10C-10E) (1606). The apparatus stores the expression of the user-defined gesture and the association between the expression of the user-defined gesture and the pictogram character (1608).

ある実施形態では、ユーザ定義ジェスチャーの表現、及びユーザ定義ジェスチャーの表現と絵文字キャラクタとの関連付けを記憶した後に、装置は、タッチスクリーンディスプレイにおけるジェスチャーを検出し、そしてその検出されたジェスチャーがユーザ定義ジェスチャーの記憶された表現に対応するかどうか決定する。検出されたジェスチャーがユーザ定義ジェスチャーの記憶された表現に対応する場合には、装置は、インスタントメッセージ(例えば、テキストメッセージ)又はe−メールメッセージのような電子メッセージ又はドキュメントに絵文字キャラクタを挿入する(1610)。   In some embodiments, after storing the user-defined gesture representation and the association between the user-defined gesture representation and the emoji character, the device detects a gesture on the touchscreen display, and the detected gesture is a user-defined gesture. Determine if it corresponds to the stored representation of. If the detected gesture corresponds to a stored representation of a user-defined gesture, the device inserts an emoji character into an electronic message or document, such as an instant message (eg, text message) or an email message ( 1610).

図17は、ある実施形態により電子メッセージを経て絵文字をマップ上の位置指示子として使用する方法を示すフローチャートである。この方法1700は、マップ上に絵文字を伴う位置データを与えて、対応電子メッセージの情報を増加する迅速且つ簡単な仕方である。   FIG. 17 is a flowchart illustrating a method for using a pictograph as a position indicator on a map via an electronic message according to an embodiment. This method 1700 is a quick and easy way to give location data with pictograms on the map and increase the information in the corresponding electronic message.

装置(例えば、ポータブル装置100又はデスクトップコンピューティング装置)は、地理マップアプリケーション154を開始するか又は開始するよう動作できるインストラクション、地理マップ上の位置を表す位置データ、及び絵文字キャラクタを表す絵文字データを含む電子メッセージを受け取る(1702)。絵文字データは、位置データに関連付けられる(例えば、絵文字データに対応する絵文字キャラクタが、位置データに対応する位置においてマップ上に表示されるように)。ある実施形態では、電子メッセージは、地理マップアプリケーションをオープンするためにリンクを伴うテキストメッセージである(1704)。   The device (e.g., portable device 100 or desktop computing device) includes instructions that can initiate or operate to start the geographic map application 154, location data that represents a location on the geographic map, and glyph data that represents a glyph character. An electronic message is received (1702). The pictographic data is associated with the position data (for example, the pictographic character corresponding to the pictographic data is displayed on the map at the position corresponding to the position data). In one embodiment, the electronic message is a text message with a link to open a geographic map application (1704).

装置は、タッチスクリーンディスプレイに電子メッセージ(例えば、図11Aのメッセージ2216)を表示する(1706)。装置は、地理マップアプリケーションを開始するための、その表示された電子メッセージ上での既定のユーザアクション(例えば、図11Aのメッセージ2216におけるLake Tahoeへのリンク2220上でのタップジェスチャー1105)を検出する(1708)。地理マップアプリケーションを開始するための既定のユーザアクションを検出するのに応答して、装置は、地理マップアプリケーション154において地理マップ(例えば、図11Bのマップ1115)を表示し、そして位置データに対応する地理マップの位置に絵文字キャラクタ(例えば、図11Bの絵文字キャラクタ1120)を表示する(1710)。   The device displays (1706) an electronic message (eg, message 2216 of FIG. 11A) on the touch screen display. The device detects a default user action on the displayed electronic message to initiate the geographic map application (eg, tap gesture 1105 on link 2220 to Lake Tahoe in message 2216 of FIG. 11A). (1708). In response to detecting a default user action to initiate a geographic map application, the device displays a geographic map (eg, map 1115 in FIG. 11B) in geographic map application 154 and corresponds to location data. A pictogram character (eg, pictogram character 1120 in FIG. 11B) is displayed at the position of the geographic map (1710).

以上、特定の実施形態を参照して本発明を例示した。しかしながら、以上の説明は、本発明を余すところなく述べたものでも、又、ここに開示する正確な形態に限定するものでもない。以上の教示に鑑み、多数の変更や修正が考えられる。以上の実施形態は、本発明の原理及びその特定の用途を最良に説明するために選択されて記述されたものであり、従って、当業者であれば、本発明及び種々の実施形態を、意図された特定の用途に適するように種々変更して最良に利用することができよう。   The present invention has been illustrated above with reference to specific embodiments. However, the above description is not intended to be exhaustive or to limit the invention to the precise form disclosed herein. Many changes and modifications are possible in light of the above teaching. The above embodiments have been selected and described in order to best explain the principles of the invention and its particular application, and accordingly, those skilled in the art will recognize the invention and various embodiments. It may be best utilized with various modifications to suit the particular application.

100:ポータブル多機能装置
102:メモリ
103:通信バス又は信号ライン
106:I/Oサブシステム
108:RF回路
110:オーディオ回路
111:スピーカ
112:タッチ感知ディスプレイシステム
113:マイクロホン
116:他の入力コントロール装置
118:周辺インターフェイス
120:プロセッサ
122:コントローラ
124:外部ポート
126:オペレーティングシステム
128:通信モジュール
130:接触/運動モジュール
132:グラフィックモジュール
134:テキスト入力モジュール
135:GPSモジュール
136:アプリケーション
137:連絡先モジュール
138:電話モジュール
139:ビデオ会議モジュール
140:e−メールクライアントモジュール
141:インスタントメッセージングモジュール
142:トレーニングサポートモジュール
143:カメラモジュール
144:映像マネージメントモジュール
145:ビデオプレーヤモジュール
146:音楽プレーヤモジュール
147:ブラウジングモジュール
148:カレンダーモジュール
149:ウィジットモジュール
149−1:天気ウィジット
149−2:株ウィジット
149−3:計算器ウィジット
149−4:アラームクロックウィジット
149−5:辞書ウィジット
149−6:ユーザ生成ウィジット
150:ウィジット生成モジュール
151:サーチモジュール
152:ビデオ及び音楽プレーヤモジュール
153:ノートモジュール
154:マップモジュール
155:オンラインビデオモジュール
156:ディスプレイコントローラ
158:光学センサコントローラ
160:他の入力コントローラ
162:電源システム
164:光学的センサ
166:接近センサ
168:加速度計
100: Portable multifunction device 102: Memory 103: Communication bus or signal line 106: I / O subsystem 108: RF circuit 110: Audio circuit 111: Speaker 112: Touch-sensitive display system 113: Microphone 116: Other input control device 118: Peripheral interface 120: Processor 122: Controller 124: External port 126: Operating system 128: Communication module 130: Contact / motion module 132: Graphic module 134: Text input module 135: GPS module 136: Application 137: Contact module 138 : Telephone module 139: Video conference module 140: E-mail client module 141: Instant Messaging module 142: Training support module 143: Camera module 144: Video management module 145: Video player module 146: Music player module 147: Browsing module 148: Calendar module 149: Widget module 149-1: Weather widget 149-2: Stock widget 149-3: Calculator widget 149-4: Alarm clock widget 149-5: Dictionary widget 149-6: User generated widget 150: Widget generation module 151: Search module 152: Video and music player module 153: Note module 154: Map Module 155: Online video module 156: Display controller 158: optical sensor controller 160: other input controller 162: power supply system 164: Optical sensor 166: proximity sensor 168: accelerometer

Claims (20)

タッチスクリーンディスプレイを伴うポータブル電子装置において前記ポータブル電子装置がユーザインターフェイスロックモードにある間に、
前記タッチスクリーンディスプレイが電力保存状態にある間に相手から前記ポータブル電子装置のユーザへ到来するメッセージを受け取るステップと、
前記到来するメッセージを受け取るのに応答して、
前記タッチスクリーンディスプレイを電源オンし、更に、
前記相手からユーザへ到来する前記メッセージの少なくとも一部分を前記タッチスクリーンディスプレイに表示する、
ことを行うステップと、
絵文字キーボードを使わずに、絵文字キャラクタに対応する前記タッチスクリーンディスプレイ上での1つ以上の既定の指ジェスチャーを検出するステップと、
前記到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出するステップと、
前記到来するメッセージに対する前記応答の送信を開始するための前記既定のユーザアクションの検出に応答して、前記到来するメッセージに対する応答を送信するステップであって、前記応答は、前記タッチスクリーンディスプレイ上で検出された1つ以上の既定の指ジェスチャーに対応する前記絵文字キャラクタを含むものであるステップと、
を備えたコンピュータ実施方法。
While in a portable electronic device with a touch screen display, the portable electronic device is in user interface lock mode,
Receiving an incoming message from a partner to a user of the portable electronic device while the touch screen display is in a power saving state;
In response to receiving the incoming message,
Power on the touch screen display;
Displaying at least a portion of the message arriving from the other party to the user on the touch screen display;
Steps to do that,
Detecting one or more predefined finger gestures on the touchscreen display corresponding to an emoji character without using an emoji keyboard;
Detecting a default user action to initiate transmission of a response to the incoming message;
Transmitting a response to the incoming message in response to detecting the default user action to initiate transmission of the response to the incoming message, the response being on the touch screen display Including the emoji character corresponding to the one or more predetermined finger gestures detected;
A computer-implemented method comprising:
前記到来するメッセージに対する応答の送信を開始するための既定のユーザアクションの検出に応答して、前記タッチスクリーンディスプレイを電力保存状態に戻すステップを更に備えた、請求項1に記載のコンピュータ実施方法。   The computer-implemented method of claim 1, further comprising returning the touch screen display to a power saving state in response to detecting a predetermined user action to initiate transmission of a response to the incoming message. 前記到来するメッセージに対する応答が送信された後に所定時間内に前記タッチスクリーンディスプレイを電力保存状態に戻すステップを更に備えた、請求項1に記載のコンピュータ実施方法。   The computer-implemented method of claim 1, further comprising returning the touch screen display to a power saving state within a predetermined time after a response to the incoming message is transmitted. タッチスクリーンディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、
を備え、前記1つ以上のプログラムは、前記メモリに記憶されて、前記1つ以上のプロセッサにより実行されるように構成され、更に、前記1つ以上のプログラムは、ポータブル電子装置がユーザインターフェイスロックモードにある間に、
前記タッチスクリーンディスプレイが電力保存状態にある間に相手から前記ポータブル電子装置のユーザへ到来するメッセージを受け取り、
前記到来するメッセージを受け取るのに応答して、
前記タッチスクリーンディスプレイを電源オンし、更に、
前記相手からユーザへ到来する前記メッセージの少なくとも一部分を前記タッチスクリーンディスプレイに表示する、
ことを行い、
絵文字キーボードを使わずに、絵文字キャラクタに対応する前記タッチスクリーンディスプレイ上での1つ以上の既定の指ジェスチャーを検出し、
前記到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出し、
前記到来するメッセージに対する前記応答の送信を開始するための前記既定のユーザアクションの検出に応答して、前記到来するメッセージに対する応答を送信する、
ためのインストラクションを含むものであり、前記応答は、前記タッチスクリーンディスプレイ上で検出された1つ以上の既定の指ジェスチャーに対応する絵文字キャラクタを含む、ポータブル電子装置。
Touch screen display,
One or more processors;
Memory,
One or more programs,
And wherein the one or more programs are stored in the memory and configured to be executed by the one or more processors, and the one or more programs are user interface locked by a portable electronic device. While in mode
Receiving a message arriving from the other party to the user of the portable electronic device while the touch screen display is in a power saving state;
In response to receiving the incoming message,
Power on the touch screen display;
Displaying at least a portion of the message arriving from the other party to the user on the touch screen display;
Doing
Detecting one or more default finger gestures on the touchscreen display corresponding to the emoji character without using the emoji keyboard;
Detecting a default user action to start sending a response to the incoming message;
Transmitting a response to the incoming message in response to detecting the default user action to initiate transmission of the response to the incoming message;
Portable electronic device, wherein the response includes an emoji character corresponding to one or more predetermined finger gestures detected on the touch screen display.
前記到来するメッセージに対する応答の送信を開始するための既定のユーザアクションの検出に応答して、前記タッチスクリーンディスプレイを電力保存状態に戻すためのインストラクションを更に含む、請求項4に記載のポータブル電子装置。   5. The portable electronic device of claim 4, further comprising instructions for returning the touch screen display to a power save state in response to detecting a predetermined user action to initiate transmission of a response to the incoming message. . タッチスクリーンディスプレイを伴うポータブル電子装置により実行されたときに、前記ポータブル電子装置がユーザインターフェイスロックモードにある間に、
前記タッチスクリーンディスプレイが電力保存状態にある間に相手から前記ポータブル電子装置のユーザへ到来するメッセージを受け取り、
前記到来するメッセージを受け取るのに応答して、
前記タッチスクリーンディスプレイを電源オンし、更に、
前記相手からユーザへ到来する前記メッセージの少なくとも一部分を前記タッチスクリーンディスプレイに表示する、
ことを行い、
絵文字キーボードを使わずに、絵文字キャラクタに対応する前記タッチスクリーンディスプレイ上での1つ以上の既定の指ジェスチャーを検出し、
前記到来するメッセージに対する応答の送信を開始するための既定のユーザアクションを検出し、
前記到来するメッセージに対する前記応答の送信を開始するための前記既定のユーザアクションの検出に応答して、前記到来するメッセージに対する前記応答を送信する
ようにさせるインストラクションを記憶しており、前記応答は前記タッチスクリーンディスプレイ上で検出された前記1つ以上の既定の指ジェスチャーに対応する絵文字キャラクタを含むものである、コンピュータ読み取り可能な記憶媒体。
While executed by a portable electronic device with a touch screen display, the portable electronic device is in user interface lock mode,
Receiving a message arriving from the other party to the user of the portable electronic device while the touch screen display is in a power saving state;
In response to receiving the incoming message,
Power on the touch screen display;
Displaying at least a portion of the message arriving from the other party to the user on the touch screen display;
Doing
Detecting one or more default finger gestures on the touchscreen display corresponding to the emoji character without using the emoji keyboard;
Detecting a default user action to start sending a response to the incoming message;
Storing instructions to cause the response to the incoming message to be transmitted in response to detecting the default user action to initiate transmission of the response to the incoming message, A computer readable storage medium comprising pictogram characters corresponding to the one or more predetermined finger gestures detected on a touch screen display.
前記到来するメッセージに対する応答が送信された後に所定時間以内に前記ポータブル電子装置が前記タッチスクリーンディスプレイを電力保存状態へ戻すようにさせるインストラクションを更に含む、請求項6に記載のコンピュータ読み取り可能な記憶媒体。   The computer-readable storage medium of claim 6, further comprising instructions that cause the portable electronic device to return the touch screen display to a power saving state within a predetermined time after a response to the incoming message is transmitted. . タッチスクリーンディスプレイを伴うポータブル電子装置において、前記ポータブル電子装置がユーザインターフェイスロックモードにある間に、
前記タッチスクリーンディスプレイが電力保存状態にある間に相手から前記ポータブル電子装置のユーザへ到来するメッセージを受け取るステップと、
前記到来するメッセージを受け取るのに応答して、
前記タッチスクリーンディスプレイを電源オンし、
前記相手からユーザへ到来する前記メッセージの少なくとも一部分を前記タッチスクリーンディスプレイに表示し、更に、
前記到来するメッセージに対する複数の既定の応答であって、複数の絵文字キャラクタを含む既定の応答を表示する、
ことを行うステップと、
前記複数の既定の応答の中のある既定の応答を選択するための既定のユーザアクションを検出するステップと、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための既定のユーザアクションであって、前記タッチスクリーンディスプレイ上での指ジェスチャーを含む、規定のユーザアクションを検出するステップと、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための前記既定のユーザアクションを検出するのに応答して、前記到来するメッセージに対する前記選択された既定の応答を送信するステップであって、前記選択された既定の応答は、複数の絵文字キャラクタの中のある絵文字キャラクタを含むものであるステップと、
を備えたコンピュータ実施方法。
In a portable electronic device with a touch screen display, while the portable electronic device is in a user interface lock mode,
Receiving an incoming message from a partner to a user of the portable electronic device while the touch screen display is in a power saving state;
In response to receiving the incoming message,
Power on the touch screen display;
Displaying at least a portion of the message arriving from the other party to the user on the touch screen display;
Displaying a plurality of default responses to the incoming message, the default responses including a plurality of emoji characters;
Steps to do that,
Detecting a default user action for selecting a default response among the plurality of default responses;
Detecting a default user action for initiating transmission of the selected default response to the incoming message , including a finger gesture on the touch screen display;
In transmitting in response to detecting the predetermined user action to start sending default response said selected relative to the incoming message, the default response said selected relative to the incoming message The selected default response includes a pictogram character among a plurality of pictogram characters;
A computer-implemented method comprising:
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための既定のユーザアクションの検出に応答して、前記タッチスクリーンディスプレイを電力保存状態に戻すステップを更に備えた、請求項8に記載のコンピュータ実施方法。   9. The method of claim 8, further comprising returning the touch screen display to a power saving state in response to detecting a default user action to initiate transmission of the selected default response to the incoming message. A computer-implemented method as described. 前記到来するメッセージに対する前記選択された既定の応答が送信された後に所定時間以内に前記タッチスクリーンディスプレイを電力保存状態に戻すステップを更に備えた、請求項8に記載のコンピュータ実施方法。   9. The computer-implemented method of claim 8, further comprising returning the touch screen display to a power saving state within a predetermined time after the selected default response to the incoming message is transmitted. タッチスクリーンディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、
を備え、前記1つ以上のプログラムは、前記メモリに記憶されて、前記1つ以上のプロセッサにより実行されるように構成され、更に、前記1つ以上のプログラムは、ポータブル電子装置がユーザインターフェイスロックモードにある間に、
前記タッチスクリーンディスプレイが電力保存状態にある間に相手から前記ポータブル電子装置のユーザへ到来するメッセージを受け取り、
前記到来するメッセージを受け取るのに応答して、
前記タッチスクリーンディスプレイを電源オンし、
前記相手からユーザへ到来する前記メッセージの少なくとも一部分を前記タッチスクリーンディスプレイに表示し、更に、
前記到来するメッセージに対する複数の既定の応答であって、複数の絵文字キャラクタを含むような既定の応答を表示する、
ことを行い、
前記複数の既定の応答の中のある既定の応答を選択するための既定のユーザアクションを検出し、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための既定のユーザアクションであって、前記タッチスクリーンディスプレイ上での指ジェスチャーを含む、規定のユーザアクションを検出し、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための前記既定のユーザアクションを検出するのに応答して、前記到来するメッセージに対する前記選択された既定の応答を送信する、
ためのインストラクションを含み、前記選択された既定の応答は、複数の絵文字キャラクタの中のある絵文字キャラクタを含む、ポータブル電子装置。
Touch screen display,
One or more processors;
Memory,
One or more programs,
And wherein the one or more programs are stored in the memory and configured to be executed by the one or more processors, and the one or more programs are user interface locked by a portable electronic device. While in mode
Receiving a message arriving from the other party to the user of the portable electronic device while the touch screen display is in a power saving state;
In response to receiving the incoming message,
Power on the touch screen display;
Displaying at least a portion of the message arriving from the other party to the user on the touch screen display;
Displaying a plurality of default responses to the incoming message, including a plurality of pictogram characters;
Doing
Detecting a default user action for selecting a default response among the plurality of default responses;
Detecting a default user action for initiating transmission of the selected default response to the incoming message , including a finger gesture on the touch screen display;
Transmitting the selected default response to the incoming message in response to detecting the default user action to initiate transmission of the selected default response to the incoming message;
A portable electronic device, wherein the selected default response includes an emoji character among a plurality of emoji characters.
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための前記既定のユーザアクションを検出するのに応答して、前記タッチスクリーンディスプレイを電力保存状態に戻すためのインストラクションを更に含む、請求項11に記載のポータブル電子装置。   Further comprising instructions for returning the touch screen display to a power save state in response to detecting the default user action to initiate transmission of the selected default response to the incoming message. The portable electronic device according to claim 11. タッチスクリーンディスプレイを伴うポータブル電子装置により実行されたときに、前記ポータブル電子装置がユーザインターフェイスロックモードにある間に、
前記タッチスクリーンディスプレイが電力保存状態にある間に相手から前記ポータブル電子装置のユーザへ到来するメッセージを受け取り、
前記到来するメッセージを受け取るのに応答して、
前記タッチスクリーンディスプレイを電源オンし、
前記相手からユーザへ到来する前記メッセージの少なくとも一部分を前記タッチスクリーンディスプレイに表示し、更に、
前記到来するメッセージに対する複数の既定の応答であって、複数の絵文字キャラクタを含む既定の応答を表示する、
ことを行い、
前記複数の既定の応答の中のある既定の応答を選択するための既定のユーザアクションを検出し、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための既定のユーザアクションであって、前記タッチスクリーンディスプレイ上での指ジェスチャーを含む、規定のユーザアクションを検出し、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための前記既定のユーザアクションを検出するのに応答して、前記到来するメッセージに対する前記選択された既定の応答を送信する、
ようにさせるインストラクションを記憶しており、前記選択された既定の応答は、複数の絵文字キャラクタの中のある絵文字キャラクタを含む、コンピュータ読み取り可能な記憶媒体。
While executed by a portable electronic device with a touch screen display, the portable electronic device is in user interface lock mode,
Receiving a message arriving from the other party to the user of the portable electronic device while the touch screen display is in a power saving state;
In response to receiving the incoming message,
Power on the touch screen display;
Displaying at least a portion of the message arriving from the other party to the user on the touch screen display;
Displaying a plurality of default responses to the incoming message, the default responses including a plurality of emoji characters;
Doing
Detecting a default user action for selecting a default response among the plurality of default responses;
Detecting a default user action for initiating transmission of the selected default response to the incoming message , including a finger gesture on the touch screen display;
Transmitting the selected default response to the incoming message in response to detecting the default user action to initiate transmission of the selected default response to the incoming message;
A computer-readable storage medium storing instructions to cause the selected default response to include a pictographic character among a plurality of pictographic characters.
前記到来するメッセージに対する前記選択された既定の応答が送信された後に所定時間以内に前記ポータブル電子装置が前記タッチスクリーンディスプレイを電力保存状態へ戻すようにさせるインストラクションを更に含む、請求項13に記載のコンピュータ読み取り可能な記憶媒体。   14. The instruction of claim 13, further comprising causing the portable electronic device to return the touch screen display to a power save state within a predetermined time after the selected default response to the incoming message is transmitted. A computer-readable storage medium. タッチスクリーンディスプレイを伴うポータブル電子装置において、前記ポータブル電子装置がユーザインターフェイスロックモードにある間に、
前記タッチスクリーンディスプレイが電力保存状態にある間に相手から前記ポータブル電子装置のユーザへ到来するメッセージを受け取るステップと、
前記到来するメッセージを受け取るのに応答して、
前記タッチスクリーンディスプレイを電源オンし、
前記相手からユーザへ到来する前記メッセージの少なくとも一部分を前記タッチスクリーンディスプレイに表示する、
ことを行うステップと、
前記到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出するステップであって、前記既定の応答は、複数の絵文字キャラクタを含み、少なくとも一つの既定の応答はテキストと絵文字キャラクタを同時に含むものであるステップと、
前記到来するメッセージに対する複数の既定の応答の表示を開始するための前記既定のユーザアクションを検出するのに応答して、前記複数の既定の応答を表示するステップと、
前記複数の既定の応答の中のある既定の応答を選択するための既定のユーザアクションを検出するステップと、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための既定のユーザアクションであって、前記タッチスクリーンディスプレイ上での指ジェスチャーを含む、規定のユーザアクションを検出するステップと、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための前記既定のユーザアクションを検出するのに応答して、前記到来するメッセージに対する前記選択された既定の応答を送信するステップであって、前記選択された既定の応答は、前記複数の絵文字キャラクタの中のある絵文字キャラクタを含むものであるステップと、
を備えたコンピュータ実施方法。
In a portable electronic device with a touch screen display, while the portable electronic device is in a user interface lock mode,
Receiving an incoming message from a partner to a user of the portable electronic device while the touch screen display is in a power saving state;
In response to receiving the incoming message,
Power on the touch screen display;
Displaying at least a portion of the message arriving from the other party to the user on the touch screen display;
Steps to do that,
Detecting a default user action for initiating display of a plurality of default responses to the incoming message, wherein the default response includes a plurality of pictogram characters, wherein the at least one default response is text And a step including the emoji character at the same time;
Displaying the plurality of default responses in response to detecting the default user action to initiate display of a plurality of default responses to the incoming message;
Detecting a default user action for selecting a default response among the plurality of default responses;
Detecting a default user action for initiating transmission of the selected default response to the incoming message , including a finger gesture on the touch screen display;
In response to detecting the default user action to initiate transmission of the selected default response to the incoming message, transmitting the selected default response to the incoming message. The selected default response includes a pictogram character among the plurality of pictogram characters;
A computer-implemented method comprising:
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための既定のユーザアクションの検出に応答して、前記タッチスクリーンディスプレイを電力保存状態に戻すステップを更に備えた、請求項15に記載のコンピュータ実施方法。   16. The method of claim 15, further comprising returning the touch screen display to a power save state in response to detecting a default user action to initiate transmission of the selected default response to the incoming message. A computer-implemented method as described. 前記到来するメッセージに対する前記選択された既定の応答が送信された後に所定時間以内に前記タッチスクリーンディスプレイを電力保存状態に戻すステップを更に備えた、請求項15に記載のコンピュータ実施方法。   The computer-implemented method of claim 15, further comprising returning the touch screen display to a power saving state within a predetermined time after the selected default response to the incoming message is transmitted. タッチスクリーンディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、
を備え、前記1つ以上のプログラムは、前記メモリに記憶されて、前記1つ以上のプロセッサにより実行されるように構成され、更に、前記1つ以上のプログラムは、ポータブル電子装置がユーザインターフェイスロックモードにある間に、
前記タッチスクリーンディスプレイが電力保存状態にある間に相手から前記ポータブル電子装置のユーザへ到来するメッセージを受け取り、
前記到来するメッセージを受け取るのに応答して、
前記タッチスクリーンディスプレイを電源オンし、
前記相手からユーザへ到来する前記メッセージの少なくとも一部分を前記タッチスクリーンディスプレイに表示する、
ことを行い、
前記到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出し、前記既定の応答は、複数の絵文字キャラクタを含み、少なくとも一つの既定の応答はテキストと絵文字キャラクタを同時に含むものであり、
前記到来するメッセージに対する前記複数の既定の応答の表示を開始するための前記既定のユーザアクションを検出するのに応答して、前記複数の既定の応答を表示し、
前記複数の既定の応答の中のある既定の応答を選択するための既定のユーザアクションを検出し、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための既定のユーザアクションであって、前記タッチスクリーンディスプレイ上での指ジェスチャーを含む、規定のユーザアクションを検出し、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための前記既定のユーザアクションを検出するのに応答して、前記到来するメッセージに対する前記選択された既定の応答を送信する、
ためのインストラクションを含むものであり、前記選択された既定の応答は、前記複数の絵文字キャラクタの中のある絵文字キャラクタを含む、ポータブル電子装置。
Touch screen display,
One or more processors;
Memory,
One or more programs,
And wherein the one or more programs are stored in the memory and configured to be executed by the one or more processors, and the one or more programs are user interface locked by a portable electronic device. While in mode
Receiving a message arriving from the other party to the user of the portable electronic device while the touch screen display is in a power saving state;
In response to receiving the incoming message,
Power on the touch screen display;
Displaying at least a portion of the message arriving from the other party to the user on the touch screen display;
Doing
Detecting a default user action for initiating display of a plurality of default responses to the incoming message, wherein the default response includes a plurality of emoji characters, and at least one default response includes text and emoji characters; Including at the same time,
In response to detecting the default user action to initiate display of the plurality of default responses to the incoming message, displaying the plurality of default responses;
Detecting a default user action for selecting a default response among the plurality of default responses;
Detecting a default user action for initiating transmission of the selected default response to the incoming message , including a finger gesture on the touch screen display;
Transmitting the selected default response to the incoming message in response to detecting the default user action to initiate transmission of the selected default response to the incoming message;
A portable electronic device, wherein the selected default response includes a pictographic character of the plurality of pictographic characters.
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための前記既定のユーザアクションを検出するのに応答して、前記タッチスクリーンディスプレイを電力保存状態に戻すためのインストラクションを更に含む、請求項18に記載のポータブル電子装置。 In response to detecting the predetermined user action to start sending default response said selected relative to the incoming message, further comprising instructions for returning the touch screen display to the power saving state, The portable electronic device according to claim 18. タッチスクリーンディスプレイを伴うポータブル電子装置により実行されたときに、そのポータブル電子装置がユーザインターフェイスロックモードにある間に、
前記タッチスクリーンディスプレイが電力保存状態にある間に相手から前記ポータブル電子装置のユーザへ到来するメッセージを受け取り、
前記到来するメッセージを受け取るのに応答して、
前記タッチスクリーンディスプレイを電源オンし、
前記相手からユーザへ到来する前記メッセージの少なくとも一部分を前記タッチスクリーンディスプレイに表示する、
ことを行い、
前記到来するメッセージに対する複数の既定の応答の表示を開始するための既定のユーザアクションを検出し、前記既定の応答は、複数の絵文字キャラクタを含み、少なくとも一つの既定の応答はテキストと絵文字キャラクタを同時に含むものであり、
前記到来するメッセージに対する前記複数の既定の応答の表示を開始するための前記既定のユーザアクションを検出するのに応答して、前記複数の既定の応答を表示し、
前記複数の既定の応答の中のある既定の応答を選択するための既定のユーザアクションを検出し、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための既定のユーザアクションであって、前記タッチスクリーンディスプレイ上での指ジェスチャーを含む、規定のユーザアクションを検出し、
前記到来するメッセージに対する前記選択された既定の応答の送信を開始するための前記既定のユーザアクションを検出するのに応答して、前記到来するメッセージに対する前記選択された既定の応答を送信する、
ようにさせるインストラクションを記憶しており、前記選択された既定の応答は、前記複数の絵文字キャラクタの中のある絵文字キャラクタを含む、コンピュータ読み取り可能な記憶媒体。
While executed by a portable electronic device with a touch screen display, while the portable electronic device is in user interface lock mode,
Receiving a message arriving from the other party to the user of the portable electronic device while the touch screen display is in a power saving state;
In response to receiving the incoming message,
Power on the touch screen display;
Displaying at least a portion of the message arriving from the other party to the user on the touch screen display;
Doing
Detecting a default user action for initiating display of a plurality of default responses to the incoming message, wherein the default response includes a plurality of emoji characters, and at least one default response includes text and emoji characters; Including at the same time,
In response to detecting the default user action to initiate display of the plurality of default responses to the incoming message, displaying the plurality of default responses;
Detecting a default user action for selecting a default response among the plurality of default responses;
Detecting a default user action for initiating transmission of the selected default response to the incoming message , including a finger gesture on the touch screen display;
Transmitting the selected default response to the incoming message in response to detecting the default user action to initiate transmission of the selected default response to the incoming message;
A computer-readable storage medium storing instructions to cause the selected default response to include a pictographic character in the plurality of pictographic characters.
JP2013144822A 2008-11-19 2013-07-10 Portable touch screen device, method and graphic user interface for using emoji characters Active JP5771243B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/274,346 2008-11-19
US12/274,346 US8584031B2 (en) 2008-11-19 2008-11-19 Portable touch screen device, method, and graphical user interface for using emoji characters

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011537452A Division JP5319781B2 (en) 2008-11-19 2009-10-12 Portable touch screen device, method and graphic user interface for using emoji characters

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015129155A Division JP6085006B2 (en) 2008-11-19 2015-06-26 Portable touch screen device, method and graphic user interface for using emoji characters

Publications (2)

Publication Number Publication Date
JP2014002755A JP2014002755A (en) 2014-01-09
JP5771243B2 true JP5771243B2 (en) 2015-08-26

Family

ID=41572519

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2011537452A Active JP5319781B2 (en) 2008-11-19 2009-10-12 Portable touch screen device, method and graphic user interface for using emoji characters
JP2013144822A Active JP5771243B2 (en) 2008-11-19 2013-07-10 Portable touch screen device, method and graphic user interface for using emoji characters
JP2015129155A Active JP6085006B2 (en) 2008-11-19 2015-06-26 Portable touch screen device, method and graphic user interface for using emoji characters
JP2017012499A Active JP6518705B2 (en) 2008-11-19 2017-01-26 Portable touch screen device for using pictographic characters, method and graphic user interface
JP2019081308A Active JP6584710B2 (en) 2008-11-19 2019-04-22 Portable touch screen device, method and graphic user interface for using emoji characters

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011537452A Active JP5319781B2 (en) 2008-11-19 2009-10-12 Portable touch screen device, method and graphic user interface for using emoji characters

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2015129155A Active JP6085006B2 (en) 2008-11-19 2015-06-26 Portable touch screen device, method and graphic user interface for using emoji characters
JP2017012499A Active JP6518705B2 (en) 2008-11-19 2017-01-26 Portable touch screen device for using pictographic characters, method and graphic user interface
JP2019081308A Active JP6584710B2 (en) 2008-11-19 2019-04-22 Portable touch screen device, method and graphic user interface for using emoji characters

Country Status (6)

Country Link
US (8) US8584031B2 (en)
JP (5) JP5319781B2 (en)
KR (5) KR101787035B1 (en)
CN (3) CN104133589B (en)
HK (2) HK1203671A1 (en)
WO (1) WO2010059306A2 (en)

Families Citing this family (602)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8531431B2 (en) * 2003-10-13 2013-09-10 Integritouch Development Ab High speed 3D multi touch sensitive device
BRPI0419168B1 (en) 2004-09-24 2017-05-16 Nokia Corp electronic device comprising detecting a user's input during an idle operating mode
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7958456B2 (en) 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8689132B2 (en) 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
EP2947592B1 (en) 2007-09-24 2021-10-27 Apple Inc. Embedded authentication systems in an electronic device
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20090323260A1 (en) * 2008-06-25 2009-12-31 Microsoft Corporation Slide and click combination switch for a personal media player
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US20100070931A1 (en) * 2008-09-15 2010-03-18 Sony Ericsson Mobile Communications Ab Method and apparatus for selecting an object
USD618248S1 (en) 2008-09-23 2010-06-22 Apple Inc. Graphical user interface for a display screen or portion thereof
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9002120B2 (en) * 2008-10-03 2015-04-07 Intellectual Ventures Fund 83 Llc Interactive image selection method
US8584031B2 (en) * 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US20100146437A1 (en) * 2008-12-04 2010-06-10 Microsoft Corporation Glanceable animated notifications on a locked device
US9197738B2 (en) * 2008-12-04 2015-11-24 Microsoft Technology Licensing, Llc Providing selected data through a locked display
US20100171888A1 (en) * 2009-01-05 2010-07-08 Hipolito Saenz Video frame recorder
US8572513B2 (en) 2009-03-16 2013-10-29 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
WO2010105440A1 (en) * 2009-03-20 2010-09-23 Google Inc. Interaction with ime computing device
KR20100116274A (en) * 2009-04-22 2010-11-01 삼성전자주식회사 Method and apparatus for touch input in portable communication system
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US8745518B2 (en) * 2009-06-30 2014-06-03 Oracle America, Inc. Touch screen input recognition and character selection
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US9563350B2 (en) * 2009-08-11 2017-02-07 Lg Electronics Inc. Mobile terminal and method for controlling the same
US8434153B2 (en) 2009-08-24 2013-04-30 Microsoft Corporation Application display on a locked device
US8624933B2 (en) * 2009-09-25 2014-01-07 Apple Inc. Device, method, and graphical user interface for scrolling a multi-section document
KR101633332B1 (en) * 2009-09-30 2016-06-24 엘지전자 주식회사 Mobile terminal and Method of controlling the same
US8924893B2 (en) 2009-10-14 2014-12-30 At&T Mobility Ii Llc Locking and unlocking of an electronic device using a sloped lock track
US9424444B2 (en) 2009-10-14 2016-08-23 At&T Mobility Ii Llc Systems, apparatus, methods and computer-readable storage media for facilitating integrated messaging, contacts and social media for a selected entity
US20110163967A1 (en) * 2010-01-06 2011-07-07 Imran Chaudhri Device, Method, and Graphical User Interface for Changing Pages in an Electronic Document
US20110167350A1 (en) * 2010-01-06 2011-07-07 Apple Inc. Assist Features For Content Display Device
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
KR101650339B1 (en) * 2010-03-12 2016-09-05 삼성전자 주식회사 Text Input Method And Portable Device supporting the same
US8756522B2 (en) * 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
KR20110113844A (en) * 2010-04-12 2011-10-19 엘지전자 주식회사 Mobile terminal and method for controlling thereof
US20110283241A1 (en) * 2010-05-14 2011-11-17 Google Inc. Touch Gesture Actions From A Device's Lock Screen
US20110279459A1 (en) * 2010-05-17 2011-11-17 Google, Inc. System and Method for Graphically Enriching Promotional Messages Delivered to Handheld Communication Devices
CN103069376B (en) * 2010-05-25 2016-11-09 索尼移动通信株式会社 The user interface of the touch-sensitive display on electronic equipment
US8811948B2 (en) 2010-07-09 2014-08-19 Microsoft Corporation Above-lock camera access
US8229511B2 (en) * 2010-08-11 2012-07-24 Research In Motion Limited Electronic device including touch-sensitive display
KR20120019531A (en) * 2010-08-26 2012-03-07 삼성전자주식회사 Method and apparatus for providing graphic user interface in mobile terminal
KR101701151B1 (en) * 2010-09-20 2017-02-02 삼성전자주식회사 Integrated Message Transmitting and Receiving Method and Apparatus Using Portable Device
US9449308B2 (en) * 2010-12-14 2016-09-20 Microsoft Technology Licensing, Llc Defining actions for data streams via icons
KR20120067078A (en) * 2010-12-15 2012-06-25 삼성전자주식회사 Apparatus and method for providing application information and executing application in portable terminal with touch screen
JP5692792B2 (en) * 2011-02-09 2015-04-01 Necカシオモバイルコミュニケーションズ株式会社 Data input device, data input method, program
JP2012169777A (en) * 2011-02-10 2012-09-06 Sony Corp Information processor, information processing method, and program
US20130033436A1 (en) * 2011-02-17 2013-02-07 Htc Corporation Electronic device, controlling method thereof and computer program product
US9407984B2 (en) * 2011-02-24 2016-08-02 Htc Corporation Method and apparatus for adjusting sound quality
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10241670B2 (en) * 2011-03-31 2019-03-26 Nokia Technologies Oy Character entry apparatus and associated methods
US9606643B2 (en) * 2011-05-02 2017-03-28 Microsoft Technology Licensing, Llc Extended above the lock-screen experience
US20120284631A1 (en) * 2011-05-02 2012-11-08 German Lancioni Methods to adapt user interfaces and input controls
KR101677639B1 (en) 2011-05-06 2016-11-18 엘지전자 주식회사 Mobile device and control method for the same
US8666406B2 (en) * 2011-05-12 2014-03-04 Qualcomm Incorporated Gesture-based commands for a group communication session on a wireless communications device
TWI490769B (en) * 2011-05-12 2015-07-01 群邁通訊股份有限公司 System and method for focusing shortcut icons
US8971924B2 (en) 2011-05-23 2015-03-03 Apple Inc. Identifying and locating users on a mobile network
US10715380B2 (en) 2011-05-23 2020-07-14 Apple Inc. Setting a reminder that is triggered by a target user device
US20120304074A1 (en) * 2011-05-23 2012-11-29 Microsoft Corporation Device user interface to input emoji and other symbols
US8826190B2 (en) 2011-05-27 2014-09-02 Google Inc. Moving a graphical selector
US8656315B2 (en) 2011-05-27 2014-02-18 Google Inc. Moving a graphical selector
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US9513799B2 (en) 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
JP5802830B2 (en) 2011-06-05 2015-11-04 アップル インコーポレイテッド System and method for displaying notifications received from multiple applications
US20130231091A1 (en) * 2011-06-23 2013-09-05 Isaac S. Daniel Apparatus system and method for transmitting coded messages electronically
US9411506B1 (en) * 2011-06-28 2016-08-09 Google Inc. Providing additional functionality for a group messaging application
JP5779422B2 (en) * 2011-06-28 2015-09-16 シャープ株式会社 Display system and display program
USD693835S1 (en) * 2011-09-23 2013-11-19 Isaac S. Daniel Display screen with graphical user interface
US20130024781A1 (en) * 2011-07-22 2013-01-24 Sony Corporation Multi-Modal and Updating Interface for Messaging
JP5757815B2 (en) * 2011-07-27 2015-08-05 京セラ株式会社 Electronic device, text editing method and control program
KR101830965B1 (en) * 2011-08-03 2018-02-22 엘지전자 주식회사 Mobile Terminal And Method Of Controlling The Same
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
GB2493709A (en) * 2011-08-12 2013-02-20 Siine Ltd Faster input of text in graphical user interfaces
JP6045847B2 (en) * 2011-08-18 2016-12-14 京セラ株式会社 Portable electronic device, control method, and control program
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
KR101951257B1 (en) * 2011-09-09 2019-02-26 삼성전자주식회사 Data input method and portable device thereof
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
EP3392876A1 (en) * 2011-09-30 2018-10-24 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9063629B2 (en) * 2011-10-31 2015-06-23 Nokia Technologies Oy Responding to a received message in a locked user interaction mode
US20130111579A1 (en) * 2011-10-31 2013-05-02 Nokia Corporation Electronic device mode, associated apparatus and methods
US20130111378A1 (en) * 2011-10-31 2013-05-02 Nokia Corporation Portable electronic device, associated apparatus and methods
KR101301794B1 (en) * 2011-11-04 2013-08-29 (주)카카오 Method for providing instant messaging service using dynamic emoticon and mobile phone therefor
US20130113606A1 (en) * 2011-11-08 2013-05-09 International Business Machines Corporation Passive Wireless Article with Passcode Touch Sensor Array
WO2013068791A1 (en) * 2011-11-11 2013-05-16 Nokia Corporation User interface method and apparatus for providing deformation-sensitive input
KR20130055404A (en) * 2011-11-18 2013-05-28 삼성전자주식회사 Method and apparatus for inputting character in a touch device
US9204265B2 (en) * 2011-11-22 2015-12-01 Weusi Erskine Method of transmitting coded messages and providing for calendaring responses
JP5827109B2 (en) * 2011-11-28 2015-12-02 京セラ株式会社 Apparatus, method, and program
US10423515B2 (en) 2011-11-29 2019-09-24 Microsoft Technology Licensing, Llc Recording touch information
US9858173B2 (en) 2011-12-01 2018-01-02 Microsoft Technology Licensing, Llc Recording user-driven events within a computing system including vicinity searching
US9173092B1 (en) * 2011-12-02 2015-10-27 Google Inc. Base station data embedded for transmission within information provided to a user device
JP5720549B2 (en) * 2011-12-02 2015-05-20 株式会社デンソー Display device
US9378290B2 (en) 2011-12-20 2016-06-28 Microsoft Technology Licensing, Llc Scenario-adaptive input method editor
US8965425B2 (en) * 2011-12-23 2015-02-24 Isaac S. Daniel System and method of transmitting coded messages using programmable icons
US9134900B2 (en) * 2012-01-18 2015-09-15 Qualcomm Incorporated Traversal of a soft bar to unlock an application
KR101863197B1 (en) * 2012-01-31 2018-05-31 삼성전자주식회사 Apparatus and method for informing of available devices in contents sharing network
KR20130096107A (en) * 2012-02-21 2013-08-29 삼성전자주식회사 Method and system for performing task, and computer readable recording medium thereof
US20150160788A1 (en) * 2012-02-27 2015-06-11 Nokia Corporaiton Apparatus and associated methods
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
USD704212S1 (en) * 2012-03-06 2014-05-06 Apple Inc. Display screen or portion thereof with graphical user interface
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9378601B2 (en) 2012-03-14 2016-06-28 Autoconnect Holdings Llc Providing home automation information via communication with a vehicle
US9082238B2 (en) 2012-03-14 2015-07-14 Flextronics Ap, Llc Synchronization between vehicle and user device calendar
US9384609B2 (en) 2012-03-14 2016-07-05 Autoconnect Holdings Llc Vehicle to vehicle safety and traffic communications
WO2014172369A2 (en) 2013-04-15 2014-10-23 Flextronics Ap, Llc Intelligent vehicle for assisting vehicle occupants and incorporating vehicle crate for blade processors
US9412273B2 (en) 2012-03-14 2016-08-09 Autoconnect Holdings Llc Radar sensing and emergency response vehicle detection
US20140309876A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc Universal vehicle voice command system
USD705263S1 (en) 2012-03-27 2014-05-20 Microsoft Corporation Display screen with icon
KR20130123705A (en) * 2012-05-03 2013-11-13 삼성전자주식회사 Virtual keyboard for inputting alternative character and method and apparatus for inputting alternative character using the virtual keyboard
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US20130326361A1 (en) * 2012-06-04 2013-12-05 EyeSay, LLC System and method for managing mobile multimedia messages
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
EP2864856A4 (en) 2012-06-25 2015-10-14 Microsoft Technology Licensing Llc Input method editor application platform
US9391945B1 (en) 2012-06-25 2016-07-12 Daniel Isaac S System and method of posting coded messages on social networks
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
EP2867756A4 (en) * 2012-06-29 2015-06-17 Microsoft Technology Licensing Llc Input method editor
US9911222B2 (en) * 2012-07-06 2018-03-06 Tangome, Inc. Animation in threaded conversations
CN103543903B (en) * 2012-07-11 2018-07-17 腾讯科技(深圳)有限公司 shortcut operation method, device and mobile terminal
US9058103B2 (en) * 2012-07-25 2015-06-16 Facebook, Inc. Gestures for keyboard switch
KR102101818B1 (en) * 2012-07-30 2020-04-17 삼성전자주식회사 Device and method for controlling data transfer in terminal
USD755210S1 (en) * 2012-08-17 2016-05-03 P&W Solutions Co., Ltd. Display screen with graphical user interface
IN2015DN01542A (en) * 2012-08-24 2015-07-03 Toyota Motor Co Ltd
WO2014032244A1 (en) 2012-08-30 2014-03-06 Microsoft Corporation Feature-based candidate selection
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8732624B2 (en) * 2012-09-20 2014-05-20 Google Inc. Protection for unintentional inputs
US8601561B1 (en) 2012-09-20 2013-12-03 Google Inc. Interactive overlay to prevent unintentional inputs
US8656296B1 (en) 2012-09-27 2014-02-18 Google Inc. Selection of characters in a string of characters
US9746990B2 (en) * 2012-09-28 2017-08-29 Intel Corporation Selectively augmenting communications transmitted by a communication device
KR20140051487A (en) * 2012-10-08 2014-05-02 삼성전자주식회사 Device and method for protecting data in terminal
US9372970B2 (en) 2012-10-12 2016-06-21 Apple Inc. Gesture entry techniques
US9147058B2 (en) 2012-10-12 2015-09-29 Apple Inc. Gesture entry techniques
KR101390228B1 (en) * 2012-10-22 2014-05-07 (주)카카오 Device and method of displaying image on chat area, and server for managing chat data
US9804777B1 (en) * 2012-10-23 2017-10-31 Google Inc. Gesture-based text selection
US8806384B2 (en) * 2012-11-02 2014-08-12 Google Inc. Keyboard gestures for character string replacement
WO2014078598A1 (en) 2012-11-14 2014-05-22 invi Labs, Inc. System for and method of embedding rich media into text messages
CN103019587B (en) * 2012-11-19 2016-08-24 广东欧珀移动通信有限公司 The method and device that a kind of mobile terminal picture browses
US10824297B2 (en) 2012-11-26 2020-11-03 Google Llc System for and method of accessing and selecting emoticons, content, and mood messages during chat sessions
WO2014084761A1 (en) * 2012-11-27 2014-06-05 Telefonaktiebolaget L M Ericsson (Publ) Sub-keyboards with keys dependent on the frequency of use
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
CN103927190A (en) * 2013-01-11 2014-07-16 腾讯科技(深圳)有限公司 Network expression downloading method and device
US8989773B2 (en) 2013-01-29 2015-03-24 Apple Inc. Sharing location information among devices
DE112014000709B4 (en) 2013-02-07 2021-12-30 Apple Inc. METHOD AND DEVICE FOR OPERATING A VOICE TRIGGER FOR A DIGITAL ASSISTANT
US10976922B2 (en) * 2013-02-17 2021-04-13 Benjamin Firooz Ghassabian Data entry systems
KR102146244B1 (en) * 2013-02-22 2020-08-21 삼성전자주식회사 Methdo for controlling display of a plurality of objects according to input related to operation for mobile terminal and the mobile terminal therefor
JP6255646B2 (en) * 2013-03-04 2018-01-10 株式会社L is B Message system
CN103218159A (en) * 2013-03-14 2013-07-24 鸿富锦精密工业(深圳)有限公司 Retrieval system and method for application program
US20140280603A1 (en) * 2013-03-14 2014-09-18 Endemic Mobile Inc. User attention and activity in chat systems
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US8918339B2 (en) 2013-03-15 2014-12-23 Facebook, Inc. Associating an indication of user emotional reaction with content items presented by a social networking system
WO2014143776A2 (en) * 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9027153B2 (en) 2013-03-15 2015-05-05 Google Technology Holdings LLC Operating a computer with a touchscreen
WO2014155429A1 (en) * 2013-03-29 2014-10-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Mobile information terminal control method and program
CN104428826B (en) 2013-04-15 2017-05-17 自动连接控股有限责任公司 Central network for automated control of vehicular traffic
CN104321620A (en) 2013-04-15 2015-01-28 弗莱克斯电子有限责任公司 Altered map routes based on user profile information
WO2014172334A1 (en) * 2013-04-15 2014-10-23 Flextronics Ap, Llc User gesture control of vehicle features
US20160062646A1 (en) * 2013-04-29 2016-03-03 Hewlett-Packard Development Company, L.P. Device for Displaying a Received User Interface
JP5449630B1 (en) * 2013-05-27 2014-03-19 三菱電機株式会社 Programmable display and its screen operation processing program
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3937002A1 (en) 2013-06-09 2022-01-12 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US9465985B2 (en) 2013-06-09 2016-10-11 Apple Inc. Managing real-time handwriting recognition
KR20220003662A (en) * 2013-06-09 2022-01-10 애플 인크. Managing real-time handwriting recognition
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN104252811B (en) * 2013-06-28 2017-11-24 联想(北京)有限公司 A kind of information processing method and electronic equipment
USD745895S1 (en) * 2013-06-28 2015-12-22 Microsoft Corporation Display screen with graphical user interface
TW201501013A (en) * 2013-06-28 2015-01-01 Zeroplus Technology Co Ltd Facial expression producing and application method and system therefor
USD731553S1 (en) * 2013-07-31 2015-06-09 Sears Brands, L.L.C. Display screen or portion thereof with an icon
DE112014003653B4 (en) 2013-08-06 2024-04-18 Apple Inc. Automatically activate intelligent responses based on activities from remote devices
CN105580004A (en) 2013-08-09 2016-05-11 微软技术许可有限责任公司 Input method editor providing language assistance
CN108762480A (en) * 2013-08-28 2018-11-06 联想(北京)有限公司 A kind of input method and electronic equipment
JP6018996B2 (en) * 2013-09-04 2016-11-02 シャープ株式会社 Information processing device
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
USD754736S1 (en) * 2013-09-10 2016-04-26 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
KR102057944B1 (en) * 2013-09-17 2019-12-23 삼성전자주식회사 Terminal device and sharing method thereof
JP6223118B2 (en) * 2013-10-23 2017-11-01 東芝テック株式会社 Shopping support system
WO2015061700A1 (en) * 2013-10-24 2015-04-30 Tapz Communications, LLC System for effectively communicating concepts
CN103645825B (en) * 2013-11-22 2017-03-29 华为终端有限公司 The processing method and processing device of message
IN2013CH05449A (en) * 2013-11-27 2015-08-07 Shyam Pathy V
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
USD762680S1 (en) 2013-12-18 2016-08-02 Apple Inc. Display screen or portion thereof with graphical user interface
JP6471695B2 (en) 2014-01-09 2019-02-20 日本電気株式会社 Service device and PCRF device
US10013601B2 (en) * 2014-02-05 2018-07-03 Facebook, Inc. Ideograms for captured expressions
CN104866219A (en) * 2014-02-26 2015-08-26 腾讯科技(深圳)有限公司 Fast sign-in method and device
CN103777891A (en) * 2014-02-26 2014-05-07 全蕊 Method for sending message by inserting an emoticon in message ending
USD780776S1 (en) * 2014-03-11 2017-03-07 King.Com Ltd. Display screen or portion thereof with game graphical user interface
CN104935491B (en) * 2014-03-17 2018-08-07 腾讯科技(深圳)有限公司 A kind of method and device sending facial expression image
USD738910S1 (en) * 2014-03-19 2015-09-15 Wargaming.Net Llp Display screen with animated graphical user interface
USD757800S1 (en) * 2014-04-15 2016-05-31 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US10482163B2 (en) * 2014-04-23 2019-11-19 Klickafy, Llc Clickable emoji
US10845982B2 (en) * 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
TWI506569B (en) * 2014-05-15 2015-11-01 Nat Univ Tsing Hua A method for image tagging that identifies regions and behavior relationship between different objects
US20150332534A1 (en) * 2014-05-15 2015-11-19 Narvii Inc. Systems and methods implementing user interface objects
KR102177607B1 (en) * 2014-05-16 2020-11-11 엘지전자 주식회사 Mobile terminal and method for controlling the same
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
US20150350146A1 (en) 2014-05-29 2015-12-03 Apple Inc. Coordination of message alert presentations across devices based on device modes
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10579212B2 (en) 2014-05-30 2020-03-03 Apple Inc. Structured suggestions
US10313506B2 (en) 2014-05-30 2019-06-04 Apple Inc. Wellness aggregator
US10565219B2 (en) 2014-05-30 2020-02-18 Apple Inc. Techniques for automatically generating a suggested contact based on a received message
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
TWI566107B (en) 2014-05-30 2017-01-11 蘋果公司 Method for processing a multi-part voice command, non-transitory computer readable storage medium and electronic device
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
EP3149554B1 (en) 2014-05-30 2024-05-01 Apple Inc. Continuity
WO2015183699A1 (en) 2014-05-30 2015-12-03 Apple Inc. Predictive messaging method
US10382378B2 (en) 2014-05-31 2019-08-13 Apple Inc. Live location sharing
US9185062B1 (en) 2014-05-31 2015-11-10 Apple Inc. Message user interfaces for capture and transmittal of media and location content
KR20150143989A (en) * 2014-06-16 2015-12-24 주식회사 큐키 Easy imoticon or sticker input method and apparatus implementing the same method
CN111078110B (en) * 2014-06-24 2023-10-24 苹果公司 Input device and user interface interactions
CN106415475A (en) 2014-06-24 2017-02-15 苹果公司 Column interface for navigating in a user interface
US10708203B2 (en) * 2014-06-25 2020-07-07 Convergence Acceleration Solutions, Llc Systems and methods for indicating emotions through electronic self-portraits
CN118192869A (en) 2014-06-27 2024-06-14 苹果公司 Reduced size user interface
US20160048492A1 (en) * 2014-06-29 2016-02-18 Emoji 3.0 LLC Platform for internet based graphical communication
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
USD755225S1 (en) * 2014-06-30 2016-05-03 Aliphcom Display screen or portion thereof with animated graphical user interface
EP3195098B1 (en) 2014-07-21 2024-10-23 Apple Inc. Remote user interface
USD754195S1 (en) * 2014-07-29 2016-04-19 Krush Technologies, Llc Display screen or portion thereof with icon
USD751115S1 (en) * 2014-07-29 2016-03-08 Krush Technologies, Llc Display screen or portion thereof with icon
US9651997B2 (en) * 2014-07-30 2017-05-16 Intel Corporation Methods, systems and apparatus to manage a spatially dynamic display
USD755838S1 (en) * 2014-07-30 2016-05-10 Krush Technologies, Llc Display screen or portion thereof with icon
EP3195096B1 (en) 2014-08-02 2020-08-12 Apple Inc. Context-specific user interfaces
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
KR20160026578A (en) * 2014-09-01 2016-03-09 삼성전자주식회사 Display method of electronic apparatus and electronic apparatus thereof
TWD178887S (en) 2014-09-01 2016-10-11 蘋果公司 Portion of graphical user interface for a display screen
WO2016036603A1 (en) 2014-09-02 2016-03-10 Apple Inc. Reduced size configuration interface
US10613743B2 (en) * 2014-09-02 2020-04-07 Apple Inc. User interface for receiving user input
CN115623117A (en) 2014-09-02 2023-01-17 苹果公司 Telephone user interface
US10254948B2 (en) 2014-09-02 2019-04-09 Apple Inc. Reduced-size user interfaces for dynamically updated application overviews
US20160259502A1 (en) * 2014-09-10 2016-09-08 Katrina Parrott Diverse emojis/emoticons
US10146748B1 (en) * 2014-09-10 2018-12-04 Google Llc Embedding location information in a media collaboration using natural language processing
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10212111B2 (en) 2014-09-12 2019-02-19 Google Llc System and interface that facilitate selecting videos to share in a messaging application
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10769607B2 (en) * 2014-10-08 2020-09-08 Jgist, Inc. Universal symbol system language-one world language
CN104375864A (en) * 2014-11-22 2015-02-25 深圳市梧桐世界科技有限公司 Ssid graph loading method
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9721024B2 (en) * 2014-12-19 2017-08-01 Facebook, Inc. Searching for ideograms in an online social network
USD755235S1 (en) * 2015-01-02 2016-05-03 Chris J. Katopis Display screen with elephant-themed keyboard graphical user interface (GUI)
USD755236S1 (en) * 2015-01-02 2016-05-03 Chris J. Katopis Display screen with donkey-themed keyboard graphical user interface (GUI)
USD818497S1 (en) * 2015-01-06 2018-05-22 King.Com Limited Display screen with icon
USD777187S1 (en) * 2015-01-15 2017-01-24 Charter Communications Operating, Llc Display screen or portion thereof with graphical user interface
USD777746S1 (en) * 2015-01-15 2017-01-31 Charter Communications Operating, Llc Display screen or portion thereof with graphical user interface
EP3484134B1 (en) 2015-02-02 2022-03-23 Apple Inc. Device, method, and graphical user interface for establishing a relationship and connection between two devices
CN104579934B (en) * 2015-02-10 2016-08-17 腾讯科技(深圳)有限公司 A kind of information processing method and client
KR101622872B1 (en) * 2015-02-11 2016-05-19 라인 가부시키가이샤 Method, system and recording medium for providing rich menu of official account
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
US10216351B2 (en) 2015-03-08 2019-02-26 Apple Inc. Device configuration user interface
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
CN106033337B (en) * 2015-03-13 2019-07-16 腾讯科技(深圳)有限公司 A kind of instant messaging emoticon generation method and device
US20160359773A1 (en) * 2015-03-16 2016-12-08 Boogoo Intellectual Property LLC Electronic Communication System
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9715111B2 (en) * 2015-03-27 2017-07-25 Ca, Inc. Secure user input mode for electronic devices using randomized locations of selection indicia
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US20180107279A1 (en) * 2015-04-20 2018-04-19 Afarin Pirzadeh Applications, systems, and methods for facilitating emotional gesture-based communications
WO2016179087A1 (en) * 2015-05-01 2016-11-10 Ink Corp. Personalized image-based communication on mobile platforms
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10042548B2 (en) * 2015-06-02 2018-08-07 Facebook, Inc. Methods and systems for providing user feedback using an emotion scale
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
DK179292B1 (en) * 2015-06-07 2018-04-09 Apple Inc Devices, methods and graphical user interfaces for providing and interacting with notifications
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10275116B2 (en) 2015-06-07 2019-04-30 Apple Inc. Browser with docked tabs
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
USD775213S1 (en) * 2015-06-10 2016-12-27 Twiin, Inc. Display screen or portion thereof with icon
USD775211S1 (en) * 2015-06-10 2016-12-27 Twiin, Inc. Display screen or portion thereof with icon
USD774098S1 (en) * 2015-06-10 2016-12-13 Twiin, Inc. Display screen or portion thereof with icon
USD774552S1 (en) * 2015-06-10 2016-12-20 Twiin, Inc. Display screen or portion thereof with icon
US9658704B2 (en) * 2015-06-10 2017-05-23 Apple Inc. Devices and methods for manipulating user interfaces with a stylus
USD774096S1 (en) * 2015-06-10 2016-12-13 Twiin, Inc. Display screen or portion thereof with icon
USD774550S1 (en) * 2015-06-10 2016-12-20 Twiin, Inc. Display screen or portion thereof with icon
USD774551S1 (en) * 2015-06-10 2016-12-20 Twiin, Inc. Display screen or portion thereof with icon
USD774097S1 (en) * 2015-06-10 2016-12-13 Twiin, Inc. Display screen or portion thereof with icon
USD774549S1 (en) * 2015-06-10 2016-12-20 Twiin, Inc. Display screen or portion thereof with icon
USD774548S1 (en) * 2015-06-10 2016-12-20 Twiin, Inc. Display screen or portion thereof with icon
USD775671S1 (en) * 2015-06-10 2017-01-03 Twiin, Inc. Display screen or portion thereof with icon
USD775212S1 (en) * 2015-06-10 2016-12-27 Twiin, Inc. Display screen or portion thereof with icon
USD775210S1 (en) * 2015-06-10 2016-12-27 Twiin, Inc. Display screen or portion thereof with icon
USD788809S1 (en) * 2015-06-22 2017-06-06 Gamblit Gaming, Llc Display screen for a graphical user interface
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10003938B2 (en) 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
CN105138222B (en) * 2015-08-26 2018-12-04 美国掌赢信息科技有限公司 A kind of method and electronic equipment selecting emotion icons
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
EP3792742B1 (en) * 2015-09-09 2023-08-16 Apple Inc. Emoji and canned responses
US10445425B2 (en) 2015-09-15 2019-10-15 Apple Inc. Emoji and canned responses
US9665567B2 (en) 2015-09-21 2017-05-30 International Business Machines Corporation Suggesting emoji characters based on current contextual emotional state of user
US10203843B2 (en) * 2015-09-21 2019-02-12 Microsoft Technology Licensing, Llc Facilitating selection of attribute values for graphical elements
US11138207B2 (en) * 2015-09-22 2021-10-05 Google Llc Integrated dynamic interface for expression-based retrieval of expressive media content
US10474877B2 (en) 2015-09-22 2019-11-12 Google Llc Automated effects generation for animated content
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
CA2998896A1 (en) * 2015-10-08 2017-04-13 Magnificus Software Inc. Method and system for creating and using emojis and other graphic content in instant messaging systems
US10496275B2 (en) * 2015-10-12 2019-12-03 Microsoft Technology Licensing, Llc Multi-window keyboard
US10599305B2 (en) * 2015-10-16 2020-03-24 International Business Machines Corporation Approach for selecting a desired object on a small touch screen
JP6687878B2 (en) * 2015-10-27 2020-04-28 富士ゼロックス株式会社 Information processing device and program
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10025972B2 (en) * 2015-11-16 2018-07-17 Facebook, Inc. Systems and methods for dynamically generating emojis based on image analysis of facial features
US10692126B2 (en) 2015-11-17 2020-06-23 Nio Usa, Inc. Network-based system for selling and servicing cars
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
DE112015007170T5 (en) * 2015-12-02 2018-08-23 Motorola Solutions, Inc. PROCESS FOR ASSOCIATING A GROUP OF APPLICATIONS WITH A SPECIFIC FORM
CN106886396B (en) * 2015-12-16 2020-07-07 北京奇虎科技有限公司 Expression management method and device
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
USD852839S1 (en) * 2015-12-23 2019-07-02 Beijing Xinmei Hutong Technology Co., Ltd Display screen with a graphical user interface
CN108701125A (en) * 2015-12-29 2018-10-23 Mz知识产权控股有限责任公司 System and method for suggesting emoticon
US20170220573A1 (en) * 2016-01-05 2017-08-03 William McMichael Systems and methods of performing searches within a text input application
USD839308S1 (en) * 2016-01-22 2019-01-29 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
CN105700703A (en) * 2016-02-24 2016-06-22 北京小牛互联科技有限公司 Method and device for inserting expressions in character input interface of keyboard and supporting user-defined expressions
USD842900S1 (en) * 2016-03-08 2019-03-12 King.Com Limited Display screen with icon
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US11494547B2 (en) 2016-04-13 2022-11-08 Microsoft Technology Licensing, Llc Inputting images to electronic devices
CN105930828B (en) * 2016-04-15 2021-05-14 腾讯科技(深圳)有限公司 Control method and device for expression classification identification
US20170308289A1 (en) * 2016-04-20 2017-10-26 Google Inc. Iconographic symbol search within a graphical keyboard
KR101928550B1 (en) * 2016-04-21 2018-12-12 주식회사 씨케이머티리얼즈랩 Method and device for supplying tactile message
CN105975563B (en) 2016-04-29 2019-10-11 腾讯科技(深圳)有限公司 Expression recommended method and device
KR101780809B1 (en) * 2016-05-09 2017-09-22 네이버 주식회사 Method, user terminal, server and computer program for providing translation with emoticon
US10680980B2 (en) 2016-05-10 2020-06-09 Cisco Technology, Inc. Interactive contextual emojis
KR20240023200A (en) 2016-05-18 2024-02-20 애플 인크. Applying acknowledgement of options in a graphical messaging user interface
US10592098B2 (en) 2016-05-18 2020-03-17 Apple Inc. Devices, methods, and graphical user interfaces for messaging
CN105871695B (en) * 2016-05-19 2019-03-26 腾讯科技(深圳)有限公司 Expression sending method and device
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. Intelligent automated assistant in a home environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179374B1 (en) 2016-06-12 2018-05-28 Apple Inc Handwriting keyboard for monitors
US10873786B2 (en) 2016-06-12 2020-12-22 Apple Inc. Recording and broadcasting application visual output
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
US10368208B2 (en) 2016-06-12 2019-07-30 Apple Inc. Layers in messaging applications
DK201670616A1 (en) * 2016-06-12 2018-01-22 Apple Inc Devices and Methods for Accessing Prevalent Device Functions
US10409488B2 (en) * 2016-06-13 2019-09-10 Microsoft Technology Licensing, Llc Intelligent virtual keyboards
US10001901B2 (en) * 2016-06-14 2018-06-19 Unity IPR ApS System and method for texturing in virtual reality and mixed reality environments
US10182047B1 (en) 2016-06-30 2019-01-15 Snap Inc. Pictograph password security system
US20180012197A1 (en) 2016-07-07 2018-01-11 NextEv USA, Inc. Battery exchange licensing program based on state of charge of battery pack
US9973456B2 (en) 2016-07-22 2018-05-15 Strip Messenger Messaging as a graphical comic strip
US9684430B1 (en) * 2016-07-27 2017-06-20 Strip Messenger Linguistic and icon based message conversion for virtual environments and objects
US9928734B2 (en) 2016-08-02 2018-03-27 Nio Usa, Inc. Vehicle-to-pedestrian communication systems
WO2018023577A1 (en) * 2016-08-04 2018-02-08 薄冰 Method for stopping using gesture matching emoticon sending instruction, and emoticon system
WO2018023576A1 (en) * 2016-08-04 2018-02-08 薄冰 Method for adjusting emoji sending technique according to market feedback, and emoji system
WO2018023578A1 (en) * 2016-08-04 2018-02-08 薄冰 Method for sending emoticon according to gesture, and emoticon system
CN106293131A (en) * 2016-08-16 2017-01-04 广东小天才科技有限公司 expression input method and device
US10409487B2 (en) * 2016-08-23 2019-09-10 Microsoft Technology Licensing, Llc Application processing based on gesture input
USD854049S1 (en) * 2016-08-25 2019-07-16 Emojot, Inc. Display screen with a graphical user interface
USD853444S1 (en) * 2016-08-25 2019-07-09 Emojot, Inc. Display screen with graphical user interface
US10798044B1 (en) 2016-09-01 2020-10-06 Nufbee Llc Method for enhancing text messages with pre-recorded audio clips
US10063929B1 (en) 2016-09-01 2018-08-28 Nufbee Llc Community controlled audio entertainment system
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US9940498B2 (en) * 2016-09-09 2018-04-10 Motorola Mobility Llc Low power application access using fingerprint sensor authentication
USD808429S1 (en) * 2016-09-20 2018-01-23 Google Llc Display screen with icon
WO2018057627A1 (en) 2016-09-20 2018-03-29 Google Llc System and method for transmitting a response in a messaging application
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. Image data for enhanced user interactions
US10218802B2 (en) 2016-10-18 2019-02-26 Microsoft Technology Licensing, Llc Tiered notification framework
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
USD817993S1 (en) 2016-10-27 2018-05-15 Apple Inc. Display screen or portion thereof with graphical user interface
USD820304S1 (en) * 2016-10-27 2018-06-12 Apple Inc. Display screen or portion thereof with graphical user interface
US10838584B2 (en) * 2016-10-31 2020-11-17 Microsoft Technology Licensing, Llc Template based calendar events with graphic enrichment
US11024160B2 (en) 2016-11-07 2021-06-01 Nio Usa, Inc. Feedback performance control and tracking
US11321890B2 (en) * 2016-11-09 2022-05-03 Microsoft Technology Licensing, Llc User interface for generating expressive content
US10694357B2 (en) 2016-11-11 2020-06-23 Nio Usa, Inc. Using vehicle sensor data to monitor pedestrian health
US10708547B2 (en) 2016-11-11 2020-07-07 Nio Usa, Inc. Using vehicle sensor data to monitor environmental and geologic conditions
US10410064B2 (en) 2016-11-11 2019-09-10 Nio Usa, Inc. System for tracking and identifying vehicles and pedestrians
US10699305B2 (en) 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles
WO2018098098A1 (en) 2016-11-23 2018-05-31 Google Llc Providing mediated social interactions
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10249104B2 (en) 2016-12-06 2019-04-02 Nio Usa, Inc. Lease observation and event recording
GB201620802D0 (en) 2016-12-07 2017-01-18 Microsoft Technology Licensing Llc Messaging system
USD847825S1 (en) 2016-12-19 2019-05-07 Coren Intellect LLC Display screen with graphical user interface for employee profile
USD808400S1 (en) * 2016-12-19 2018-01-23 Coren Intellect LLC Display screen with employee survey graphical user interface
USD841667S1 (en) * 2016-12-19 2019-02-26 Coren Intellect LLC Display screen with employee survey graphical user interface
CN106843635B (en) * 2016-12-20 2020-04-28 北京猎豹移动科技有限公司 Information display method and device and electronic equipment
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11199965B2 (en) * 2016-12-29 2021-12-14 Verizon Patent And Licensing Inc. Virtual keyboard
US10452411B2 (en) 2016-12-30 2019-10-22 Riyad Mobeen System and method of using emojis for interactive and enhanced data matching capabilities
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
USD818037S1 (en) 2017-01-11 2018-05-15 Apple Inc. Type font
US10074223B2 (en) 2017-01-13 2018-09-11 Nio Usa, Inc. Secured vehicle for user use only
US10471829B2 (en) 2017-01-16 2019-11-12 Nio Usa, Inc. Self-destruct zone and autonomous vehicle navigation
US9984572B1 (en) 2017-01-16 2018-05-29 Nio Usa, Inc. Method and system for sharing parking space availability among autonomous vehicles
US10031521B1 (en) 2017-01-16 2018-07-24 Nio Usa, Inc. Method and system for using weather information in operation of autonomous vehicles
US10464530B2 (en) 2017-01-17 2019-11-05 Nio Usa, Inc. Voice biometric pre-purchase enrollment for autonomous vehicles
US10286915B2 (en) 2017-01-17 2019-05-14 Nio Usa, Inc. Machine learning for personalized driving
US10897469B2 (en) 2017-02-02 2021-01-19 Nio Usa, Inc. System and method for firewalls between vehicle networks
CN106998492A (en) * 2017-03-02 2017-08-01 合网络技术(北京)有限公司 The display control method and device of barrage
TWI754694B (en) * 2017-03-21 2022-02-11 香港商阿里巴巴集團服務有限公司 Communication method and device
JP6360227B2 (en) * 2017-04-13 2018-07-18 株式会社L is B Message system
US11237635B2 (en) 2017-04-26 2022-02-01 Cognixion Nonverbal multi-input and feedback devices for user intended computer control and communication of text, graphics and audio
US11402909B2 (en) 2017-04-26 2022-08-02 Cognixion Brain computer interface for augmented reality
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. User interface for correcting recognition errors
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. Low-latency intelligent automated assistant
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
KR102439054B1 (en) * 2017-05-16 2022-09-02 애플 인크. Emoji recording and sending
CN111343060B (en) 2017-05-16 2022-02-11 苹果公司 Method and interface for home media control
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. Far-field extension for digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
USD841677S1 (en) 2017-06-04 2019-02-26 Apple Inc. Display screen or portion thereof with graphical user interface
US10318109B2 (en) * 2017-06-09 2019-06-11 Microsoft Technology Licensing, Llc Emoji suggester and adapted user interface
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
CN107463273B (en) * 2017-07-14 2021-06-18 北京新美互通科技有限公司 Expression symbol input method and device
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
CN107479784B (en) 2017-07-31 2022-01-25 腾讯科技(深圳)有限公司 Expression display method and device and computer readable storage medium
US10837790B2 (en) 2017-08-01 2020-11-17 Nio Usa, Inc. Productive and accident-free driving modes for a vehicle
EP4156129A1 (en) 2017-09-09 2023-03-29 Apple Inc. Implementation of biometric enrollment
USD873284S1 (en) 2017-09-09 2020-01-21 Apple Inc. Electronic device with graphical user interface
KR102185854B1 (en) 2017-09-09 2020-12-02 애플 인크. Implementation of biometric authentication
USD843442S1 (en) 2017-09-10 2019-03-19 Apple Inc. Type font
USD987669S1 (en) 2017-09-11 2023-05-30 Apple Inc. Electronic device with graphical user interface
USD861704S1 (en) 2017-09-11 2019-10-01 Apple Inc. Electronic device with graphical user interface
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10593087B2 (en) 2017-10-23 2020-03-17 Paypal, Inc. System and method for generating emoji mashups with machine learning
CN109725957A (en) * 2017-10-27 2019-05-07 钉钉控股(开曼)有限公司 Group's configuration method and device, content share system
US10606274B2 (en) 2017-10-30 2020-03-31 Nio Usa, Inc. Visual place recognition based self-localization for autonomous vehicles
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10717412B2 (en) 2017-11-13 2020-07-21 Nio Usa, Inc. System and method for controlling a vehicle using secondary access methods
JP7008486B2 (en) 2017-11-21 2022-01-25 Kyb株式会社 Suspension device
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
USD844700S1 (en) * 2018-01-18 2019-04-02 Apple Inc. Type font
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
USD846596S1 (en) * 2018-02-05 2019-04-23 Lindsey A. Berry Portion of a display panel with a computer icon image
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
KR20190109705A (en) * 2018-03-18 2019-09-26 김시환 The system and the method for giving contents in the message service of the smart phone
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
DK201870380A1 (en) 2018-05-07 2020-01-29 Apple Inc. Displaying user interfaces associated with physical activities
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US10369966B1 (en) 2018-05-23 2019-08-06 Nio Usa, Inc. Controlling access to a vehicle using wireless access devices
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. Virtual assistant operation in multi-device environments
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK179822B1 (en) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
USD846633S1 (en) * 2018-06-03 2019-04-23 Apple Inc. Type font
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
USD880495S1 (en) 2018-06-03 2020-04-07 Apple Inc. Electronic device with graphical user interface
US10725506B2 (en) * 2018-08-21 2020-07-28 Dell Products, L.P. Context-aware user interface (UI) for multi-form factor information handling systems (IHSs)
CN109379270A (en) * 2018-08-27 2019-02-22 北京达佳互联信息技术有限公司 Expression information treating method and apparatus, mobile terminal, server and storage medium
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US10764224B2 (en) * 2018-10-05 2020-09-01 International Business Machines Corporation Conveying electronic messages according to representation of emotion
JP1662143S (en) * 2018-10-13 2020-06-22
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US10547970B1 (en) * 2018-12-19 2020-01-28 Snap Inc. Mapping discovery system
USD937900S1 (en) * 2018-12-21 2021-12-07 Waymo Llc Display screen or portion thereof with an icon image
USD938495S1 (en) * 2018-12-21 2021-12-14 Waymo Llc Display screen or portion thereof with an icon image
USD937899S1 (en) * 2018-12-21 2021-12-07 Waymo Llc Display screen or portion thereof with an icon image
USD937898S1 (en) * 2018-12-21 2021-12-07 Waymo Llc Display screen or portion thereof with an icon image
CN109710086A (en) * 2018-12-28 2019-05-03 北京微播视界科技有限公司 Display methods, device, electronic equipment and the readable storage medium storing program for executing of expression panel
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US12008217B2 (en) 2019-02-01 2024-06-11 Tianjin Bytedance Technology Co., Ltd. Method and apparatus for displaying emoji reply, terminal device, and server
USD900925S1 (en) 2019-02-01 2020-11-03 Apple Inc. Type font and electronic device with graphical user interface
USD902221S1 (en) 2019-02-01 2020-11-17 Apple Inc. Electronic device with animated graphical user interface
CN109871165B (en) * 2019-02-01 2022-03-01 天津字节跳动科技有限公司 Expression response display method and device, terminal equipment and server
USD900871S1 (en) 2019-02-04 2020-11-03 Apple Inc. Electronic device with animated graphical user interface
US20220121817A1 (en) * 2019-02-14 2022-04-21 Sony Group Corporation Information processing device, information processing method, and information processing program
CA3131489A1 (en) 2019-02-27 2020-09-03 Louisiana-Pacific Corporation Fire-resistant manufactured-wood based siding
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
EP3928526A1 (en) 2019-03-24 2021-12-29 Apple Inc. User interfaces for viewing and accessing content on an electronic device
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
JP6921338B2 (en) 2019-05-06 2021-08-18 アップル インコーポレイテッドApple Inc. Limited operation of electronic devices
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US10996917B2 (en) 2019-05-31 2021-05-04 Apple Inc. User interfaces for audio media control
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. User activity shortcut suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
CN113906380A (en) 2019-05-31 2022-01-07 苹果公司 User interface for podcast browsing and playback applications
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11620103B2 (en) 2019-05-31 2023-04-04 Apple Inc. User interfaces for audio media control
US11477609B2 (en) 2019-06-01 2022-10-18 Apple Inc. User interfaces for location-related communications
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11074408B2 (en) 2019-06-01 2021-07-27 Apple Inc. Mail application features
US11481094B2 (en) 2019-06-01 2022-10-25 Apple Inc. User interfaces for location-related communications
US10946294B1 (en) * 2019-08-30 2021-03-16 Sony Interactive Entertainment Inc. Summarizing notifications on a user display
CN110750198A (en) * 2019-09-23 2020-02-04 维沃移动通信有限公司 Expression sending method and mobile terminal
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
EP4034980A1 (en) * 2019-09-27 2022-08-03 Apple Inc. User interfaces for customizing graphical objects
US11252274B2 (en) * 2019-09-30 2022-02-15 Snap Inc. Messaging application sticker extensions
USD917540S1 (en) * 2019-09-30 2021-04-27 Apple Inc. Electronic device with animated graphical user interface
CN110928429B (en) * 2019-11-22 2020-12-22 北京海泰方圆科技股份有限公司 Information input method, device, medium and equipment
JP7159396B2 (en) 2019-12-12 2022-10-24 キヤノン株式会社 IMAGE FORMING APPARATUS AND IMAGE PROCESSING APPARATUS CONTROL METHOD AND PROGRAM
CN112988030B (en) * 2019-12-13 2022-05-17 深圳市万普拉斯科技有限公司 Terminal control method, device, terminal and storage medium
KR102324200B1 (en) * 2019-12-19 2021-11-08 주식회사 카카오 Method for providing emoticons in instant messaging service, user device, server and application implementing the method
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11455078B1 (en) 2020-03-31 2022-09-27 Snap Inc. Spatial navigation and creation interface
CN112306224A (en) * 2020-04-30 2021-02-02 北京字节跳动网络技术有限公司 Man-machine interaction method and device and electronic equipment
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11209964B1 (en) * 2020-06-05 2021-12-28 SlackTechnologies, LLC System and method for reacting to messages
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11609640B2 (en) * 2020-06-21 2023-03-21 Apple Inc. Emoji user interfaces
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
USD965013S1 (en) * 2020-09-28 2022-09-27 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD964391S1 (en) * 2020-09-28 2022-09-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
USD976959S1 (en) * 2020-12-21 2023-01-31 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD977523S1 (en) * 2020-12-21 2023-02-07 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US11797162B2 (en) 2020-12-22 2023-10-24 Snap Inc. 3D painting on an eyewear device
US11782577B2 (en) 2020-12-22 2023-10-10 Snap Inc. Media content player on an eyewear device
US12105283B2 (en) * 2020-12-22 2024-10-01 Snap Inc. Conversation interface on an eyewear device
EP4264460A1 (en) 2021-01-25 2023-10-25 Apple Inc. Implementation of biometric authentication
KR102619340B1 (en) * 2021-01-28 2023-12-28 주식회사 카카오 Method and user terminal of providing contents to user
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
KR20220143433A (en) * 2021-04-16 2022-10-25 삼성전자주식회사 Electronic device and method for inputting information using an external electronic device in the electronic device
US11593548B2 (en) 2021-04-20 2023-02-28 Snap Inc. Client device processing received emoji-first messages
US11888797B2 (en) * 2021-04-20 2024-01-30 Snap Inc. Emoji-first messaging
US11531406B2 (en) 2021-04-20 2022-12-20 Snap Inc. Personalized emoji dictionary
US11938376B2 (en) 2021-05-15 2024-03-26 Apple Inc. User interfaces for group workouts
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing
KR102652719B1 (en) * 2021-06-25 2024-03-28 주식회사 카카오 Method and user terminal for displaying emoticons using custom keyword
US20230005495A1 (en) * 2021-06-30 2023-01-05 Ringcentral, Inc Systems and methods for virtual meeting speaker separation
USD1017618S1 (en) * 2021-10-13 2024-03-12 Zoom Video Communications, Inc. Display screen or portion thereof with graphical user interface
US11841898B2 (en) * 2021-12-01 2023-12-12 Whitestar Communications, Inc. Coherent pictograph organizer based on structuring pattern markers for hierarchal pictograph presentation
CN114780190B (en) * 2022-04-13 2023-12-22 脸萌有限公司 Message processing method, device, electronic equipment and storage medium
WO2023224644A1 (en) * 2022-05-20 2023-11-23 Google Llc Predictive input interface having improved robustness for processing low precision inputs
US11825004B1 (en) * 2023-01-04 2023-11-21 Mattel, Inc. Communication device for children
KR102670162B1 (en) * 2024-04-04 2024-05-27 김봉근 System and method of inputting characters

Family Cites Families (351)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01172997A (en) 1987-12-23 1989-07-07 Internatl Business Mach Corp <Ibm> Graphic customization of memu display
US5169527A (en) * 1988-04-07 1992-12-08 Roediger Pittsburgh, Inc. Liquid extracting device and associated method
US5146556A (en) 1988-10-11 1992-09-08 Next Computer, Inc. System and method for managing graphic images
US5196838A (en) 1990-12-28 1993-03-23 Apple Computer, Inc. Intelligent scrolling
FR2693810B1 (en) 1991-06-03 1997-01-10 Apple Computer USER INTERFACE SYSTEMS WITH DIRECT ACCESS TO A SECONDARY DISPLAY AREA.
US5592675A (en) * 1992-01-08 1997-01-07 Hitachi, Ltd. Computer controlled method and system capable of preserving information representing plural work states and recovering the work states
JP3248981B2 (en) 1992-06-02 2002-01-21 松下電器産業株式会社 calculator
US5414805A (en) 1992-11-06 1995-05-09 International Business Machines Corporation Visual display transition effects using sorted table of display cells
US5812862A (en) 1993-05-10 1998-09-22 Apple Computer, Inc. Computer-human interface system for compound documents
US5745910A (en) * 1993-05-10 1998-04-28 Apple Computer, Inc. Frame structure which provides an interface between parts of a compound document
EP0626635B1 (en) 1993-05-24 2003-03-05 Sun Microsystems, Inc. Improved graphical user interface with method for interfacing to remote devices
US5490245A (en) 1993-08-12 1996-02-06 Ast Research, Inc. Component-based icon construction and customization system
US5825357A (en) 1993-12-13 1998-10-20 Microsoft Corporation Continuously accessible computer system interface
US5642490A (en) 1994-06-24 1997-06-24 International Business Machines Corporation Providing icon placement alternatives for dynamically added container records
DE69525308T2 (en) * 1994-11-15 2002-07-04 Microsoft Corp Interface bar sliding out
EP0717344B1 (en) * 1994-12-13 2001-10-31 Microsoft Corporation Taskbar with start menu
US5760773A (en) * 1995-01-06 1998-06-02 Microsoft Corporation Methods and apparatus for interacting with data objects using action handles
US5644739A (en) * 1995-01-27 1997-07-01 Microsoft Corporation Method and system for adding buttons to a toolbar
US5611060A (en) * 1995-02-22 1997-03-11 Microsoft Corporation Auto-scrolling during a drag and drop operation
US5914717A (en) * 1995-07-21 1999-06-22 Microsoft Methods and system for providing fly out menus
US5877765A (en) * 1995-09-11 1999-03-02 Microsoft Corporation Method and system for displaying internet shortcut icons on the desktop
US5796401A (en) 1996-08-09 1998-08-18 Winer; Peter W. System for designing dynamic layouts adaptable to various display screen sizes and resolutions
US6097431A (en) * 1996-09-04 2000-08-01 Flashpoint Technology, Inc. Method and system for reviewing and navigating among images on an image capture unit
US5870683A (en) 1996-09-18 1999-02-09 Nokia Mobile Phones Limited Mobile station having method and apparatus for displaying user-selectable animation sequence
JP2008123553A (en) * 1996-10-16 2008-05-29 Sharp Corp Information apparatus
US6144863A (en) 1996-11-26 2000-11-07 U.S. Philips Corporation Electronic device with screen comprising a menu which can be customized by a user
US6710788B1 (en) 1996-12-03 2004-03-23 Texas Instruments Incorporated Graphical user interface
US6256008B1 (en) * 1996-12-10 2001-07-03 Motorola Computer screen saver with wireless messaging capability and method therefor
US5923327A (en) * 1997-04-23 1999-07-13 Bell-Northern Research Ltd. Scrolling with automatic compression and expansion
US5934707A (en) 1997-05-30 1999-08-10 Johnson; Joyce W. Message calendar
US5995119A (en) 1997-06-06 1999-11-30 At&T Corp. Method for generating photo-realistic animated characters
US6433801B1 (en) 1997-09-26 2002-08-13 Ericsson Inc. Method and apparatus for using a touch screen display on a portable intelligent communications device
FI109733B (en) * 1997-11-05 2002-09-30 Nokia Corp Utilizing the content of the message
JPH11154899A (en) * 1997-11-19 1999-06-08 Toshiba Corp Communication terminal equipment
US6133914A (en) 1998-01-07 2000-10-17 Rogers; David W. Interactive graphical user interface
US6072486A (en) * 1998-01-13 2000-06-06 Microsoft Corporation System and method for creating and customizing a deskbar
US7840912B2 (en) 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
EP1717679B1 (en) * 1998-01-26 2016-09-21 Apple Inc. Method for integrating manual input
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6466213B2 (en) 1998-02-13 2002-10-15 Xerox Corporation Method and apparatus for creating personal autonomous avatars
US6275935B1 (en) 1998-04-17 2001-08-14 Thingworld.Com, Llc Systems and methods for locking interactive objects
US6145083A (en) 1998-04-23 2000-11-07 Siemens Information And Communication Networks, Inc. Methods and system for providing data and telephony security
JP2000003316A (en) * 1998-06-15 2000-01-07 Casio Comput Co Ltd Mail device and recording medium with mail processing program recorded thereon
US6229542B1 (en) * 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
JP2000105772A (en) 1998-07-28 2000-04-11 Sharp Corp Information managing device
US20010015719A1 (en) 1998-08-04 2001-08-23 U.S. Philips Corporation Remote control has animated gui
US6049336A (en) * 1998-08-12 2000-04-11 Sony Corporation Transition animation for menu structure
US6278454B1 (en) 1998-09-24 2001-08-21 Ericsson Inc. Call progress graphical user interface
US6195094B1 (en) * 1998-09-29 2001-02-27 Netscape Communications Corporation Window splitter bar system
JP2000163193A (en) 1998-11-25 2000-06-16 Seiko Epson Corp Portable information equipment and information storage medium
US6353451B1 (en) * 1998-12-16 2002-03-05 Intel Corporation Method of providing aerial perspective in a graphical user interface
US6628309B1 (en) 1999-02-05 2003-09-30 International Business Machines Corporation Workspace drag and drop
JP3726824B2 (en) * 1999-03-12 2005-12-14 コニカミノルタホールディングス株式会社 Liquid crystal display device and display system
JP2000330526A (en) 1999-03-12 2000-11-30 Minolta Co Ltd Liquid crystal display device, portable electronic equipment and driving method
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US7030863B2 (en) * 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
US6317140B1 (en) 1999-08-02 2001-11-13 Hewlett-Packard Company Displaying interactive bitmap images within a display space
US6763388B1 (en) 1999-08-10 2004-07-13 Akamai Technologies, Inc. Method and apparatus for selecting and viewing portions of web pages
US6781575B1 (en) 2000-09-21 2004-08-24 Handspring, Inc. Method and apparatus for organizing addressing elements
US20020173721A1 (en) 1999-08-20 2002-11-21 Novasonics, Inc. User interface for handheld imaging devices
GB9920327D0 (en) 1999-08-28 1999-11-03 Koninkl Philips Electronics Nv Menu display for a graphical user interface
US6976210B1 (en) 1999-08-31 2005-12-13 Lucent Technologies Inc. Method and apparatus for web-site-independent personalization from multiple sites having user-determined extraction functionality
US7134095B1 (en) 1999-10-20 2006-11-07 Gateway, Inc. Simulated three-dimensional navigational menu system
US7369130B2 (en) 1999-10-29 2008-05-06 Hitachi Kokusai Electric Inc. Method and apparatus for editing image data, and computer program product of editing image data
US6820111B1 (en) 1999-12-07 2004-11-16 Microsoft Corporation Computer user interface architecture that saves a user's non-linear navigation history and intelligently maintains that history
US6978127B1 (en) 1999-12-16 2005-12-20 Koninklijke Philips Electronics N.V. Hand-ear user interface for hand-held device
US7434177B1 (en) * 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US6396520B1 (en) * 2000-01-05 2002-05-28 Apple Computer, Inc. Method of transition between window states
US7362331B2 (en) * 2000-01-05 2008-04-22 Apple Inc. Time-based, non-constant translation of user interface objects between states
AU2001247950A1 (en) 2000-02-02 2001-08-14 Ezlogin.Com, Inc. Clipping and manipulating elements contained in a web page
GB2365676B (en) 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
JP2001265481A (en) 2000-03-21 2001-09-28 Nec Corp Method and device for displaying page information and storage medium with program for displaying page information stored
JP3763389B2 (en) 2000-03-24 2006-04-05 シャープ株式会社 Image data editing operation method and information processing apparatus
US20010048448A1 (en) 2000-04-06 2001-12-06 Raiz Gregory L. Focus state themeing
JP2002014810A (en) 2000-04-06 2002-01-18 Microsoft Corp Theme recognition processing using fusion
JP3665535B2 (en) * 2000-05-26 2005-06-29 株式会社ケンウッド Mobile communication terminal device, lock control method for mobile communication terminal device, and recording medium
US7624356B1 (en) 2000-06-21 2009-11-24 Microsoft Corporation Task-sensitive methods and systems for displaying command sets
EP1354263A2 (en) 2000-07-07 2003-10-22 Openwave Systems Inc. Graphical user interface features of a browser in a hand-held wireless communication device
WO2002007452A2 (en) * 2000-07-18 2002-01-24 Incredimail Ltd. System and method for visual feedback of command execution in electronic mail systems
US20020104096A1 (en) 2000-07-19 2002-08-01 Cramer Allen Brett System and methods for providing web-based multimedia presentations
CA2349649A1 (en) 2000-07-31 2002-01-31 International Business Machines Corporation Switching between virtual desktops
US6704024B2 (en) * 2000-08-07 2004-03-09 Zframe, Inc. Visual content browsing using rasterized representations
JP2002062966A (en) 2000-08-21 2002-02-28 Seiko Epson Corp Information processor and control method thereof
US20020054090A1 (en) * 2000-09-01 2002-05-09 Silva Juliana Freire Method and apparatus for creating and providing personalized access to web content and services from terminals having diverse capabilities
US7003308B1 (en) * 2000-09-12 2006-02-21 At&T Corp. Method and system for handwritten electronic messaging
US7039676B1 (en) * 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
AU2002216725A1 (en) 2000-11-03 2002-05-21 Outlet Group, Llc Method and system of an integrated business topography and virtual 3d network portal
US6990452B1 (en) * 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
US6918091B2 (en) * 2000-11-09 2005-07-12 Change Tools, Inc. User definable interface system, method and computer program product
US6590568B1 (en) * 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
KR100377936B1 (en) 2000-12-16 2003-03-29 삼성전자주식회사 Method for inputting emotion icon in mobile telecommunication terminal
US7139982B2 (en) * 2000-12-21 2006-11-21 Xerox Corporation Navigation methods, systems, and computer program products for virtual three-dimensional books
US6727916B1 (en) * 2000-12-21 2004-04-27 Sprint Spectrum, L.P. Method and system for assisting a user to engage in a microbrowser-based interactive chat session
FR2819675B1 (en) 2001-01-17 2003-05-16 Sagem PORTABLE TELEPHONE WITH CAPTURE BROWSER AND REMINDER OF COMPUTER ADDRESSES
US6677932B1 (en) * 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) * 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20050024341A1 (en) * 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US7010758B2 (en) 2001-05-21 2006-03-07 Leap Wireless International, Inc. Dynamically defined context sensitive jump menu
US7434246B2 (en) * 2001-06-08 2008-10-07 Digeo, Inc. Systems and methods for automatic personalizing of channel favorites in a set top box
US8063923B2 (en) * 2001-07-13 2011-11-22 Universal Electronics Inc. System and method for updating information in an electronic portable device
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
US6819340B2 (en) * 2001-07-23 2004-11-16 Paul E. Burke Adding a shortcut to a web site
US6987991B2 (en) * 2001-08-17 2006-01-17 Wildseed Ltd. Emoticon input method and apparatus
US7221933B2 (en) * 2001-10-22 2007-05-22 Kyocera Wireless Corp. Messaging system for mobile communication
JP2003162687A (en) * 2001-11-28 2003-06-06 Toshiba Corp Handwritten character-inputting apparatus and handwritten character-recognizing program
US7310636B2 (en) 2002-01-15 2007-12-18 International Business Machines Corporation Shortcut enabled, context aware information management
US20030154446A1 (en) 2002-01-28 2003-08-14 Constant Nicholas Robert Character-based, graphically expressive mobile messaging system
JP2003248538A (en) 2002-02-25 2003-09-05 Gakken Co Ltd Program, information processing device using the same and information processing method
US8972890B2 (en) 2002-03-06 2015-03-03 Apple Inc. Aminated menu bar
US7607102B2 (en) 2002-03-14 2009-10-20 Apple Inc. Dynamically changing appearances for user interface elements during drag-and-drop operations
US20030184552A1 (en) 2002-03-26 2003-10-02 Sanja Chadha Apparatus and method for graphics display system for markup languages
US6931601B2 (en) 2002-04-03 2005-08-16 Microsoft Corporation Noisy operating system user interface
US7689673B2 (en) 2002-04-23 2010-03-30 Canon Kabushiki Kaisha Remote creation of printer instances on a workstation
US6629793B1 (en) 2002-04-26 2003-10-07 Westie Intellectual Properties Limited Partnership Emoticon keyboard
US7810038B2 (en) 2002-05-03 2010-10-05 International Business Machines Corporation Method for modifying a GUI for an application
JP2003339079A (en) * 2002-05-20 2003-11-28 Ntt Docomo Inc Mobile communication terminal, program, and recording medium
FI20021162A0 (en) 2002-06-14 2002-06-14 Nokia Corp Electronic device and a method for administering its keypad
JP2004023651A (en) * 2002-06-19 2004-01-22 Matsushita Electric Ind Co Ltd Telephone set
US20040164973A1 (en) 2002-06-28 2004-08-26 Kyocera Corporation Personal digital assistant and program for controlling used for the same
JP2004038310A (en) * 2002-06-28 2004-02-05 Kyocera Corp Personal digital assistant and control program to be used for the same
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US6919892B1 (en) 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
US7027054B1 (en) 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
WO2008156437A1 (en) 2006-04-10 2008-12-24 Avaworks Incorporated Do-it-yourself photo realistic talking head creation system and method
US20040041849A1 (en) * 2002-08-30 2004-03-04 Von Mock Display screen saver with two way messaging capability and method therefor
GB0220748D0 (en) 2002-09-06 2002-10-16 Saw You Com Ltd Improved communication using avatars
JP2004132741A (en) 2002-10-08 2004-04-30 Kenwood Corp Navigation device
US20040085360A1 (en) * 2002-10-31 2004-05-06 Hallmark Interactive, Llc Icon-based graphical user interface for text messaging
US20040093582A1 (en) * 2002-11-01 2004-05-13 Segura Tim E. Method for allowing a computer to be used as an information kiosk while locked
JP2004159180A (en) * 2002-11-07 2004-06-03 Toshiba Corp Electronic mail transmission/reception system
US7266776B2 (en) * 2002-11-25 2007-09-04 Aol Llc Facilitating communications between computer users across a network
JP2004227393A (en) 2003-01-24 2004-08-12 Sony Corp Icon drawing system, icon drawing method and electronic device
US20040155909A1 (en) 2003-02-07 2004-08-12 Sun Microsystems, Inc. Scroll tray mechanism for cellular telephone
US7185285B2 (en) * 2003-02-19 2007-02-27 Microsoft Corporation User interface and content enhancements for real-time communication
JP4074530B2 (en) 2003-02-28 2008-04-09 京セラ株式会社 Portable information terminal device
US7231229B1 (en) * 2003-03-16 2007-06-12 Palm, Inc. Communication device interface
US20040215719A1 (en) 2003-04-09 2004-10-28 Altshuler Dennis Wayne Method and system for designing, editing and publishing web page content in a live internet session
US9607092B2 (en) * 2003-05-20 2017-03-28 Excalibur Ip, Llc Mapping method and system
JP2005004396A (en) * 2003-06-11 2005-01-06 Sony Corp Information display method, information display unit, and computer program
EP1639439A2 (en) 2003-06-13 2006-03-29 The University Of Lancaster User interface
WO2005001658A2 (en) 2003-06-27 2005-01-06 Softscope Llc Virtual desktop - meta-organization & control system
KR100508123B1 (en) * 2003-07-04 2005-08-10 엘지전자 주식회사 method and device for inputting symbol
WO2005010725A2 (en) 2003-07-23 2005-02-03 Xow, Inc. Stop motion capture tool
US7164410B2 (en) 2003-07-28 2007-01-16 Sig G. Kupka Manipulating an on-screen object using zones surrounding the object
US20050026644A1 (en) * 2003-07-28 2005-02-03 Inventec Appliances Corp. Cellular phone for specific person
US6973299B2 (en) 2003-08-01 2005-12-06 Microsoft Corporation Unified contact list
US7325204B2 (en) * 2003-08-29 2008-01-29 Yahoo! Inc. Slideout windows
KR20050022117A (en) * 2003-08-29 2005-03-07 엘지전자 주식회사 Power saving apparatus and method of mobile communication terminal
JP2005092441A (en) * 2003-09-16 2005-04-07 Aizu:Kk Character input method
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP2005115896A (en) 2003-10-10 2005-04-28 Nec Corp Communication apparatus and method
US8527896B2 (en) * 2003-10-23 2013-09-03 Microsoft Corporation User interface menu with hovering icons
FI116641B (en) * 2003-10-24 2006-01-13 Nokia Corp A method for changing the speed dial in an electronic device, the display unit of the device, and the electronic device
US20050097089A1 (en) * 2003-11-05 2005-05-05 Tom Nielsen Persistent user interface for providing navigational functionality
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US8171084B2 (en) * 2004-01-20 2012-05-01 Microsoft Corporation Custom emoticons
US20050202748A1 (en) 2004-03-11 2005-09-15 Beanhead Toys & Entertainment Freestanding, reconfigurable, disposable character form and kit for making same
US7546554B2 (en) * 2004-03-31 2009-06-09 Fuji Xerox Co., Ltd. Systems and methods for browsing multimedia content on small mobile devices
US20050229102A1 (en) 2004-04-12 2005-10-13 Microsoft Corporation System and method for providing an interactive display
JP4241484B2 (en) * 2004-04-14 2009-03-18 日本電気株式会社 Portable terminal device, incoming response message transmission method, and server device
JP2005309933A (en) 2004-04-23 2005-11-04 Canon Inc Enhancement control device, image processing system, method for displaying application icon, program, and storage medium
US7565625B2 (en) 2004-05-06 2009-07-21 Pixar Toolbar slot method and apparatus
US20050250438A1 (en) 2004-05-07 2005-11-10 Mikko Makipaa Method for enhancing communication, a terminal and a telecommunication system
JP2005352943A (en) 2004-06-14 2005-12-22 Matsushita Electric Ind Co Ltd Information terminal and display control program
US7358962B2 (en) 2004-06-15 2008-04-15 Microsoft Corporation Manipulating association of data with a physical object
FI20045245A0 (en) 2004-06-28 2004-06-28 Nokia Corp Boost browsing on your electronic device
US7689939B1 (en) * 2004-06-30 2010-03-30 Avaya Inc. Software application break through a screen blanker
US7669135B2 (en) * 2004-07-15 2010-02-23 At&T Mobility Ii Llc Using emoticons, such as for wireless devices
US20060025110A1 (en) 2004-07-28 2006-02-02 Jun Liu Password protection for mobile phones
KR100610894B1 (en) * 2004-07-28 2006-08-10 엘지전자 주식회사 Mobile phone including a function of screen saver auto locking and control method thereof
KR101270847B1 (en) 2004-07-30 2013-06-05 애플 인크. Gestures for touch sensitive input devices
US20060025091A1 (en) * 2004-08-02 2006-02-02 Matsushita Electric Industrial Co., Ltd Method for creating and using phrase history for accelerating instant messaging input on mobile devices
KR20060019198A (en) * 2004-08-27 2006-03-03 서동휘 Method and device for transmitting and receiving graphic emoticons, and method for mapping graphic emoticons
CA2481065C (en) * 2004-09-07 2014-01-21 Research In Motion Limited System and method for inserting a graphic object in to a text based message
BRPI0419168B1 (en) * 2004-09-24 2017-05-16 Nokia Corp electronic device comprising detecting a user's input during an idle operating mode
JP2006134288A (en) * 2004-10-06 2006-05-25 Sharp Corp Interface and interface program executed by computer
US20060080616A1 (en) * 2004-10-13 2006-04-13 Xerox Corporation Systems, methods and user interfaces for document workflow construction
US7603105B2 (en) 2004-11-12 2009-10-13 Research In Motion Limited Method of making phone calls from a locked out handheld electronic device and a handheld electronic device incorporating the same
US7925996B2 (en) * 2004-11-18 2011-04-12 Microsoft Corporation Method and system for providing multiple input connecting user interface
US20060123360A1 (en) * 2004-12-03 2006-06-08 Picsel Research Limited User interfaces for data processing devices and systems
WO2006075334A2 (en) * 2005-01-16 2006-07-20 Zlango Ltd. Iconic communication
TWI254558B (en) 2005-01-18 2006-05-01 Asustek Comp Inc Mobile communication device with a transition effect function
US20060209035A1 (en) 2005-03-17 2006-09-21 Jenkins Phillip D Device independent specification of navigation shortcuts in an application
US7340686B2 (en) 2005-03-22 2008-03-04 Microsoft Corporation Operating system program launch menu search
US7506268B2 (en) * 2005-04-07 2009-03-17 Microsoft Corporation User interface with visual tracking feature
US7512898B2 (en) * 2005-04-07 2009-03-31 Microsoft Corporation User interface with multi-state menu
US7614016B2 (en) 2005-04-21 2009-11-03 Microsoft Corporation Multiple roots in navigation pane
US7530029B2 (en) 2005-05-24 2009-05-05 Microsoft Corporation Narrow mode navigation pane
US20060277460A1 (en) 2005-06-03 2006-12-07 Scott Forstall Webview applications
US7195170B2 (en) 2005-06-09 2007-03-27 Fuji Xerox Co., Ltd. Post-bit: multimedia ePaper stickies
US7432928B2 (en) 2005-06-14 2008-10-07 Microsoft Corporation User interface state reconfiguration through animation
US7676767B2 (en) 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
US8963926B2 (en) 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
JP2007052403A (en) * 2005-07-19 2007-03-01 Canon Inc Display apparatus, method, and program, and storage medium
JP4815927B2 (en) * 2005-07-27 2011-11-16 ソニー株式会社 DISPLAY DEVICE, MENU DISPLAY METHOD, MENU DISPLAY METHOD PROGRAM, AND RECORDING MEDIUM CONTAINING MENU DISPLAY METHOD PROGRAM
US20070055947A1 (en) * 2005-09-02 2007-03-08 Microsoft Corporation Animations and transitions
EP1934691A1 (en) * 2005-09-14 2008-06-25 Nokia Corporation A device, method, computer program and user interface for enabling a user to vary which items are displayed to the user
US20070067738A1 (en) 2005-09-16 2007-03-22 Microsoft Corporation Extensible, filtered lists for mobile device user interface
US20070152980A1 (en) * 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
US20070072602A1 (en) * 2005-09-21 2007-03-29 Iyer Radha J Automated reply to voice call
US7966577B2 (en) 2005-10-11 2011-06-21 Apple Inc. Multimedia control center
US8769408B2 (en) * 2005-10-07 2014-07-01 Apple Inc. Intelligent media navigation
US7603424B2 (en) * 2005-11-03 2009-10-13 Research In Motion Limited Method and system for generating template replies to electronic mail messages
US7730425B2 (en) * 2005-11-30 2010-06-01 De Los Reyes Isabelo Function-oriented user interface
US20070132789A1 (en) * 2005-12-08 2007-06-14 Bas Ording List scrolling in response to moving contact over list of index symbols
KR100801089B1 (en) 2005-12-13 2008-02-05 삼성전자주식회사 Mobile device and operation method control available for using touch and drag
EP1801711A1 (en) * 2005-12-21 2007-06-27 Transmedia Communications Sàrl Method for remotely organizing audio-visual items stored in a central database
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US7509588B2 (en) * 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US8370360B2 (en) 2005-12-31 2013-02-05 G & G Commerce Ltd. Merchandise recommending system and method thereof
EP1977312A2 (en) * 2006-01-16 2008-10-08 Zlango Ltd. Iconic communication
US7961903B2 (en) * 2006-01-25 2011-06-14 Microsoft Corporation Handwriting style data input via keys
US8139514B2 (en) 2006-02-24 2012-03-20 Yahoo! Inc. Method and system for communicating with multiple users via a map over the internet
US7450003B2 (en) 2006-02-24 2008-11-11 Yahoo! Inc. User-defined private maps
JP2007274240A (en) * 2006-03-30 2007-10-18 Nec Corp Mobile terminal
EP1840512B1 (en) * 2006-03-31 2013-03-06 Research In Motion Limited Method and apparatus for providing map locations in user applications using URL strings
US8968077B2 (en) * 2006-04-13 2015-03-03 Idt Methods and systems for interfacing with a third-party application
US8548452B2 (en) 2006-04-13 2013-10-01 Blackberry Limited System and method for controlling device usage
US20070245250A1 (en) 2006-04-18 2007-10-18 Microsoft Corporation Microsoft Patent Group Desktop window manager using an advanced user interface construction framework
US7783990B2 (en) 2006-05-05 2010-08-24 Microsoft Corporation Association of display elements
US8255819B2 (en) 2006-05-10 2012-08-28 Google Inc. Web notebook tools
US8571580B2 (en) * 2006-06-01 2013-10-29 Loopt Llc. Displaying the location of individuals on an interactive map display on a mobile communication device
KR100827230B1 (en) 2006-06-09 2008-05-07 삼성전자주식회사 Portable device and method for providing menu icon
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US7880728B2 (en) 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
US8369843B2 (en) * 2006-07-27 2013-02-05 Research In Motion Limited Method of responding to an incoming communication received by a handheld device
US20080034309A1 (en) 2006-08-01 2008-02-07 Louch John O Multimedia center including widgets
US7996789B2 (en) 2006-08-04 2011-08-09 Apple Inc. Methods and apparatuses to control application programs
US7805684B2 (en) 2006-09-01 2010-09-28 Nokia Corporation Mobile communications terminal
US10313505B2 (en) * 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9304675B2 (en) * 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US7853972B2 (en) 2006-09-11 2010-12-14 Apple Inc. Media preview user interface
US20080104515A1 (en) 2006-10-30 2008-05-01 Dan Dumitru System and method for slide presentation
US8161395B2 (en) * 2006-11-13 2012-04-17 Cisco Technology, Inc. Method for secure data entry in an application
WO2008064483A1 (en) 2006-11-30 2008-06-05 James Andrew Wanless A method and system for providing automated real-time contact information
KR100822295B1 (en) * 2006-12-07 2008-04-16 삼성전자주식회사 Method and system for transferring message in mobile communication terminal
US8373799B2 (en) * 2006-12-29 2013-02-12 Nokia Corporation Visual effects for video calls
US8214768B2 (en) 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US7890778B2 (en) 2007-01-06 2011-02-15 Apple Inc. Power-off methods for portable electronic devices
US20080168367A1 (en) * 2007-01-07 2008-07-10 Chaudhri Imran A Dashboards, Widgets and Devices
JP4189004B2 (en) * 2007-01-10 2008-12-03 シャープ株式会社 Portable information terminal and control program
US7742774B2 (en) * 2007-01-11 2010-06-22 Virgin Mobile Usa, L.P. Location-based text messaging
US20080182628A1 (en) * 2007-01-26 2008-07-31 Matthew Lee System and method for previewing themes
US8996045B2 (en) * 2007-01-29 2015-03-31 Blackberry Limited Method of e-mailing a map location using predefined context-sensitive messages
US8601370B2 (en) 2007-01-31 2013-12-03 Blackberry Limited System and method for organizing icons for applications on a mobile device
US20080189108A1 (en) 2007-02-05 2008-08-07 Comverse Ltd. Text messaging in a telephony network
US20080242423A1 (en) 2007-03-27 2008-10-02 Shelford Securities, S.A. Real-money online multi-player trivia system, methods of operation, and storage medium
US20080268882A1 (en) 2007-04-30 2008-10-30 Palm, Inc. Short message service enhancement techniques for added communication options
US9317110B2 (en) 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US20080300572A1 (en) 2007-06-01 2008-12-04 Medtronic Minimed, Inc. Wireless monitor for a personal medical device system
US8218734B2 (en) 2007-06-12 2012-07-10 Microsoft Corporation Messaging with a locked communication device
US9772751B2 (en) * 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
GB2450757A (en) 2007-07-06 2009-01-07 Sony Comp Entertainment Europe Avatar customisation, transmission and reception
US9591086B2 (en) 2007-07-25 2017-03-07 Yahoo! Inc. Display of information in electronic communications
US8146005B2 (en) 2007-08-07 2012-03-27 International Business Machines Corporation Creating a customized avatar that reflects a user's distinguishable attributes
US20090055484A1 (en) 2007-08-20 2009-02-26 Thanh Vuong System and method for representation of electronic mail users using avatars
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US11126321B2 (en) * 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US8446371B2 (en) 2007-12-19 2013-05-21 Research In Motion Limited Method and apparatus for launching activities
US11641418B2 (en) * 2007-12-31 2023-05-02 Bklk Ltd. Method and a system for rapid awareness, recognition, and response to digital messages
US8356258B2 (en) 2008-02-01 2013-01-15 Microsoft Corporation Arranging display areas utilizing enhanced window states
US20090222765A1 (en) * 2008-02-29 2009-09-03 Sony Ericsson Mobile Communications Ab Adaptive thumbnail scrollbar
US20100211899A1 (en) 2009-02-17 2010-08-19 Robb Fujioka Virtual Marketplace Accessible To Widgetized Avatars
US20100211900A1 (en) 2009-02-17 2010-08-19 Robb Fujioka Virtual Marketplace Accessible To Widgetized Avatars
US20110025707A1 (en) 2009-02-17 2011-02-03 Robb Fujioka Virtual Marketplace Accessible To Widgetized Avatars
US9744466B2 (en) 2008-03-13 2017-08-29 Mattel, Inc. Widgetized avatar and a method and system of creating and using same
US8640040B2 (en) * 2008-03-28 2014-01-28 Sprint Communications Company L.P. Persistent event-management access in a mobile communications device
US8832552B2 (en) 2008-04-03 2014-09-09 Nokia Corporation Automated selection of avatar characteristics for groups
US20090254799A1 (en) * 2008-04-04 2009-10-08 Michael Unger System for creating graphical display from text
US20090271731A1 (en) 2008-04-27 2009-10-29 Htc Corporation Electronic device and user interface display method thereof
US10022631B2 (en) 2008-06-02 2018-07-17 Nike, Inc. System and method for creating an avatar
KR100989624B1 (en) * 2008-09-18 2010-10-26 오광만 Method for inputting Special Emoticon Character on Mobile Communication Terminal
US8941642B2 (en) 2008-10-17 2015-01-27 Kabushiki Kaisha Square Enix System for the creation and editing of three dimensional models
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US20100169376A1 (en) 2008-12-29 2010-07-01 Yahoo! Inc. Visual search engine for personal dating
US9542038B2 (en) 2010-04-07 2017-01-10 Apple Inc. Personalizing colors of user interfaces
TWI439960B (en) 2010-04-07 2014-06-01 Apple Inc Avatar editing environment
US8694899B2 (en) 2010-06-01 2014-04-08 Apple Inc. Avatars reflecting user states
US20110298808A1 (en) 2010-06-02 2011-12-08 Toyota Motor Engineering & Manufacturing North America, Inc. Animated Vehicle Attendance Systems
US20110304629A1 (en) 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
JP5134653B2 (en) 2010-07-08 2013-01-30 株式会社バンダイナムコゲームス Program and user terminal
CN102347912B (en) 2010-08-02 2014-11-05 腾讯科技(深圳)有限公司 Method and system for obtaining dynamic update in instant messaging software
US8558844B2 (en) 2010-09-28 2013-10-15 Apple Inc. Systems, methods, and computer-readable media for changing colors of displayed assets
WO2012048347A1 (en) 2010-10-08 2012-04-12 Brian Lee Moffat Private data sharing system
JP2012181704A (en) 2011-03-01 2012-09-20 Sony Computer Entertainment Inc Information processor and information processing method
US9563703B2 (en) 2011-03-10 2017-02-07 Cox Communications, Inc. System, method and device for sharing of playlists of authorized content with other users
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US10262327B1 (en) 2011-09-22 2019-04-16 Glance Networks, Inc. Integrating screen sharing sessions with customer relationship management
US8867849B1 (en) 2011-10-05 2014-10-21 Google Inc. Suggesting profile images for a social network
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
US9402057B2 (en) 2012-04-02 2016-07-26 Argela Yazilim ve Bilisim Teknolojileri San. ve Tic. A.S. Interactive avatars for telecommunication systems
CN111275795A (en) 2012-04-09 2020-06-12 英特尔公司 System and method for avatar generation, rendering and animation
US20140115451A1 (en) 2012-06-28 2014-04-24 Madeleine Brett Sheldon-Dante System and method for generating highly customized books, movies, and other products
US9936165B2 (en) 2012-09-06 2018-04-03 Intel Corporation System and method for avatar creation and synchronization
US20140078144A1 (en) 2012-09-14 2014-03-20 Squee, Inc. Systems and methods for avatar creation
US9148489B2 (en) 2013-03-11 2015-09-29 Qualcomm Incorporated Exchanging a contact profile between client devices during a communication session
US20140279062A1 (en) 2013-03-15 2014-09-18 Rodan & Fields, Llc Consultant tool for direct selling
US9460541B2 (en) 2013-03-29 2016-10-04 Intel Corporation Avatar animation, social networking and touch screen applications
IL226047A (en) 2013-04-29 2017-12-31 Hershkovitz Reshef May Method and system for providing personal emoticons
US10877629B2 (en) 2016-10-13 2020-12-29 Tung Inc. Conversion and display of a user input
US9489760B2 (en) 2013-11-14 2016-11-08 Intel Corporation Mechanism for facilitating dynamic simulation of avatars corresponding to changing user performances as detected at computing devices
CN104836879A (en) 2014-02-12 2015-08-12 腾讯科技(深圳)有限公司 Address list updating method, server and system
US20150254886A1 (en) 2014-03-07 2015-09-10 Utw Technology Co., Ltd. System and method for generating animated content
JP2017511056A (en) 2014-03-09 2017-04-13 ディロ,インコーポレーテッド Group-sourcing contact list management system and method
CN106104633A (en) 2014-03-19 2016-11-09 英特尔公司 Facial expression and/or the mutual incarnation apparatus and method driving
US9536228B2 (en) 2014-07-31 2017-01-03 Gretel, LLC Contact management systems
US20160057087A1 (en) 2014-08-21 2016-02-25 Facebook, Inc. Processing media messages based on the capabilities of the receiving device
US20160055370A1 (en) 2014-08-21 2016-02-25 Futurewei Technologies, Inc. System and Methods of Generating User Facial Expression Library for Messaging and Social Networking Applications
KR101540544B1 (en) 2014-09-05 2015-07-30 서용창 Message service method using character, user device for performing the method, message application comprising the method
WO2016045010A1 (en) 2014-09-24 2016-03-31 Intel Corporation Facial gesture driven animation communication system
EP3614304A1 (en) 2014-11-05 2020-02-26 INTEL Corporation Avatar video apparatus and method
US9491258B2 (en) 2014-11-12 2016-11-08 Sorenson Communications, Inc. Systems, communication endpoints, and related methods for distributing images corresponding to communication endpoints
WO2016101124A1 (en) 2014-12-23 2016-06-30 Intel Corporation Sketch selection for rendering 3d model avatar
JP6461630B2 (en) 2015-02-05 2019-01-30 任天堂株式会社 COMMUNICATION SYSTEM, COMMUNICATION DEVICE, PROGRAM, AND DISPLAY METHOD
KR102450865B1 (en) 2015-04-07 2022-10-06 인텔 코포레이션 Avatar keyboard
US20160307028A1 (en) 2015-04-16 2016-10-20 Mikhail Fedorov Storing, Capturing, Updating and Displaying Life-Like Models of People, Places And Objects
KR102305525B1 (en) 2015-06-09 2021-09-27 삼성전자주식회사 SCHEME for sharing USER profile INFORMATION Using user equipment in mobile communication system
US9891933B2 (en) 2015-06-24 2018-02-13 International Business Machines Corporation Automated testing of GUI mirroring
US10171985B1 (en) 2015-07-22 2019-01-01 Ginko LLC Method and apparatus for data sharing
US11048739B2 (en) 2015-08-14 2021-06-29 Nasdaq, Inc. Computer-implemented systems and methods for intelligently retrieving, analyzing, and synthesizing data from databases
US10475225B2 (en) 2015-12-18 2019-11-12 Intel Corporation Avatar animation system
US10366090B2 (en) 2016-03-30 2019-07-30 Facebook, Inc. Displaying temporary profile content items on communication networks
US10592098B2 (en) 2016-05-18 2020-03-17 Apple Inc. Devices, methods, and graphical user interfaces for messaging
US10491553B2 (en) 2016-05-26 2019-11-26 International Business Machines Corporation Dynamically integrating contact profile pictures into messages based on user input
CN106101358A (en) 2016-05-27 2016-11-09 珠海市魅族科技有限公司 A kind of method of contact person information updating and smart machine
US10607386B2 (en) 2016-06-12 2020-03-31 Apple Inc. Customized avatars and associated framework
US10855632B2 (en) 2016-07-19 2020-12-01 Snap Inc. Displaying customized electronic messaging graphics
US11003898B2 (en) 2016-07-25 2021-05-11 BGR Technologies Pty Limited Creating videos with facial expressions
US20180047200A1 (en) 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
EP3654290A1 (en) 2016-09-23 2020-05-20 Apple Inc. Avatar creation and editing
US10528801B2 (en) 2016-12-07 2020-01-07 Keyterra LLC Method and system for incorporating contextual and emotional visualization into electronic communications
US10242503B2 (en) 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
WO2018148084A1 (en) 2017-02-07 2018-08-16 Iot Holdings, Inc. System and method to prevent surveillance and preserve privacy in virtual reality
KR20180120449A (en) 2017-04-27 2018-11-06 삼성전자주식회사 Method for sharing profile image and electronic device implementing the same
CN107171934B (en) 2017-05-05 2019-10-25 沈思远 Information processing method, instant communication client and the system of immediate communication tool
DK179867B1 (en) 2017-05-16 2019-08-06 Apple Inc. RECORDING AND SENDING EMOJI
US10397391B1 (en) 2017-05-22 2019-08-27 Ginko LLC Two-way permission-based directory of contacts
US20190114037A1 (en) 2017-10-17 2019-04-18 Blend Systems, Inc. Systems and methods for distributing customized avatars responsive to events
CN107613085A (en) 2017-10-31 2018-01-19 武汉诚迈科技有限公司 Automatic mobile phone address book update method, server and user terminal
WO2019108702A1 (en) 2017-11-29 2019-06-06 Snap Inc. Graphic rendering for electronic messaging applications
KR102565755B1 (en) 2018-02-23 2023-08-11 삼성전자주식회사 Electronic device for displaying an avatar performed a motion according to a movement of a feature point of a face and method of operating the same
KR102661019B1 (en) 2018-02-23 2024-04-26 삼성전자주식회사 Electronic device providing image including 3d avatar in which motion of face is reflected by using 3d avatar corresponding to face and method for operating thefeof
US11062494B2 (en) 2018-03-06 2021-07-13 Didimo, Inc. Electronic messaging utilizing animatable 3D models
WO2019183276A1 (en) 2018-03-20 2019-09-26 Wright Rocky Jerome Augmented reality and messaging
WO2019198850A1 (en) 2018-04-13 2019-10-17 라인플러스 주식회사 Method and system for generating animal-shaped avatar by using human face
US10607065B2 (en) 2018-05-03 2020-03-31 Adobe Inc. Generation of parameterized avatars
US10953334B2 (en) 2019-03-27 2021-03-23 Electronic Arts Inc. Virtual character generation from image or video data
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications

Also Published As

Publication number Publication date
US8255810B2 (en) 2012-08-28
KR20150084072A (en) 2015-07-21
KR101590457B1 (en) 2016-02-04
US11307763B2 (en) 2022-04-19
KR101787035B1 (en) 2017-11-15
US20190199848A1 (en) 2019-06-27
JP2015215914A (en) 2015-12-03
KR101590462B1 (en) 2016-02-04
HK1204115A1 (en) 2015-11-06
US20120319985A1 (en) 2012-12-20
US20220221985A1 (en) 2022-07-14
JP6085006B2 (en) 2017-02-22
CN102265586B (en) 2014-07-16
CN104133589A (en) 2014-11-05
JP2012509641A (en) 2012-04-19
JP2019164804A (en) 2019-09-26
US20100125811A1 (en) 2010-05-20
KR20110089429A (en) 2011-08-08
JP2014002755A (en) 2014-01-09
JP5319781B2 (en) 2013-10-16
CN104156142A (en) 2014-11-19
US20210227065A1 (en) 2021-07-22
KR20130064806A (en) 2013-06-18
KR101317547B1 (en) 2013-10-16
CN104133589B (en) 2018-06-15
KR20160018816A (en) 2016-02-17
WO2010059306A2 (en) 2010-05-27
CN104156142B (en) 2017-10-24
US20100123724A1 (en) 2010-05-20
US20100125785A1 (en) 2010-05-20
US8584031B2 (en) 2013-11-12
KR101967353B1 (en) 2019-04-10
JP2017097911A (en) 2017-06-01
JP6584710B2 (en) 2019-10-02
KR20170118237A (en) 2017-10-24
US20240168628A1 (en) 2024-05-23
CN102265586A (en) 2011-11-30
JP6518705B2 (en) 2019-05-22
HK1203671A1 (en) 2015-10-30

Similar Documents

Publication Publication Date Title
JP6584710B2 (en) Portable touch screen device, method and graphic user interface for using emoji characters
US20210328960A1 (en) Portable multifunction device, method, and graphical user interface for an email client
US9632695B2 (en) Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US10025501B2 (en) Touch screen device, method, and graphical user interface for inserting a character from an alternate keyboard
US9372620B2 (en) Portable multifunction device, method, and graphical user interface for interacting with user input elements in displayed content

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140630

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140926

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141001

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141030

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150427

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150626

R150 Certificate of patent or registration of utility model

Ref document number: 5771243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250