JP2019207726A - エモティコンを識別および提案するためのシステムおよび方法 - Google Patents
エモティコンを識別および提案するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2019207726A JP2019207726A JP2019136207A JP2019136207A JP2019207726A JP 2019207726 A JP2019207726 A JP 2019207726A JP 2019136207 A JP2019136207 A JP 2019136207A JP 2019136207 A JP2019136207 A JP 2019136207A JP 2019207726 A JP2019207726 A JP 2019207726A
- Authority
- JP
- Japan
- Prior art keywords
- emoticons
- emoticon
- user
- candidate
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/18—Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
- Input From Keyboards Or The Like (AREA)
- Document Processing Apparatus (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】テキストのセグメントに基づき、エモティコンの候補を提示する方法及びシステムを提供する。【解決手段】方法300は、セグメントのセットをテキストフィールドから受け取るステップ302と、セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するようセグメントのセットを分析するステップ304と、候補のエモティコンのセットを識別するステップ306と、エントリ選択のために入力カーソルの現在位置に候補のエモティコンのセットを提示するステップ308と、候補のエモティコンのセットからの選択されるエモティコンのセットについて、エントリ選択を受け取るステップ310と、選択されるエモティコンのセットをテキストフィールドにおける入力カーソルの現在位置に挿入するステップ312と、を含む。【選択図】図3
Description
発明の分野
本願明細書において記載される発明は一般的にエモティコン(emoticon)に関する。より特定的には、本発明は、コンピューティングデバイス上でのさまざまなアクティビティの間にエモティコンを識別および提案するためのシステムおよび方法に関する。
本願明細書において記載される発明は一般的にエモティコン(emoticon)に関する。より特定的には、本発明は、コンピューティングデバイス上でのさまざまなアクティビティの間にエモティコンを識別および提案するためのシステムおよび方法に関する。
関連技術の記載
元々、エモティコンは、文字、数および記号のようなコンピュータキーボード上に一般的に見出される文字(例えばASCII文字)によって示される顔表現であった。これらの元々のエモティコンは、著者による電子メッセージまたは電子投稿(たとえば電子掲示板)中に配置されると、著者の気分を伝えるか、または当該メッセージもしくは投稿の全体的な感情を伝達する/高めるよう意図されていた。最初は、これらのエモティコンは、幸福、怒り、悲しみおよび無関心といった気分を表すことに制限されていた。しかしながら徐々に、これらの文字ベースのエモティコンキャラクタ(以下、「文字エモティコン」)の使用は、意味とメッセージとを伝達することへと拡大した。
元々、エモティコンは、文字、数および記号のようなコンピュータキーボード上に一般的に見出される文字(例えばASCII文字)によって示される顔表現であった。これらの元々のエモティコンは、著者による電子メッセージまたは電子投稿(たとえば電子掲示板)中に配置されると、著者の気分を伝えるか、または当該メッセージもしくは投稿の全体的な感情を伝達する/高めるよう意図されていた。最初は、これらのエモティコンは、幸福、怒り、悲しみおよび無関心といった気分を表すことに制限されていた。しかしながら徐々に、これらの文字ベースのエモティコンキャラクタ(以下、「文字エモティコン」)の使用は、意味とメッセージとを伝達することへと拡大した。
最終的にエモティコンはさらに、タイプ、可用性、および使用において拡大した。今日、エモティコンは、文字エモティコンと、グラフィカルイメージによって示されるエモティコン(以下、「グラフィカルエモティコン」)とを含む。グラフィカルエモティコンの可用性により、ユーザは、文字エモティコンだけでは可能ではなかったより多くの気分、意味およびメッセージを表現することができる。ここで、文字エモティコンおよびグラフィカルエモティコンの両方は、さまざまなデジタルデバイス(たとえばモバイルテレコミュニケーションデバイスおよびタブレット)を通じて利用可能であり、特にインターネットに関するさまざまなコンピューティングアクティビティにおいて用いられている。たとえば、グラフィカルエモティコンは、個人的な電子メールを作成する際、メッセージをインターネット上に投稿する際(たとえばソーシャルネットワーキングサイトまたはウェブフォーラム上)、およびモバイルデバイス同士の間でメッセージ通信を行う際の使用に一般に利用可能である。一般に、ユーザがエモティコンに適用可能なコンピューティングアクティビティを行なう際には、ユーザはメニューまたはライブラリを通じてエモティコンにアクセスし得る。ユーザは、当該メニューまたはライブラリから、コンピューティングアクティビティで使用されるエモティコンをブラウズおよび選択し得る。
グラフィカルエモティコンの出現により、ユーザが選ぶことができるエモティコンの数は膨大に増加したという問題がある。ほとんどすべての想像可能な事項に利用可能なグラフィカルエモティコンが存在する。エモティコンの数、使用、可用性および多様性の拡大により、エモティコンを適用可能なコンピューティングアクティビティに参加している際に所与のコンテキストについて、ブラウズして適切なエモティコンを選択することは、ユーザにとってかなり時間を浪費することであり得、時に閉口させられることである。
実施の形態の概要
本願明細書において論じられるさまざまな実施の形態は、テキストのセグメントについてエモティコンを識別および提案するためのシステムおよび方法を提供する。いくつかのシステムおよび方法は、コンピューティングデバイス上でのユーザアクティビティの間に用いられ得る。ユーザアクティビティは、インスタントメッセージング、オンラインチャ
ットルームへの参加、電子メールの作成、ウェブブログの投稿、またはウェブフォーラムへの投稿を含むが、これらに限定されない。
本願明細書において論じられるさまざまな実施の形態は、テキストのセグメントについてエモティコンを識別および提案するためのシステムおよび方法を提供する。いくつかのシステムおよび方法は、コンピューティングデバイス上でのユーザアクティビティの間に用いられ得る。ユーザアクティビティは、インスタントメッセージング、オンラインチャ
ットルームへの参加、電子メールの作成、ウェブブログの投稿、またはウェブフォーラムへの投稿を含むが、これらに限定されない。
例示的な方法は、セグメントのセットをテキストフィールドから受け取るステップと、上記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう上記セグメントのセットを分析するステップと、候補のエモティコンのセットを識別するステップとを含み、上記候補のエモティコンのセットにおける各候補のエモティコンは、上記候補のエモティコンと上記目標サブテキストまたは上記目標意味の少なくとも1つとの間に関連性を有している。上記方法はさらに、エントリ選択のために入力カーソルの現在位置に上記候補のエモティコンのセットを提示するステップと、上記候補のエモティコンのセットからの選択されるエモティコンのセットについて、エントリ選択を受け取るステップと、上記選択されるエモティコンのセットを上記テキストフィールドにおける上記入力カーソルの現在位置に挿入するステップを含んでもよい。上記セグメントのセットは上記テキストフィールドにおける入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含んでもよく、上記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでもよく、上記選択されるエモティコンのセットは1つ以上の選択されるエモティコンを含んでもよい。実施の形態に依存して、上記セグメントのセットを分析するステップは、上記セグメントのセットの意味分析を含んでもよい。
いくつかの実施の形態の場合、各関連性は、上記目標サブテキストまたは上記目標意味の少なくとも1つとの上記候補のエモティコンの統計的な使用を含んでもよい。さらに、いくつかの実施の形態の場合、上記方法は、上記選択されるエモティコンのセットについての上記エントリ選択に基づき、上記候補のエモティコンの上記統計的な使用を更新するステップをさらに含んでもよい。実施の形態に依存して、上記統計的な使用は単一のユーザまたは複数のユーザによる使用に基づいてもよい。
エントリ選択のために上記エモティコンのセットを提示するステップは、エントリ選択のために上記入力カーソルの現在位置または現在位置の近くに上記エモティコンを表示するステップを含んでもよい。エントリ選択のために上記候補のエモティコンのセットを提示するステップは、エントリ選択のために物理的な入力装置または仮想入力装置(たとえばオンスクリーンキーボードまたは投影されたキーボード)上に上記候補のエモティコンのセットを表示するステップを含んでもよく、上記物理的な入力装置および表示された入力インターフェイスは、上記エントリ選択を実行するよう構成される。実施の形態に依存して、上記仮想入力装置は、上記テキストフィールドも表示している表示装置によって表示されてもよい。さらに、上記仮想入力装置は、上記テキストフィールドに近接近して表示されてもよい。
いくつかの実施の形態では、上記方法はさらに、構文分析を用いて上記セグメントのセットを識別するステップを含んでもよい。対象の各セグメントは、入力カーソルの現在位置の前または後に存在する単語、文の断片、文、句、または節の少なくとも1つを含んでもよい。
特定の実施の形態では、上記候補のエモティコンのセットを識別するステップはさらに、少なくともユーザプレファレンス、ユーザに関連する情報、または受信者に関連する情報に基づいてもよい。上記ユーザに関連する情報は、ユーザの興味と、ユーザの民族性と、ユーザの宗教と、ユーザの地理的位置と、ユーザの年齢と、ユーザの関係ステータスと、ユーザの職業とを含んでもよい。上記受信者に関連する情報は、ユーザに対する受信者の関係と、受信者の興味と、受信者の民族性と、受信者の宗教と、受信者の地理的位置と、受信者の年齢と、受信者の関係ステータスと、受信者の職業とを含んでもよい。
例示的なシステムは、プロセッサと、表示モジュールと、入力モジュールと、セグメント分析モジュールと、エモティコン検索モジュールと、エモティコン提案モジュールと、エモティコン選択モジュールとを含む。上記表示モジュールは、テキストフィールドと上記テキストフィールドに入力される1つ以上のセグメントとを表示するよう構成されてもよい。
上記入力モジュールは、セグメント入力をユーザから受け取り、上記セグメント入力を上記テキストフィールド内に入力カーソルにて入力するよう構成されてもよい。セグメント分析モジュールは、セグメントのセットを上記テキストフィールドから受け取るよう構成されてもよく、上記セグメントのセットは上記テキストフィールドにおける上記入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含む。上記セグメント分析モジュールはさらに、上記プロセッサを用いて、上記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう上記セグメントのセットを分析するよう構成されてもよい。上記エモティコン検索モジュールは、候補のエモティコンのセットを識別するよう構成されてもよく、上記候補のエモティコンのセットにおける各候補のエモティコンは、上記候補のエモティコンと上記目標サブテキストまたは上記目標意味の少なくとも1つとの間に関連性を有しており、上記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでいる。上記エモティコン提案モジュールは、エントリ選択のために上記入力カーソルの現在位置に上記表示モジュールを通じて上記候補のエモティコンのセットを提示するよう構成されてもよい。上記エモティコン選択モジュールは、上記候補のエモティコンのセットからの選択されるエモティコンのセットについて、上記入力モジュールからエントリ選択を受け取るよう構成されてもよく、上記選択されるエモティコンのセットは1つ以上の選択されるエモティコンを含む。上記エモティコン選択モジュールはさらに、上記選択されるエモティコンのセットを上記テキストフィールドにおける上記入力カーソルの現在位置に挿入するよう構成されてもよい。
いくつかの実施の形態では、上記システムは、上記テキストフィールドへのエントリが可能な1つ以上のエモティコンを含むエモティコンデータストアをさらに含み、上記エモティコン検索モジュールはさらに、上記エモティコンデータストア上の候補のエモティコンのセットを識別するよう構成される。
さまざまな実施の形態では、各関連性は、上記目標サブテキストまたは上記目標意味の少なくとも1つとの上記候補のエモティコンの統計的な使用を含んでもよく、上記エモティコン選択モジュールはさらに、上記選択されるエモティコンのセットについての上記エントリ選択に基づき、上記候補のエモティコンの上記統計的な使用を更新するよう構成されてもよい。
いくつかの実施の形態では、エントリ選択のために上記表示モジュールを通じて上記エモティコンのセットを提示することは、エントリ選択のために上記入力カーソルの現在位置または現在位置の近くに上記エモティコンを表示することを含んでもよい。上記入力モジュールは物理的な入力装置または仮想入力装置を含んでもよく、上記物理的な入力装置および仮想入力インターフェイスは、上記エントリ選択を実行するよう構成される。
いくつかの実施の形態の他の特徴および局面は、添付の図面に関連して解釈される、さまざまな実施の形態に従って特徴を例示目的で記載する以下の詳細な説明から明らかになるであろう。
以下の図を参照してさまざまな実施の形態が詳細に記載される。当該図面は、例示目的
にのみ提供されており、単にいくつかの例示的な実施の形態を示す。これらの図面は、さまざまな実施の形態についての読者の理解を促進するために提供されており、実施の形態の広さ、範囲または適用可能性を限定するとは考えられるべきではない。
にのみ提供されており、単にいくつかの例示的な実施の形態を示す。これらの図面は、さまざまな実施の形態についての読者の理解を促進するために提供されており、実施の形態の広さ、範囲または適用可能性を限定するとは考えられるべきではない。
実施の形態の詳細な説明
本願明細書において記載される多くの実施の形態は、テキストフィールドへの文字のタイピングを伴う、コンピューティングデバイス上でのさまざまなアクティビティの間に、エモティコンを識別および提案するシステムおよび方法に関する。さまざまなシステムおよび方法が、テキストフィールドに存在するセグメントのコンテキストの分析をするとともにそのコンテキストに基づいてテキストフィールドへのエントリに利用可能な1つ以上の候補のエモティコンを識別することにより、エモティコンを識別し得る。その後、ユーザは候補のエモティコンから1つ以上のエモティコンを選択し得、選択されるエモティコンは、テキストフィールドに入力され得る。随意では、ユーザは、エモティコンの提案を完全に無視するよう選択し、コンピューティングデバイス上の自身のアクティビティを継続し得る。この記載において使用されるように、「セグメント」は、単語、句、文の断片、文または節を示す1つ以上の文字を含み得る。
本願明細書において記載される多くの実施の形態は、テキストフィールドへの文字のタイピングを伴う、コンピューティングデバイス上でのさまざまなアクティビティの間に、エモティコンを識別および提案するシステムおよび方法に関する。さまざまなシステムおよび方法が、テキストフィールドに存在するセグメントのコンテキストの分析をするとともにそのコンテキストに基づいてテキストフィールドへのエントリに利用可能な1つ以上の候補のエモティコンを識別することにより、エモティコンを識別し得る。その後、ユーザは候補のエモティコンから1つ以上のエモティコンを選択し得、選択されるエモティコンは、テキストフィールドに入力され得る。随意では、ユーザは、エモティコンの提案を完全に無視するよう選択し、コンピューティングデバイス上の自身のアクティビティを継続し得る。この記載において使用されるように、「セグメント」は、単語、句、文の断片、文または節を示す1つ以上の文字を含み得る。
実施の形態に依存して、テキストフィールドに存在するセグメントのコンテキストの分析は、それらのセグメントの意味解析を必要とし得る、それらのセグメントに関するサブテキストまたは意味を決定することを伴い得る。さらに、本願明細書に記載されるように、特定の候補のエモティコンと特定のサブテキストまたは意味との間の関連性は、特定のサブテキストまたは意味を持つ特定の候補のエモティコンの(過去の)統計的な使用に基づき得る。さまざまな実施の形態では、このようなエモティコンの使用は、特定のサブテキストもしくは意味(たとえば特定のサブテキストもしくは意味における提案されるエモティコンのユーザの選択)との特定のエモティコンのユーザの個人的な使用に基づき得るか、または特定のサブテキストもしくは意味(たとえばユーザのコミュニティによるソーシャルネットワーク上の投稿におけるあるエモティコンの観察された使用)を持つ特定のエモティコンのコミュニティの使用に基づき得る。
図1は、さまざまな実施の形態が用いられ得る環境100の例を示す。環境100は、タブレットコンピューティングデバイス104と、タブレットコンピューティングデバイス104に結合されたローカルのエモティコンデータストア102と、スマートフォンコンピューティングデバイス108と、スマートフォンコンピューティングデバイス108に結合されたローカルのエモティコンデータストア106と、デスクトップコンピューティングデバイス112と、デスクトップコンピューティングデバイス112に結合された
ローカルのエモティコンデータストア114と、エモティコン提案サーバ116と、エモティコン提案サーバ116に結合されたローカルのエモティコンデータストア118とを含む。環境100はさらに通信ネットワーク110を含む。通信ネットワーク110上で、タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108、デスクトップコンピューティングデバイス112およびエモティコン提案サーバ116が通信する。タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108、デスクトップコンピューティングデバイス112、およびエモティコン提案サーバ116は、プロセッサおよびメモリを有するデジタルデバイスの例である。さまざまな実施の形態が用いられ得る他の例示的なデジタルデバイスは、ラップトップ、ネットブック、ノートブック、メディアデバイス、音楽デバイス、携帯情報端末(PDA)などを含む。例示的なデジタルデバイスが、図7にさらに記載される。
ローカルのエモティコンデータストア114と、エモティコン提案サーバ116と、エモティコン提案サーバ116に結合されたローカルのエモティコンデータストア118とを含む。環境100はさらに通信ネットワーク110を含む。通信ネットワーク110上で、タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108、デスクトップコンピューティングデバイス112およびエモティコン提案サーバ116が通信する。タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108、デスクトップコンピューティングデバイス112、およびエモティコン提案サーバ116は、プロセッサおよびメモリを有するデジタルデバイスの例である。さまざまな実施の形態が用いられ得る他の例示的なデジタルデバイスは、ラップトップ、ネットブック、ノートブック、メディアデバイス、音楽デバイス、携帯情報端末(PDA)などを含む。例示的なデジタルデバイスが、図7にさらに記載される。
いくつかの実施の形態に従うと、タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108、およびデスクトップコンピューティングデバイス112は、入力のためのエモティコンを識別および提案するためのシステムおよび方法を利用する例示的なデジタルデバイスであり得る。たとえば、このようなコンピューティングデバイスは、ユーザがこのようなコンピューティングデバイス上でインスタントメッセージングアプリケーションを使用している場合、またはユーザがこのようなコンピューティングデバイスを通じてウェブサイトフォーラムにメッセージを投稿している場合に、ある実施の形態を用いてエモティコンを識別および提案し得る。本願明細書において記載されるさまざまな実施の形態に関連して他のデジタルデバイスが用いられ得ることが当業者には理解されるであろう。
いくつかの実施の形態では、エモティコン提案サーバ116は、デジタルデバイスにてユーザのためにエモティコンの識別および提案を促進し得る。本願明細書において後述されるように、エモティコン提案サーバ116は、セグメントのコンテキストを決定し得るか、決定されたコンテキストに基づいて1つ以上の候補のエモティコンを識別し得るか、デジタルデバイスに1つ以上の候補のエモティコンを提案し得るか、またはそれらの何らかの組合せを行い得る。さまざまな実施の形態の場合、エモティコン提案サーバ116は、エモティコン提案サーバ116がインターネットサービスにエモティコンの提案機能性を提供する場合、インターネットサービスをホストするサーバ上で動作するサービスであり得る。たとえば、エモティコン提案サーバ116は、エモティコン提案サーバ116によってサービスが提供されている(すなわちエモティコン提案サーバ116によってエモティコンの提案が提供されている)ウェブサイト(たとえばウェブサイトフォーラムまたはソーシャルネットワーキングウェブサイト)をホストしているウェブサーバ上で動作するサービスであり得る。
実施の形態に依存して、エモティコンを識別および提案するためのさまざまな動作およびコンポーネントは、エモティコンの提案を利用するデジタルデバイスに分離され得るか、または2つ以上のデジタルデバイスの間で変動するレベルで分散され得る。たとえば、スマートフォンコンピューティングデバイス108上で電子メールを作成する際にエモティコンを識別、提案、および入力するためのシステムまたは方法は、スマートフォンコンピューティングデバイス108上に格納および動作される電子メールアプリケーションに完全に埋め込まれ得る。代替的な例においては、ウェブサイトフォーラムのためにメッセージ投稿を準備するようタブレットコンピューティングデバイス104を使用している間、エモティコンを識別、提案、および入力するためのシステムまたは方法は、タブレットコンピューティングデバイス104を利用して、現在準備されるメッセージのコンテキストを決定し、エモティコン提案サーバ116を利用して、現在準備されるメッセージにおいて使用される1つ以上の候補のエモティコンを識別し、次いで、タブレットコンピュー
ティングデバイス104を利用して、提案されるエモティコンとして候補のエモティコンを提示し得る。
ティングデバイス104を利用して、提案されるエモティコンとして候補のエモティコンを提示し得る。
エモティコン提案サーバ116は、デジタルデバイスへのエモティコンの識別および提案の間、リモートのエモティコンデータストア118を利用し得る。ある実施の形態の場合、リモートのエモティコンデータストア118は、エモティコン提案サーバ116による提案に利用可能なエモティコンのライブラリと、当該ライブラリにおけるエモティコンとコンテキスト(たとえばサブテキストおよび意味)との間の関連性とを含み得る。たとえば、リモートのエモティコンデータストア118は、「幸せな顔」のエモティコンのライブラリと、「幸せな顔」のエモティコンと幸福なコンテキストとの間の関連性とを含み得る。別の例では、リモートのエモティコンデータストア118は、「サンフランシスコ」のエモティコンのライブラリと、「サンフランシスコ」のエモティコンとサンフランシスコの町を明示的または暗黙的に指すコンテキストとの間の関連性とを含み得る。いくつかの実施の形態の場合、リモートのエモティコンデータストア118は、所与のエモティコンと所与のコンテキスト(たとえばサブテキストまたは意味)との間の2つ以上の関連性を含み得る。たとえば、リモートのエモティコンデータストア118は、「しかめっ面」のエモティコンのライブラリと、「しかめっ面」のエモティコンと悲しいコンテキストとの間の関連性と、「しかめっ面」のエモティコンと不快なコンテキストとの間の関連性とを含み得る。さまざまなエモティコンライブラリおよびエモティコンとコンテキストとの間のさまざまな関連性が、リモートのエモティコンデータストア118上に格納され得るということを当業者であれば理解するであろう。
実施の形態に依存して、エモティコンのライブラリは、任意のユーザによってアクセス可能なエモティコンか、(たとえば、プレミアムに基づくか、またはあるグループにのみアクセス可能であるといった)アクセスが制限された限定されたグループのユーザによってアクセス可能なエモティコンか、ユーザがカスタマイズしたエモティコンもしくはユーザがアップロードしたエモティコン、またはユーザのお気に入りであるエモティコンを含み得る。著者の気分または感情を伝える文字エモティコンおよびグラフィカルエモティコンに加えて、さまざまな実施の形態において使用されるエモティコンは、関心事、趣味、地理的な位置、イベント、休日、季節および天候などに関するエモティコンを含み得る。エモティコン提案データストア118上に格納されたエモティコンは、文字エモティコン、グラフィカルエモティコン、グラフィカルにアニメーション化されたエモティコン、および音を伴ったエモティコンを含み得る。いくつかの実施の形態の場合、リモートのエモティコンデータストア118はさらに、提案に好適なエモティコンを識別する際に実施の形態において利用され得るユーザプレファレンス、ユーザ情報または受信者情報を含み得る。たとえば、リモートのエモティコンデータストア118は、任意のユーザに一般に利用可能なエモティコンを提案する前に、ユーザが規定したエモティコンまたはユーザがアップロードしたエモティコンを実施の形態に提案させるユーザプレファレンスを格納し得る。別の例では、リモートのエモティコンデータストア118は、実施の形態によってユーザに提案された第1のエモティコンを実施の形態に自動的に挿入させるか、または所与のコンテキストにおいてもっとも使用が高い提案されるエモティコンを実施の形態に自動的に挿入させるユーザプレファレンスを格納し得る。
いくつかの実施の形態では、タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108およびデスクトップコンピューティングデバイス112は各々、別個のローカルのエモティコンデータストアに結合され得る。別個のローカルのエモティコンデータストアは、ユーザがカスタマイズしたエモティコン、ユーザのお気に入りもしくはユーザが好むエモティコン、ローカルのエモティコン上に格納されたエモティコンとコンテキスト(たとえばサブテキストまたは意味)との間の関連性、エモティコンの識別および提案に関してのユーザプレファレンス、ユーザに関連する情報、
または受信者に関連する情報を格納可能である。たとえば、タブレットコンピューティングデバイス104は、ローカルのエモティコンデータストア102に結合され得、スマートフォンコンピューティングデバイス108は、結合されたローカルのエモティコンデータストア106に結合され得、デスクトップコンピューティングデバイス112は、ローカルのエモティコンデータストア114に結合され得る。
または受信者に関連する情報を格納可能である。たとえば、タブレットコンピューティングデバイス104は、ローカルのエモティコンデータストア102に結合され得、スマートフォンコンピューティングデバイス108は、結合されたローカルのエモティコンデータストア106に結合され得、デスクトップコンピューティングデバイス112は、ローカルのエモティコンデータストア114に結合され得る。
さらに、ローカルのエモティコンデータストア102、106および114の各々は、それらのそれぞれのコンピューティングデバイスによって用いられて、以前に提案されたエモティコンまたは以前にユーザによって選択された提案されたエモティコンをローカルにキャッシュし得る。その際、いくつかの実施の形態は、当該提案されたエモティコンについてエモティコン提案サーバ116がクエリを受ける回数を制限しつつ、共通して発生するコンテキストについて同じエモティコンを繰り返し提案し得る。いくつかの実施の形態の場合、ローカルのエモティコンデータストア102、106および114にキャッシュされたエモティコンは、失効時間を有し得る。当該失効時間の後、キャッシュされたエモティコンは無効化またはパージされる。ひとたびキャッシュ中のエモティコンアイテムが失効すると、いくつかの実施の形態は、提案されるエモティコンについてエモティコン提案サーバ116にクエリを送ることを再開する。
図2は、いくつかの実施の形態に従った例示的なエモティコン提案システム200のブロック図である。エモティコン提案システム200は、表示モジュール202、入力モジュール204、セグメント分析モジュール206、エモティコン検索モジュール208、エモティコン提案モジュール210、エモティコン選択モジュール212、およびエモティコンデータストア214を含み得る。いくつかの実施の形態では、エモティコン提案システム200はさらに、エモティコン提案システム200に含まれるさまざまなモジュールの動作を促進するメモリおよび少なくとも1つのプロセッサを含み得る。
表示モジュール202は、テキストフィールドまたはテキストボックスのような入力フィールドを表示し得る。入力フィールドに、ユーザは入力モジュール204を使用して、1つ以上のセグメント、文字エモティコンまたはグラフィカルエモティコンを入力し得る。典型的に、セグメントおよびエモティコンは、入力フィールドに入力されると、入力フィールドに現われる。本願明細書において示されるように、「セグメント」は、単語、句、文の断片、文または節を示す1つ以上の文字を含み得る。入力フィールドの一部として、表示モジュール202は、ユーザの文字入力が次にどこに入力されるか、またはエモティコンが次にどこに入力されるかを示す入力カーソルを表示し得る。
本願明細書において示されるように、さまざまな実施の形態は、入力フィールド内の入力カーソルの現在位置、入力の現在のセグメント内容、ユーザに関連する情報、受信者に関連する情報、ユーザプレファレンスまたはそれらの何らかの組合せに基づき、エモティコンを提案し得る。一般に、ひとたび1つ以上の候補のエモティコンがユーザへの提案のために(たとえば、入力フィールドのセグメント内容に基づいて)識別されると、候補のエモティコンは表示モジュール202を介してユーザに提案され得る。具体的には、表示モジュール202は、ユーザの選択のために、入力フィールドにおける入力カーソルの現在位置または当該現在位置の近くに、候補のエモティコンを表示し得る。実施の形態に依存して、表示モジュール202は、コールアウトボックスを介して、入力フィールドまたはその入力フィールドの近くに、候補のエモティコンを表示し得る。
いくつかの実施の形態の場合、表示モジュール202は、デジタルデバイス(たとえばビデオディスプレイまたはビデオプロジェクタ)の一部を形成し得る。当該デジタルデバイスは、デジタルデバイスからのグラフィカル出力をすべて表示することを担い得る。いくつかの実施の形態では、表示モジュール202は、グラフィカルユーザインターフェイ
ス(GUI)の一部として、入力フィールドを表示し得る。たとえば、入力フィールドは、デジタルデバイス上で動作するアプリケーションのグラフィカルコンポーネントであり得る(たとえば電子メールクライアントもしくはインスタントメッセージングアプリケーション)か、またはデジタルデバイス上で動作するアプリケーションを通じて閲覧可能もしくは編集可能である文書のグラフィカル表示であり得る(たとえば、ウェブブラウザを通じて示されるウェブページのテキストフィールドもしくはワードプロセッサを通じて示される文書)。当業者であれば、実施の形態同士の間で入力フィールドのタイプとサイズが変動し得るということを理解するであろう。
ス(GUI)の一部として、入力フィールドを表示し得る。たとえば、入力フィールドは、デジタルデバイス上で動作するアプリケーションのグラフィカルコンポーネントであり得る(たとえば電子メールクライアントもしくはインスタントメッセージングアプリケーション)か、またはデジタルデバイス上で動作するアプリケーションを通じて閲覧可能もしくは編集可能である文書のグラフィカル表示であり得る(たとえば、ウェブブラウザを通じて示されるウェブページのテキストフィールドもしくはワードプロセッサを通じて示される文書)。当業者であれば、実施の形態同士の間で入力フィールドのタイプとサイズが変動し得るということを理解するであろう。
入力モジュール204は、ユーザから文字入力を受け取り得、受け取られたようにこのような文字入力を入力フィールドに入力し得る。文字入力が入力フィールドに入力されると、表示モジュール202は、当該文字入力で入力フィールドを更新し得る。さらに、さまざまな実施の形態に従うと、入力モジュール204は、提案されるエモティコンについてのエントリ選択を受け取り得る。一般に、選択に際して、選択されるエモティコンは、入力フィールドにおける入力カーソルの現在位置に挿入され得る。実施の形態に依存して、入力モジュールは、デジタルデバイスに外部的に結合されるか、またはデジタルデバイスに物理的に埋め込まれる物理的な入力装置を含み得る。物理的な入力装置の例は、キーボード、トラックパッドまたはコンピュータマウスを含み得るが、これらに限定されない。いくつかの実施の形態では、入力モジュールは、レーザ投射されたキーボードまたはオンスクリーンキーボードのような仮想入力装置を含み得る。仮想入力装置は、表示モジュール202を通じてユーザに提供され得る(すなわち表示され得る)。さまざまな実施の形態において、仮想入力装置が使用される際には、このような仮想入力装置は、セグメントが入力される入力フィールドまたはその入力フィールドの近くに表示され得る。
図6にさらに記載されるように、いくつかの実施の形態において、提案されるエモティコンは、入力モジュール204を通じてユーザに提示され得る。たとえば、入力モジュール204が物理的なキーボードを含む場合、物理的なキーボードは、提案されるエモティコンを当該物理的なキーボードを通じて表示するように構成され得る。いくつかの実施の形態の場合、物理的なキーボードは、埋め込まれたディスプレイ(たとえばLCDボタン)を含むキーもしくはボタンによって、または物理的なキーボードの表面上(たとえばキーボードの頂部)に埋め込まれたディスプレイによって、提案されるエモティコンを表示し得る。実施の形態に依存して、提案されるエモティコンは、物理的なキーボードを通じてカラーまたはグレイスケールで表示され得る。提案されるエモティコンが物理的なキーボードを通じて表示される際、ユーザは、物理的なキーボードのキーまたはボタンを通じて、当該提案されるエモティコンの1つ以上を選択し得る。
別の例では、入力モジュール204が、(何らかのタブレットコンピューティングデバイスおよびスマートフォンコンピューティングデバイス上に存在するもののような)オンスクリーンキーボードを含む場合、オンスクリーンキーボードの外観は、オンスクリーンキーボードを通じて、提案されるエモティコンを表示するよう再構成され得る。いくつかの実施の形態の場合、オンスクリーンキーボードの外観は、オンスクリーンキーボードのあるボタンが、提案されるエモティコンボタンに置換されるように再構成され得るか、またはオンスクリーンキーボードが、付加的な提案されるエモティコンボタンで強化されるように再構成され得る。提案されるエモティコンボタンは、ひとたびオンスクリーンキーボードを通じて提示されると、1つ以上の提案されるエモティコンから選択するようユーザによって使用され得る。
セグメント分析モジュール206は、入力フィールドに存在する1つ以上のセグメントを分析し、分析されたセグメントについてコンテキストを決定し得る。本願明細書に記載されるように、セグメント分析モジュール206によって決定されたコンテキストはその
後、ユーザに提案されるべき候補のエモティコンを識別する際に、利用され得る。さまざまな実施の形態では、セグメント分析モジュール206は、入力フィールドにおけるセグメントのコンテキストを決定する際に、入力フィールドから対象のセグメントのみを分析し得る。
後、ユーザに提案されるべき候補のエモティコンを識別する際に、利用され得る。さまざまな実施の形態では、セグメント分析モジュール206は、入力フィールドにおけるセグメントのコンテキストを決定する際に、入力フィールドから対象のセグメントのみを分析し得る。
いくつかの実施の形態では、セグメント分析モジュール206はまず、入力フィールドにおける対象のセグメントを識別し、次いで、コンテキストを決定するよう対象のそれらのセグメントを分析する。一般に、対象のセグメントは、入力フィールドにおける入力カーソルの現在位置に関連して識別される。さらにいくつかの実施の形態の場合、セグメント分析モジュール206は、対象のセグメントを識別する際に、入力フィールドに現在存在するセグメントの構文分析を行ない得る。
実施の形態に依存して、セグメント分析モジュール206は、対象のセグメント識別プロセスをガイドする条件付きまたは非条件付きのルールに基づいて、対象のセグメントを識別し得る。対象のセグメントを識別するための例示的なルールは、対象のセグメントとして、入力フィールドにおける入力カーソルの現在位置の直前の文の断片または文を識別することを含み得る。対象のセグメントを識別するための別の例示的なルールは、対象のセグメントとして、入力フィールドにおける入力カーソルの現在位置の直後の文の断片または文を識別することを含み得る。いくつかの実施の形態の場合、ルールは、対象のセグメントを決定するよう、セグメント分析モジュール206によって行なわれた構文分析に関連して利用され得る。
1つより多い対象のセグメントが識別される場合、セグメント分析モジュール206は、対象のセグメントの各々のコンテキストを分析し得るか、または(たとえば、対象のあるセグメントが他のセグメントより重要性が高くなる重み付けシステムに基づいて)もっとも重要でない対象のセグメント以外のコンテキストを分析し得る。さらに1つ以上のルールは、2つ以上の対象のセグメントが識別される場合、対象のセグメントのうちどれを分析すべきかを決定し得る。
セグメント分析モジュール206は、対象のセグメントからの2つ以上のコンテキストを決定し得る。このような場合、エモティコン提案システム200は、決定されたコンテキストのすべてに関連付けられる候補のエモティコンを検索し得るか、または(たとえばルールに基づいて決定された)もっとも重要なコンテキストのうち1つ以上にマッチする候補のエモティコンのみを検索し得る。
対象の1つ以上のセグメントのコンテキストを決定するよう、セグメント分析モジュール206は、入力フィールドに存在する対象のセグメントを意味分析し得る。当業者であれば、このセグメントの意味分析は、当該技術において公知の1つ以上の技術に従って行なわれ得るということを理解するであろう。対象の1つ以上のセグメントのコンテキストを分析する場合、セグメント分析モジュール206は、対象のセグメントについてのサブテキストまたは意味を決定し得る。対象のセグメントについて識別されたサブテキストまたは意味に基づいて、エモティコン提案システム200は、提案のために1つ以上の候補のエモティコンを識別し得る。対象のセグメントのサブテキストは、当該対象のセグメントについて気分または感情を識別し得る。対象のセグメントについての例示的なサブテキストは、幸福、悲しみ、無関心、怒り、憤慨、悔恨または興奮を含み得るがこれらに限定されない。対象のセグメントについての意味は、対象のセグメントについての明示的な意味を識別し得る。たとえば、対象のセグメントが「新しい仕事をゲットした!」と記載する場合、セグメント分析モジュール206は対象のセグメントについての意味を「新しい仕事」として識別し得る。
なお、いくつかの実施の形態の場合、セグメント分析モジュール206は、入力モジュール204を使用してユーザが文字またはエモティコンを加えるかまたは入力フィールドから文字またはエモティコンを取り除く際に、リアルタイムまたはほぼリアルタイムで対象のセグメントを識別および分析し得る。
エモティコン検索モジュール208は、対象のセグメントの識別されたコンテキスト(たとえばサブテキストまたは意味)に基づいて、1つ以上の候補のエモティコンを検索し得る。いくつかの実施の形態では、エモティコン検索モジュール208は、エモティコン提案システム200によって識別された1つ以上のコンテキストに関連したエモティコンを求めて、エモティコンデータストア214を検索し得る。本願明細書に記載されるように、エモティコンデータストア214は、入力フィールドへの入力に利用可能なエモティコンと、エモティコンと1つ以上のコンテキストとの間の関連性とを含み得る。
本願明細書において示されるように、所与のエモティコンと所与のコンテキストとの間の関連性は、当該所与のコンテキストとの所与のエモティコンの統計的な使用を含み得る。所与のエモティコンと所与のコンテキストとの間の関連性の強さは、このような統計的な使用に基づき得る。さらに、統計的な使用は、所与の内容との所与のエモティコンのユーザ自身の使用に基づき得るか、またはユーザのコミュニティによる所与の内容との所与のエモティコンの使用(たとえばソーシャルネットワーキングウェブサイト上の所与のコンテキストにおける所与のエモティコンの使用)に基づき得る。
一般に、所与のコンテキストとの所与のエモティコンの使用が多くなるほど、当該所与のエモティコンと所与のコンテキストとの間の関連性が強くなる。いくつかの実施の形態の場合、エモティコンとコンテキストとの間の関連性の強さは、当該コンテキストについてのエモティコンを提案することにおける信頼性を示し得る。関連性の強さも、もっとも高い強さからもっとも低いの強さまで1つ以上の候補のエモティコンに優先順位を付けて提示するよう使用され得る。
いくつかの実施の形態では、エモティコン検索エンジンモジュール208による1つ以上の候補のエモティコンの検索は、エモティコンとコンテキストとの間の関連性の強さを考慮し得る。たとえば、エモティコン検索エンジンモジュール208は、エモティコンと目標コンテキストとの間の関連性の強さが所定のしきい値に合致または超える場合、単にエモティコンを候補のエモティコンとして識別し得る。さらに、エモティコン検索エンジンモジュール208は、あるエモティコンと目標コンテキストとの間の関連性の強さが、他の潜在的な候補のエモティコンに対するしきい値に合致または越える場合に、単に当該エモティコンを候補のエモティコンとして識別し得る。
本願明細書において示されたように、さまざまな実施の形態において、エモティコン検索モジュール208は、ユーザプレファレンス、ユーザに関連する情報、受信者に関連する情報、またはそれらの何らかの組合せを用いることによって、候補のエモティコンの検索をさらに狭め得る。ユーザプレファレンスの例は、他のタイプのエモティコンの前に、ユーザがカスタマイズしたエモティコンを提案するプレファレンスと、あるカテゴリのエモティコンを無視するプレファレンス(たとえば、ユーザに関して年齢が適切であるエモティコンのみを提案する)とを含み得るがこれらに限定されない。受信者に関連する情報の例は、ユーザの興味、ユーザの民族性、ユーザの宗教、ユーザの地理的位置、ユーザの年齢、ユーザの関係ステータス、およびユーザの職業を含み得るがこれらに限定されない。ユーザに関連する情報の例は、ユーザに対する受信者の関係と、受信者の興味と、受信者の民族性と、受信者の宗教と、受信者の地理的位置と、受信者の年齢と、受信者の関係ステータスと、受信者の職業とを含み得るがこれらに限定されない。ある実施の形態では、1つ以上の候補のエモティコンを検索する際、エモティコン検索モジュール208は、
さらに、文字エモティコンまたはグラフィカルエモティコンを受け取ることにおいて入力フィールドの制限を考慮し、それにしたがって候補のエモティコンを検索し得る。
さらに、文字エモティコンまたはグラフィカルエモティコンを受け取ることにおいて入力フィールドの制限を考慮し、それにしたがって候補のエモティコンを検索し得る。
エモティコン提案モジュール210は、対象のセグメントの識別されたコンテキストに基づいて特定された1つ以上の候補のエモティコンを受け取り、選択のためにユーザに当該1つ以上の候補のエモティコンを提示し得る。本願明細書に示されるように、いくつかの実施の形態において、エモティコン提案モジュール210は、エントリ選択のために1つ以上の候補のエモティコンを入力フィールドにおける入力カーソルの現在位置またはその現在位置の近くに表示するよう表示モジュール202を使用し得る。さらに本願明細書において示されるように、さまざまな実施の形態において、エモティコン提案モジュール210は、物理的な入力装置または仮想入力装置を通じて、エントリ選択のために1つ以上の候補のエモティコンを表示するよう入力モジュール202を使用し得る。
エモティコン選択モジュール212は、ユーザに提案される1つ以上の候補のエモティコンについてエントリ選択をユーザから受け取り得る。特定の実施の形態において、エモティコン選択モジュール212は、入力モジュール204を通じて1つ以上の候補のエモティコンについてエントリ選択を受け取り得、エモティコン選択モジュール212は、入力フィールドに1つ以上の選択されるエモティコンを入力し得る。本願明細書において示されるように、エモティコン選択モジュール212は、入力カーソルの現在位置に、1つ以上の選択されるエモティコンを入力し得る。いくつかの実施の形態の場合、エモティコン選択モジュール212は、入力フィールド内のセグメントまたは対象のセグメントを1つ以上の選択されるエモティコンに置換することによって、入力フィールドに1つ以上の選択されるエモティコンを入力し得る。さらに、いくつかの実施の形態は、モジュール212があるガイドラインに基づいて、提案されるエモティコンを自動選択するように(たとえばユーザプレファレンスを使用して)ユーザがエモティコン選択モジュール212を設定することを可能にする。たとえばユーザは、エモティコンの提案がなされると、第1の提案されたエモティコンが選択されるように、エモティコン選択モジュール212を構成し得る。
いくつかの実施の形態では、エモティコンとコンテキストとの間の関連性がこのようなコンテキストとのこのようなエモティコンの統計的な使用を含む場合、エモティコン選択モジュール212は、ユーザから受け取られたエントリ選択に基づいて、統計的使用情報を更新し得る。特に、エモティコン選択モジュール212は、所与のコンテキストについての1つ以上の候補のエモティコンのエントリ選択を受け取り、選択された候補のエモティコンとそれらの使用のそれぞれのコンテキストとの間で、格納された統計的使用情報を更新し得る。実施の形態に依存して、エモティコン選択モジュール212は、エモティコンデータストア214上の統計的使用情報を更新し得る。
エモティコンデータストア214は、エモティコン提案システム200による提案に利用可能なエモティコンのライブラリと、ライブラリにおけるエモティコンとコンテキスト(たとえばサブテキストおよび意味)との間の関連性とを含み得る。エモティコン検索モジュール208は、1つ以上の特定のコンテキストに関連付けられる1つ以上の候補のエモティコンを検索する場合、エモティコンデータストア214にアクセスし得る。本願明細書において示されるように、いくつかの実施の形態の場合、エモティコンデータストア214は、所与のエモティコンと所与のコンテキスト(たとえばサブテキストまたは意味)との間の2つ以上の関連性を含み得る。さらに、所与のエモティコンと所与のコンテキストとの間の関連性は、所与のコンテキストとの所与のエモティコンの統計的な使用を含み得る。このような統計的な使用は、エモティコンとコンテキストとの間の関連性の強さを反映し得る。
エモティコンデータストア214上に格納されたエモティコンは、文字エモティコン、グラフィカルエモティコン、グラフィカルにアニメーション化されたエモティコン、および音を伴ったエモティコンを含み得る。いくつかの実施の形態の場合、エモティコンデータストア214はさらに、提案に好適なエモティコンを識別する際に、実施の形態において用いられ得るユーザプレファレンス、ユーザ情報、または受信者情報を含み得る。たとえば、エモティコンデータストア214は、任意のユーザに一般に利用可能なエモティコンを提案する前に、ユーザが規定したエモティコンまたはユーザがアップロードしたエモティコンを実施の形態に提案させるユーザプレファレンスを格納し得る。別の例では、エモティコンデータストア214は、実施の形態によってユーザに提案された第1のエモティコンを実施の形態に自動的に挿入させるユーザプレファレンスか、または所与のコンテキストにおいてもっとも高い使用を有する提案されるエモティコンを実施の形態に自動的に挿入させるユーザプレファレンスを格納し得る。
当業者は、さまざまなエモティコンライブラリおよびエモティコンとコンテキストとの間のさまざまな関連性は、エモティコンデータストア214上に格納され得るということを理解するであろう。
「モジュール」は、ソフトウェア、ハードウェア、ファームウェアおよび/または回路網を含み得るということが理解されるであろう。一例では、プロセッサによって実行可能な命令を含む1つ以上のソフトウェアプログラムが、本願明細書において記載されたモジュールの機能の1つ以上を実行し得る。別の例では、回路網が、同じまたは同様の機能を実行し得る。代替的な実施の形態は、より多い、より少ない、または機能的に等価なモジュールを含み得、これも本実施の形態の範囲内である。たとえば、さまざまなモジュールの機能は、異なって組み合わせられるまたは分割され得る。たとえば、さまざまなモジュールの機能は、エモティコン提案サーバに存在する1つ以上のモジュールの間で分散され得、1つ以上のモジュールがエモティコン提案クライアントに存在する。
図3は、いくつかの実施の形態に従った、エモティコンを識別および提案するための例示的な方法300のフローチャートである。ステップ302において、セグメント分析モジュール206は、表示モジュール202を通じて表示され得る入力フィールドから1つ以上のセグメントを受け取り得る。本願明細書において示されるように、1つ以上のセグメントを受け取る際、セグメント分析モジュール206は、コンテキスト分析の目的のために、対象のセグメントを識別し得る。
ステップ304では、セグメント分析モジュール206は、セグメントの1つ以上の目標サブテキストまたは1つ以上の目標意味を決定するよう1つ以上のセグメントを分析し得る。セグメントの目標サブテキストおよび目標意味は、セグメントに関連した1つ以上のコンテキストを提供する。実施の形態に依存して、セグメント分析モジュール206は、セグメント分析モジュール206によって対象のセグメントとして識別されたセグメントのみを分析し得る。
ステップ306では、エモティコン検索モジュール208は、1つ以上の目標コンテキストとの関連性を有する1つ以上の候補のエモティコンか、またはセグメント分析モジュール206によって決定され得た1つ以上の目標意味を識別し得る。いくつかの実施の形態では、エモティコン検索モジュール208は、目標サブテキストまたは目標意味と関連性とを有する、エモティコンデータストア214中の1つ以上の候補のエモティコンを識別し得る。本願明細書において示されるように、各関連性の強さは、所与のコンテキストとの所与のエモティコンの統計的な使用に基づき得、エモティコン検索モジュール208が1つ以上の候補のエモティコンを識別する際には、このような強さが考慮に入れられ得る。
ステップ308では、エモティコン提案モジュール210は、入力フィールドにおける入力カーソルの現在位置に、エントリ選択のためにユーザに1つ以上の候補のエモティコンを提示し得る。本願明細書に記載されるように、入力フィールドおよびその中の入力カーソルは、表示モジュール202を通じてユーザに表示され得る。いくつかの実施の形態の場合、エモティコン提案モジュール210は、表示モジュール202を使用して、エントリ選択のためにユーザに1つ以上の候補のエモティコンを提示し得、入力フィールドにおける入力カーソルの現在位置またはその現在位置の近くに候補のエモティコンを表示し得る。さらに、エモティコン提案モジュール210は、入力モジュール204の1つ以上の入力装置を通じてエントリ選択のためにユーザに1つ以上の候補のエモティコンを提示し得る。たとえば、エモティコン提案モジュール210は、ディスプレイを有する物理的なキーボードのような物理的な入力装置を通じてまたはオンスクリーンキーボードのような仮想入力装置を通じて、ユーザに1つ以上の候補のエモティコンを提示し得る。
ステップ310では、エモティコン選択モジュール212は、1つ以上の候補のエモティコンからの1つ以上の選択したエモティコンについて、ユーザからエントリ選択を受け取り得る。いくつかの実施の形態の場合、エモティコン選択モジュール212は、入力モジュール204からエントリ選択を受け取り得る。さらに、エントリ選択を受け取る際に、エモティコン選択モジュール212は、1つ以上の候補のエモティコンについて、エントリ選択に基づき、エモティコンデータストア214上で統計的使用情報を更新し得、これにより、候補のエモティコンと特定のコンテキストとの間の関連性を強くするまたは弱くする。
ステップ312では、エントリ選択に基づき、エモティコン選択モジュール212は、テキストフィールドにおける入力カーソルの現在位置に、エモティコン選択モジュール212によって受け取られた1つ以上の候補のエモティコンを挿入し得る。本願明細書において示されるように、いくつかの実施の形態において、入力フィールドへの候補のエモティコンのエントリは、入力フィールドにおける1つ以上のセグメントを、選択されるエモティコンに置換することを伴い得る。
図4は、いくつかの実施の形態に従った、クライアントサーバアーキテクチャを使用する例示的なエモティコン提案システム400のブロック図である。エモティコン提案システム400は、エモティコン提案クライアント402およびエモティコン提案サーバ420を含み得る。いくつかの実施の形態では、エモティコン提案クライアント402は、図7に記載されるデジタルデバイスまたは図1に記載されるコンピューティングデバイス(すなわちタブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108およびデスクトップコンピューティングデバイス112)と同様であり得、エモティコン提案サーバ420は、図7に記載されるデジタルデバイスまたは図1に記載されたエモティコン提案サーバ116と同様であり得る。エモティコン提案クライアント402およびエモティコン提案サーバ420は、通信ネットワーク418上で互いに通信し得る。
エモティコン提案クライアント402は、表示モジュール404、入力モジュール406、セグメント分析モジュール408、エモティコン検索モジュール410、ローカルのエモティコンデータストア412、エモティコン提案モジュール414、およびエモティコン選択モジュール416を含み得る。エモティコン提案サーバ420は、エモティコン検索エンジン422と、リモートのエモティコンデータストア424とを含み得る。
エモティコン提案クライアント402では、表示モジュール404は、ユーザが入力モジュール406を使用して、1つ以上のセグメント、文字エモティコンまたはグラフィカ
ルエモティコンを入力し得る入力フィールドを表示し得る。典型的には、セグメントおよびエモティコンは、入力フィールドに入力されると、入力フィールドに現われる。当該入力フィールドにより、表示モジュール404は、入力フィールドに入力カーソルを表示し得る。入力フィールドでは、入力カーソルは、ユーザの文字入力が次にどこに入力されるか、またはエモティコンが次にどこに入力されるかを示す。
ルエモティコンを入力し得る入力フィールドを表示し得る。典型的には、セグメントおよびエモティコンは、入力フィールドに入力されると、入力フィールドに現われる。当該入力フィールドにより、表示モジュール404は、入力フィールドに入力カーソルを表示し得る。入力フィールドでは、入力カーソルは、ユーザの文字入力が次にどこに入力されるか、またはエモティコンが次にどこに入力されるかを示す。
さまざまな実施の形態は、たとえば、入力フィールドにおける入力カーソルの現在位置、入力の現在のセグメント内容、ユーザに関連する情報、受信者に関連する情報、ユーザプレファレンス、またはそれらの何らかの組合せを含む多くの要因に基づき、エモティコンを提案し得る。ひとたび識別された候補のエモティコンは、表示モジュール404を介してユーザに提案され得る。具体的には、表示モジュール404は、ユーザの選択のために、入力フィールドにおける入力カーソルの現在位置またはその現在位置の近くに候補のエモティコンを表示し得る。実施の形態に依存して、表示モジュール404は、コールアウトボックスを介して、入力フィールドまたはその入力フィールドの近くに候補のエモティコンを表示し得る。
表示モジュール404によって、デジタルデバイスは、デジタルデバイスからのすべてのグラフィカル出力を表示し得る。いくつかの実施の形態では、表示モジュール404は、グラフィカルユーザインターフェイス(GUI)の一部として、入力フィールドを表示し得る。実施の形態に依存して、入力フィールドは、デジタルデバイス上で動作するアプリケーションのグラフィカルコンポーネントか、またはデジタルデバイス上で動作するアプリケーションを通じて閲覧可能もしくは編集可能である文書のグラフィカル表現であり得る。入力フィールドは、実施の形態ごとに、タイプおよびサイズが変動し得るということが当業者によって理解されるであろう。
入力モジュール406は、ユーザから文字入力を受け取り、受け取られた文字入力を入力フィールドに入力し得る。文字入力が入力フィールドに入力されると、表示モジュール404は、当該文字入力で入力フィールドを更新し得る。さらに、入力モジュール406は、さまざまな実施の形態に従って提案されるエモティコンについてエントリ選択をさらに受け取り得る。一般に、選択の際、選択されるエモティコンは、入力フィールドにおける入力カーソルの現在位置に挿入され得る。本願明細書において示されるように、入力モジュールは、デジタルデバイスに外部から結合されるかもしくはデジタルデバイスに物理的に埋め込まれた物理的な入力装置か、または表示モジュール404によってユーザに提供され得るオンスクリーンキーボードのような仮想入力装置を含み得る。さまざまな実施の形態において、仮想入力装置が使用される場合、このような仮想入力装置は、セグメントが入力される入力フィールドまたはその入力フィールドの近くに表示され得る。
いくつかの実施の形態の場合、提案されるエモティコンは、入力モジュール406を通じてユーザに提示され得る。たとえば、入力モジュール406が物理的なキーボードを含む場合、物理的なキーボードは、物理的なキーボードを通じて、提案されるエモティコンを表示するように構成され得る。いくつかの実施の形態の場合、物理的なキーボードは、埋め込まれたディスプレイ(たとえばLCDボタン)を含むキーまたはボタンによってか、または物理的なキーボードの表面(たとえばキーボードの頂部)上に埋め込まれたディスプレイによって、提案されるエモティコンを表示し得る。提案されるエモティコンは、物理的なキーボードを通じてカラーまたはグレイスケールで表示され得る。提案されるエモティコンが物理的なキーボードを通じて表示される際、ユーザは、物理的なキーボードのキーまたはボタンを通じて、それらの提案されるエモティコンの1つ以上を選択し得る。
いくつかの実施の形態では、入力モジュール406がオンスクリーンキーボードを含む
場合、オンスクリーンキーボードの外観は、提案されるエモティコンをオンスクリーンキーボードを通じて表示するよう再構成され得る。たとえば、オンスクリーンキーボードの外観は、オンスクリーンキーボードのあるボタンが提案されるエモティコンボタンに置換されるように、またはオンスクリーンキーボードが付加的な提案されるエモティコンボタンで増強されるように、再構成され得る。提案されるエモティコンボタンは、ひとたびオンスクリーンキーボードを通じて提示されると、1つ以上の提案されるエモティコンから選択するようユーザによって使用され得る。
場合、オンスクリーンキーボードの外観は、提案されるエモティコンをオンスクリーンキーボードを通じて表示するよう再構成され得る。たとえば、オンスクリーンキーボードの外観は、オンスクリーンキーボードのあるボタンが提案されるエモティコンボタンに置換されるように、またはオンスクリーンキーボードが付加的な提案されるエモティコンボタンで増強されるように、再構成され得る。提案されるエモティコンボタンは、ひとたびオンスクリーンキーボードを通じて提示されると、1つ以上の提案されるエモティコンから選択するようユーザによって使用され得る。
セグメント分析モジュール408は、入力フィールドに存在する1つ以上のセグメントを分析し得、分析されたセグメントについてコンテキストを決定し得る。本願明細書に記載されるように、セグメント分析モジュール408によって決定されたコンテキストは、ユーザに提案される候補のエモティコンを識別する際に、その後用いられ得る。さまざまな実施の形態では、入力フィールドにおけるセグメントのコンテキストを決定する際に、セグメント分析モジュール408はまず、入力フィールドにおける対象のセグメントを識別し、その後、それらの対象のセグメントのみを分析し得る。
いくつかの実施の形態では、セグメント分析モジュール408は、対象のセグメントを識別する際、入力フィールドに現在存在するセグメントの構文分析を行い得る。さらに、セグメント分析モジュール408は、対象のセグメント識別プロセスをガイドする条件付きまたは非条件付きルールに基づき、対象のセグメントを識別し得る。
対象の1つ以上のセグメントのコンテキストを決定するよう、セグメント分析モジュール408は、入力フィールドに存在する対象のセグメントを意味分析し得る。対象の1つ以上のセグメントのコンテキストを分析する際、セグメント分析モジュール408は、対象のセグメントのサブテキストまたは意味を決定し得る。対象のセグメントのサブテキストは、当該対象のセグメントについて気分または感情を識別し得る。対象のセグメントについて識別されたサブテキストまたは意味に基づき、エモティコン提案システム400は、提案のために1つ以上の候補のエモティコンを識別し得る。
なお、いくつかの実施の形態の場合、セグメント分析モジュール408は、ユーザが入力モジュール408を使用して文字またはエモティコンを入力フィールドに加えるか、または入力フィールドから文字またはエモティコンを取り除く際に、リアルタイムもしくはほぼリアルタイムで、対象のセグメントを識別および分析し得る。
エモティコン検索モジュール410は、対象のセグメントの識別されたコンテキスト(たとえばサブテキストまたは意味)に基づき、1つ以上の候補のエモティコンを検索し得る。いくつかの実施の形態では、1つ以上の特定のコンテキストに関連付けられる1つ以上の候補のエモティコンを検索する際、エモティコン検索モジュール410は、ローカルのエモティコンデータストア412にアクセスし得る。
実施の形態に依存して、ローカルのエモティコンデータストア412は、ユーザがカスタマイズしたエモティコン、ユーザのお気に入りもしくはユーザが好むエモティコン、ローカルのエモティコン上に格納されたエモティコンとコンテキスト(たとえばサブテキストまたは意味)との間の関連性、エモティコンの識別および提案に関してのユーザプレファレンス、ユーザに関連する情報、または受信者に関連する情報を格納し得る。さらに、ローカルのエモティコンデータストア412は、以前に提案されるエモティコンまたは以前にユーザが選択した提案されるエモティコンをローカルにキャッシュするよう用いられ得る。
いくつかの実施の形態では、エモティコン検索モジュール410は、エモティコン提案
サーバ420を用いて、候補のエモティコンを検索してエモティコン提案クライアント402に提供する。たとえば、エモティコン提案サーバ420は、リモートのエモティコンデータストア424上の候補のエモティコンを検索し、得られた候補のエモティコンをエモティコン提案クライアント402上のエモティコン検索モジュール410に提供し得る。エモティコン提案サーバ420は、エモティコン検索エンジン422を使用して、リモートのエモティコンデータストア424上の候補のエモティコンを検索すること、リモートのエモティコンデータストア424から候補のエモティコンを抽出すること、およびエモティコン検索モジュール410に候補のエモティコンを提供することとを行う。
サーバ420を用いて、候補のエモティコンを検索してエモティコン提案クライアント402に提供する。たとえば、エモティコン提案サーバ420は、リモートのエモティコンデータストア424上の候補のエモティコンを検索し、得られた候補のエモティコンをエモティコン提案クライアント402上のエモティコン検索モジュール410に提供し得る。エモティコン提案サーバ420は、エモティコン検索エンジン422を使用して、リモートのエモティコンデータストア424上の候補のエモティコンを検索すること、リモートのエモティコンデータストア424から候補のエモティコンを抽出すること、およびエモティコン検索モジュール410に候補のエモティコンを提供することとを行う。
リモートのエモティコンデータストア424は、エモティコン提案クライアント402への提案に利用可能であるエモティコンのライブラリを含み得る。リモートのエモティコンデータストア424はさらに、ライブラリにおけるエモティコンとコンテキストとの間の関連性を含み得る。ある実施の形態の場合、上記関連性は、コンテキストとの、ライブラリにおけるエモティコンのうち所与のエモティコンの統計的な使用を含む。一般に、このような統計的な使用は、エモティコンとコンテキストとの間の関連性の強さを反映し得る。
本願明細書に示されるように、リモートのエモティコンデータストア424上に格納されたエモティコンは、文字エモティコン、グラフィカルエモティコン、グラフィカルにアニメーション化されたエモティコン、および音を伴ったエモティコンを含み得る。いくつかの実施の形態の場合、リモートのエモティコンデータストア424はさらに、提案に好適なエモティコンを識別する際に、実施の形態において用いられ得るユーザプレファレンス、ユーザ情報、または受信者情報を含み得る。当業者は、さまざまなエモティコンライブラリおよびエモティコンとコンテキストとの間のさまざまな関連性は、リモートのエモティコンデータストア424上に格納され得るということを理解するであろう。
エモティコン提案モジュール414は、対象のセグメントの識別されたコンテキストに基づいて特定された1つ以上の候補のエモティコンを受け取り、選択のためにユーザに当該1つ以上の候補のエモティコンを提示し得る。本願明細書に示されるように、いくつかの実施の形態において、エモティコン提案モジュール414は、エントリ選択のために1つ以上の候補のエモティコンを、入力フィールドにおける入力カーソルの現在位置またはその現在位置の近くに表示するよう表示モジュール414を使用し得る。本願明細書において示されるように、さまざまな実施の形態では、エモティコン提案モジュール414は、物理的な入力装置または仮想入力装置を通じて、エントリ選択のために1つ以上の候補のエモティコンを表示するよう入力モジュール406を使用し得る。
エモティコン選択モジュール416は、ユーザに提案された1つ以上の候補のエモティコンについてエントリ選択をユーザから受け取り得る。特定の実施の形態において、エモティコン選択モジュール416は、入力モジュール404を通じて1つ以上の候補のエモティコンについてエントリ選択を受け取り得、エモティコン選択モジュール416は、入力フィールドに1つ以上の選択されるエモティコンを入力し得る。エモティコン選択モジュール416は、入力カーソルの現在位置に、1つ以上の選択されるエモティコンを入力し得る。さらに、エモティコン選択モジュール416は、入力フィールド内のセグメントまたは対象のセグメントを1つ以上の選択されるエモティコンに置換することによって、入力フィールドに1つ以上の選択されるエモティコンを入力し得る。いくつかの実施の形態では、モジュール416があるガイドラインに基づいて、提案されるエモティコンを自動選択するように、エモティコン選択モジュール416を(たとえばユーザプレファレンスを使用して)ユーザが設定することを可能にする。たとえば、ユーザは、エモティコンの提案がなされると、第1の提案されたエモティコンが選択されるように、エモティコン選択モジュール416を構成し得る。
いくつかの実施の形態では、エモティコンとコンテキストとの間の関連性がこのようなコンテキストとのこのようなエモティコンの統計的な使用を含む場合、エモティコン選択モジュール416は、ユーザから受け取られたエントリ選択に基づいて、統計的使用情報を更新し得る。特に、エモティコン選択モジュール416は、所与のコンテキストについての1つ以上の候補のエモティコンのエントリ選択を受け取り、選択された候補のエモティコンとそれらの使用のそれぞれのコンテキストの間で、格納された統計的使用情報を更新し得る。
実施の形態に依存して、エモティコン選択モジュール416は、ローカルのエモティコンデータストア412上またはリモートのエモティコンデータストア424上の統計的使用情報を更新し得る。たとえば、エモティコン選択モジュール416を通じて選択された1つ以上の候補のエモティコンがエモティコン提案サーバ420から提供された場合、それらの候補のエモティコンについての統計的使用情報は、リモートのエモティコンデータストア424上で更新されることになる。別の例では、エモティコン選択モジュール416を通じて選択された1つ以上の候補のエモティコンがローカルのエモティコンデータストア412から提供された場合、それらの候補のエモティコンについての統計的使用情報は、ローカルのエモティコンデータストア412上で更新されることになる。
図5は、メッセージングアプリケーションのユーザインターフェイス500を示す。当該メッセージングアプリケーションはある実施の形態を利用する。いくつかの実施の形態では、ユーザは、ユーザインターフェイス500を用いて、オンラインチャット上で他のユーザから受け取られたメッセージを受け取ってレビューするとともに、オンラインチャット上で他のユーザへのメッセージを作成および送信し得る。メッセージングアプリケーションは、インスタントメッセージングシステム上のクライアントであり得、メッセージングアプリケーションは、スマートフォンコンピューティングデバイスまたはラップトップといった、ユーザにローカルなデジタルデバイス上で動作している。インスタントメッセージングシステムは、サーバのような別のデジタルデバイス上で動作し得、メッセージングアプリケーションはインスタントメッセージングシステムとインターフェイス接続する。実施の形態に依存して、メッセージングアプリケーションは、スタンドアロンアプリケーションとしてか、またはウェブブラウザを通じて動作するアプレット、プラグインもしくはスクリプトとしてデジタルデバイス上で動作し得る。
メッセージングアプリケーションのユーザインターフェイス500は、会話ペイン502、メッセージ入力フィールド504、および送信ボタン514を含み得る。いくつかの実施の形態については、会話ペイン502は、オンラインチャットに提出されたメッセージを含み得る。そのため、会話ペイン502は、他人からオンラインチャットに提出されたメッセージと、ユーザインターフェイス500を通じてユーザによって提出されたメッセージとを含み得る。ユーザは、メッセージ入力フィールド504を使用して、オンラインチャットへメッセージを提出し得る。特に、ユーザは、オンラインチャットにメッセージを提出することをユーザが所望がする場合に、メッセージ入力フィールド504へメッセージを入力し、送信ボタン514を押し得る。
メッセージ入力フィールド504は、オンラインチャットへの提出のためにユーザによって準備されたメッセージを含み得、当該メッセージを受け取るように構成され得る。メッセージ入力フィールド504は、ユーザから1つ以上のセグメントを受け取り得るか、または、いくつかの実施の形態に従って入力された1つ以上のエモティコンを受け取り得る。メッセージ入力フィールド504はさらに入力カーソル516を含み得る。
ユーザがメッセージ入力フィールド504におけるメッセージを準備する際、さまざま
な実施の形態は、入力カーソル516の現在位置での入力のためにエモティコンを提案し得る。たとえば、ユーザがメッセージ入力フィールド504に「とても楽しかった」と書いた場合、実施の形態は、「とても楽し」を記載する対象のセグメント512の実施の形態の分析に基づき、入力フィールド504へのエントリのために「笑顔」のグラフィカルエモティコン510を提案し得る。実施の形態は、「笑顔」のグラフィカルエモティコン510と、対象のセグメント512のコンテキストとの間の関連性に基づいて、「笑顔」のグラフィカルエモティコン510を提案し得る。ひとたびユーザが「笑顔」のグラフィカルエモティコン510を選択すると、実施の形態は、メッセージ入力フィールド504に「笑顔」のグラフィカルエモティコン510を入力し得る。
な実施の形態は、入力カーソル516の現在位置での入力のためにエモティコンを提案し得る。たとえば、ユーザがメッセージ入力フィールド504に「とても楽しかった」と書いた場合、実施の形態は、「とても楽し」を記載する対象のセグメント512の実施の形態の分析に基づき、入力フィールド504へのエントリのために「笑顔」のグラフィカルエモティコン510を提案し得る。実施の形態は、「笑顔」のグラフィカルエモティコン510と、対象のセグメント512のコンテキストとの間の関連性に基づいて、「笑顔」のグラフィカルエモティコン510を提案し得る。ひとたびユーザが「笑顔」のグラフィカルエモティコン510を選択すると、実施の形態は、メッセージ入力フィールド504に「笑顔」のグラフィカルエモティコン510を入力し得る。
同様に、ユーザが「ありがとう、あなたの町を案内してくれて」とメッセージ入力フィールド504に書く場合、実施の形態は、対象のセグメント514のコンテキスト分析に基づいて、複数のグラフィカルエモティコン506を提案し得る。本願明細書において示されるように、実施の形態は、入力カーソル516の現在位置またはその現在位置の近くに位置決めされたコールアウトボックス508にグラフィカルエモティコン506を表示することによって、提案されたグラフィカルエモティコン506を提示し得る。「あなたの町」と記載する対象のセグメント514の分析に基づいて、実施の形態は、町に関するグラフィカルエモティコン506を提案し得る。
図6は、メッセージングアプリケーションのユーザインターフェイス600を示す。当該メッセージングアプリケーションはある実施の形態を利用する。図5と同様に、ユーザは、ユーザインターフェイス600を用いて、オンラインチャット上で他のユーザから受け取られたメッセージを受け取ってレビューするとともに、オンラインチャット上で他のユーザへのメッセージを作成および送信し得る。メッセージングアプリケーションは、インスタントメッセージングシステム上のクライアントであり得、メッセージングアプリケーションは、スマートフォンコンピューティングデバイスまたはラップトップといった、ユーザにローカルなデジタルデバイス上で動作している。インスタントメッセージングシステムは、サーバのような別のデジタルデバイス上で動作し得、メッセージングアプリケーションはインスタントメッセージングシステムとインターフェイス接続する。実施の形態に依存して、メッセージングアプリケーションは、スタンドアロンアプリケーションとしてか、またはウェブブラウザを通じて動作するアプレット、プラグインもしくはスクリプトとしてデジタルデバイス上で動作し得る。
メッセージングアプリケーションのユーザインターフェイス600は、会話ペイン602、メッセージ入力フィールド604、オンスクリーンキーボード606、および送信ボタン616を含み得る。いくつかの実施の形態の場合、会話ペイン602は、ユーザインターフェイス600を通じてユーザによって提出されたメッセージを含む、オンラインチャットに提出されたメッセージを含み得る。ユーザは、メッセージ入力フィールド604を使用して、オンラインチャットへメッセージを提出し得る。具体的には、ユーザは、オンラインチャットにメッセージを提出することをユーザが所望がする場合に、オンスクリーンキーボード606を用いてメッセージ入力フィールド604へメッセージを入力し、送信ボタン616を押し得る。
メッセージ入力フィールド604は、オンラインチャットへの提出のためにユーザによって準備されたメッセージを含み得、当該メッセージを受け取るように構成され得る。メッセージ入力フィールド604は、ユーザからオンスクリーンキーボード606を通じて1つ以上のセグメントを受け取り得るか、またはオンスクリーンキーボード606を通じて選択される1つ以上のエモティコンを受け取り得る。メッセージ入力フィールド604はさらに入力カーソル610を含み得る。
オンスクリーンキーボード606は、QWERTYキーボードと、(たとえば使用されていない場合に)視界からオンスクリーンキーボード606を隠すボタン624と、エモティコンメニュー622とを含み得る。エモティコンメニュー622を通じて、ユーザは、入力カーソル610の現在位置にて、メッセージ入力フィールド604へのエントリのために1つ以上のエモティコンを選択し得る。エモティコンメニュー622は、デフォルトのエモティコンライブラリまたは実施の形態によって提案されるエモティコンのセレクションからのエモティコンを含み得る。左の選択ボタン618および右の選択ボタン620により、ユーザは、エモティコンメニュー622を通じてエントリ選択に利用可能であるエモティコンをスクロールおよびブラウズすることが可能になる。
ユーザがメッセージ入力フィールド604においてメッセージを準備する際、さまざまな実施の形態が、入力カーソル610の現在位置へのエントリのためにエモティコンを提案し得る。たとえば、ユーザがメッセージ入力フィールド604に「思いもしなかった、あのフットボール」と書いた場合、実施の形態は、「フットボール」を記載する対象のセグメント612の実施の形態の分析に基づき、入力フィールド604へのエントリのために「フットボール」のグラフィカルエモティコン614を提案し得る。実施の形態は、「フットボール」のグラフィカルエモティコン614と、対象のセグメント512のコンテキストとの間の関連性に基づいて、「フットボール」のグラフィカルエモティコン614を提案し得る。ひとたびユーザが「フットボール」のグラフィカルエモティコン614を選択すると、実施の形態は、メッセージ入力フィールド604に「フットボール」のグラフィカルエモティコン614を入力し得る。
同様に、ユーザがメッセージ入力フィールド604に「50ヤードのフィールドゴール」と書くと、実施の形態は、対象のセグメント608のコンテキスト分析に基づき、複数の「フィールドゴール」のグラフィカルエモティコンを提案し得る。特に、実施の形態は、オンスクリーンキーボード606の一部として表示され得るエモティコンメニュー622にグラフィカルエモティコンを表示することによって、エントリ選択のために「フィールドゴール」のグラフィカルエモティコンを提示し得る。
図7は、例示的なデジタルデバイス700のブロック図である。デジタルデバイス700は、通信可能にバス714に結合されたプロセッサ702、メモリシステム704、ストレージシステム706、通信ネットワークインターフェイス708、I/Oインターフェイス710、および表示インターフェイス712を含む。プロセッサ702は、実行可能な命令(たとえばプログラム)を実行するように構成される。いくつかの実施の形態では、プロセッサ702は、実行可能な命令を処理することができる回路網または任意のプロセッサを含む。
メモリシステム704は、データを格納するように構成される任意のメモリである。メモリシステム704のいくつかの例は、RAMまたはROMのようなストレージデバイスである。メモリシステム704は、RAMキャッシュを含み得る。さまざまな実施の形態では、データはメモリシステム704内に格納される。メモリシステム704内のデータは、消去されるかまたはストレージシステム706に最終的に転送され得る。
ストレージシステム706は、データを抽出および格納するように構成された任意の一時的でないストレージである。ストレージシステム706のいくつかの例は、フラッシュドライブ、ハードドライブ、光学ドライブおよび/または磁気テープである。いくつかの実施の形態では、デジタルデバイス700は、RAMの形態にあるメモリシステム704と、フラッシュデータの形態にあるストレージシステム706とを含む。メモリシステム704およびストレージシステム706の両方は、プロセッサ702を含むコンピュータプロセッサによって実行可能である命令またはプログラムを格納し得るコンピュータ可読
媒体を含む。
媒体を含む。
通信ネットワークインターフェイス(com.ネットワークインターフェイス)708は、リンク716を介してネットワーク(たとえば通信ネットワーク110)に結合され得る。通信ネットワークインターフェイス708は、たとえばイーサネット(登録商標)接続、シリアル接続、パラレル接続、またはATA接続上の通信をサポートし得る。通信ネットワークインターフェイス708はさらに、無線通信(たとえば802.11 alb/gin、WiMax)をサポートし得る。通信ネットワークインターフェイス708は、多くの有線規格および無線規格をサポートし得るということは当業者に明らかであろう。
随意の入出力(I/O)インターフェイス710は、ユーザから入力を受け取るとともにデータを出力する任意の装置である。随意の表示インターフェイス712は、ディスプレイにグラフィックスおよびデータを出力するように構成される任意の装置である。一例では、表示インターフェイス712は、グラフィックスアダプタである。すべてのデジタルデバイス700が、I/Oインターフェイス710または表示インターフェイス712のいずれかを含むわけではないということが理解されるであろう。
デジタルデバイス700のハードウェア要素は、図7に示されたものに限定されないということが当業者によって理解されるであろう。デジタルデバイス700は、示されたものよりも多いまたは少ないハードウェア要素を含んでもよい。さらに、ハードウェア要素は、機能性を共有してもよく、それでも、本願明細書で記載されるさまざまな実施の形態の内にある。一例では、エンコーディングおよび/またはデコーディングが、プロセッサ702および/またはGPU(Le., Nvidia)に配置されるコプロセッサによって行なわ
れてもよい。
れてもよい。
上記の機能およびコンポーネントは、コンピュータ可読媒体のような記憶媒体上に格納される命令で構成され得る。命令は、プロセッサによって抽出および実行され得る。命令のいくつかの例は、ソフトウェア、プログラムコードおよびファームウェアである。記憶媒体のいくつかの例は、メモリデバイス、テープ、ディスク、集積回路およびサーバである。命令は、プロセッサによって実行された際には、プロセッサに指示していくつかの実施の形態に従って動作させる動作状態である。当業者は、命令、プロセッサおよび記憶媒体に精通している。
さまざまな実施の形態が、例として本願明細書において記載されている。さまざまな修正例がなされ得るとともに、他の実施の形態が本発明のより広い範囲から逸脱することなく使用され得るということは当業者に明らかであろう。したがって、例示的な実施の形態に対するこれらおよび他の変形例は、本発明によってカバーされるように意図される。
Claims (27)
- セグメントのセットをテキストフィールドから受け取るステップを含み、前記セグメントのセットは前記テキストフィールドにおける入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含んでおり、さらに、
前記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう前記セグメントのセットを分析するステップと、
候補のエモティコンのセットを識別するステップとを含み、前記候補のエモティコンのセットにおける各候補のエモティコンは、前記候補のエモティコンと前記目標サブテキストまたは前記目標意味の少なくとも1つとの間に関連性を有しており、前記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでおり、さらに、
エントリ選択のために前記入力カーソルの現在位置に前記候補のエモティコンのセットを提示するステップと、
前記候補のエモティコンのセットからの選択されるエモティコンのセットについて、エントリ選択を受け取るステップとを含み、前記選択されるエモティコンのセットは1つ以上の選択されるエモティコンを含んでおり、さらに、
前記選択されるエモティコンのセットを前記テキストフィールドにおける前記入力カーソルの現在位置に挿入するステップを含む、方法。 - 各関連性は、前記目標サブテキストまたは前記目標意味の少なくとも1つとの前記候補のエモティコンの統計的な使用を含む、請求項1に記載の方法。
- 前記統計的な使用は単一のユーザまたは複数のユーザによる使用に基づく、請求項2に記載の方法。
- 前記選択されるエモティコンのセットについての前記エントリ選択に基づき、前記候補のエモティコンの前記統計的な使用を更新するステップをさらに含む、請求項2に記載の方法。
- 前記セグメントのセットを分析するステップは、前記セグメントのセットの意味分析を含む、請求項1に記載の方法。
- エントリ選択のために前記エモティコンのセットを提示するステップは、エントリ選択のために前記入力カーソルの現在位置または現在位置の近くに前記エモティコンを表示するステップを含む、請求項1に記載の方法。
- エントリ選択のために前記候補のエモティコンのセットを提示するステップは、エントリ選択のために物理的な入力装置または仮想入力装置上に前記候補のエモティコンのセットを表示するステップを含み、前記物理的な入力装置および表示された入力インターフェイスは、前記エントリ選択を実行するよう構成される、請求項1に記載の方法。
- 前記仮想入力装置は、前記テキストフィールドに近接近して表示される、請求項7に記載の方法。
- 対象の各セグメントは、前記入力カーソルの現在位置の前または後に存在する単語、文の断片、文、句、または節の少なくとも1つを含む、請求項1に記載の方法。
- 前記候補のエモティコンのセットを識別するステップはさらに、少なくともユーザプレファレンス、ユーザに関連する情報、または受信者に関連する情報に基づく、請求項1に記載の方法。
- 前記ユーザに関連する情報は、ユーザの興味と、ユーザの民族性と、ユーザの宗教と、ユーザの地理的位置と、ユーザの年齢と、ユーザの関係ステータスと、ユーザの職業とを含む、請求項10に記載の方法。
- 前記受信者に関連する情報は、ユーザに対する受信者の関係と、受信者の興味と、受信者の民族性と、受信者の宗教と、受信者の地理的位置と、受信者の年齢と、受信者の関係ステータスと、受信者の職業とを含む、請求項10に記載の方法。
- システムであって、
プロセッサと、
テキストフィールドと前記テキストフィールドに入力される1つ以上のセグメントとを表示するよう構成される表示モジュールと、
セグメント入力をユーザから受け取り、前記セグメント入力を前記テキストフィールド内に入力カーソルにて入力するよう構成される入力モジュールと、
セグメント分析モジュールとを含み、
前記セグメント分析モジュールは、セグメントのセットを前記テキストフィールドから受け取るよう構成されており、前記セグメントのセットは前記テキストフィールドにおける前記入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含んでおり、
前記セグメント分析モジュールは、前記プロセッサを用いて、前記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう前記セグメントのセットを分析するよう構成されており、前記システムはさらに、
候補のエモティコンのセットを識別するよう構成されるエモティコン検索モジュールを含み、前記候補のエモティコンのセットにおける各候補のエモティコンは、前記候補のエモティコンと前記目標サブテキストまたは前記目標意味の少なくとも1つとの間に関連性を有しており、前記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでおり、前記システムはさらに、
エントリ選択のために前記入力カーソルの現在位置に前記表示モジュールを通じて前記候補のエモティコンのセットを提示するよう構成されるエモティコン提案モジュールと、
エモティコン選択モジュールとを含み、
前記エモティコン選択モジュールは、前記候補のエモティコンのセットからの選択されるエモティコンのセットについて、前記入力モジュールからエントリ選択を受け取るよう構成されており、前記選択されるエモティコンのセットは1つ以上の選択されるエモティコンを含んでおり、
前記エモティコン選択モジュールは、前記選択されるエモティコンのセットを前記テキストフィールドにおける前記入力カーソルの現在位置に挿入するよう構成される、システム。 - 前記テキストフィールドへのエントリが可能な1つ以上のエモティコンを含むエモティコンデータストアをさらに含み、前記エモティコン検索モジュールはさらに、前記エモティコンデータストア上の前記候補のエモティコンのセットを識別するよう構成される、請求項13に記載のシステム。
- 各関連性は、前記目標サブテキストまたは前記目標意味の少なくとも1つとの前記候補のエモティコンの統計的な使用を含む、請求項13に記載のシステム。
- 前記統計的な使用は単一のユーザまたは複数のユーザによる使用に基づく、請求項15に記載のシステム。
- 前記エモティコン選択モジュールはさらに、前記選択されるエモティコンのセットについての前記エントリ選択に基づき、前記候補のエモティコンの前記統計的な使用を更新するよう構成される、請求項15に記載のシステム。
- 前記セグメントのセットを分析することは、前記セグメントのセットの意味分析を含む、請求項13に記載のシステム。
- エントリ選択のために前記表示モジュールを通じて前記エモティコンのセットを提示することは、エントリ選択のために前記入力カーソルの現在位置または現在位置の近くに前記エモティコンを表示することを含む、請求項13に記載のシステム。
- エントリ選択のために前記表示モジュールを通じて前記候補のエモティコンのセットを提示することは、エントリ選択のために前記入力モジュールを通じて前記候補のエモティコンのセットを表示することを含む、請求項13に記載のシステム。
- 前記入力モジュールは物理的な入力装置または仮想入力装置を含み、前記物理的な入力装置および仮想入力インターフェイスは、前記エントリ選択を実行するよう構成される、請求項20に記載のシステム。
- 前記仮想入力装置は、前記テキストフィールドに近接近して表示される、請求項21に記載のシステム。
- 対象の各セグメントは、前記入力カーソルの現在位置の前または後に存在する単語、文の断片、文、句、または節の少なくとも1つを含む、請求項13に記載のシステム。
- 前記候補のエモティコンのセットを識別することはさらに、少なくともユーザプレファレンス、ユーザに関連する情報、または受信者に関連する情報に基づく、請求項13に記載のシステム。
- 前記ユーザに関連する情報は、ユーザの興味と、ユーザの民族性と、ユーザの宗教と、ユーザの地理的位置と、ユーザの年齢と、ユーザの関係ステータスと、ユーザの職業とを含む、請求項24に記載のシステム。
- 前記受信者に関連する情報は、ユーザに対する受信者の関係と、受信者の興味と、受信者の民族性と、受信者の宗教と、受信者の地理的位置と、受信者の年齢と、受信者の関係ステータスと、受信者の職業とを含む、請求項24に記載のシステム。
- セグメントのセットをテキストフィールドから受け取るための手段を含み、前記セグメントのセットは前記テキストフィールドにおける入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含んでおり、さらに、
前記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう前記セグメントのセットを分析するための手段と、
候補のエモティコンのセットを識別するための手段とを含み、前記候補のエモティコンのセットにおける各候補のエモティコンは、前記候補のエモティコンと前記目標サブテキストまたは前記目標意味の少なくとも1つとの間に関連性を有しており、前記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでおり、さらに、
エントリ選択のために前記入力カーソルの現在位置に前記候補のエモティコンのセットを提示するための手段と、
前記候補のエモティコンのセットからの選択されるエモティコンのセットについて、エントリ選択を受け取るための手段とを含み、前記選択されるエモティコンのセットは1つ
以上の選択されるエモティコンを含んでおり、さらに、
前記選択されるエモティコンのセットを前記テキストフィールドにおける前記入力カーソルの現在位置に挿入するための手段を含む、システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/330,357 | 2011-12-19 | ||
US13/330,357 US20130159919A1 (en) | 2011-12-19 | 2011-12-19 | Systems and Methods for Identifying and Suggesting Emoticons |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017230299A Division JP6563465B2 (ja) | 2011-12-19 | 2017-11-30 | エモティコンを識別および提案するためのシステムおよび方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019207726A true JP2019207726A (ja) | 2019-12-05 |
Family
ID=48611572
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014548845A Expired - Fee Related JP6254534B2 (ja) | 2011-12-19 | 2012-12-19 | エモティコンを識別および提案するためのシステムおよび方法、ならびに、コンピュータプログラム |
JP2017230299A Expired - Fee Related JP6563465B2 (ja) | 2011-12-19 | 2017-11-30 | エモティコンを識別および提案するためのシステムおよび方法 |
JP2019136207A Pending JP2019207726A (ja) | 2011-12-19 | 2019-07-24 | エモティコンを識別および提案するためのシステムおよび方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014548845A Expired - Fee Related JP6254534B2 (ja) | 2011-12-19 | 2012-12-19 | エモティコンを識別および提案するためのシステムおよび方法、ならびに、コンピュータプログラム |
JP2017230299A Expired - Fee Related JP6563465B2 (ja) | 2011-12-19 | 2017-11-30 | エモティコンを識別および提案するためのシステムおよび方法 |
Country Status (16)
Country | Link |
---|---|
US (6) | US20130159919A1 (ja) |
EP (2) | EP2795441B1 (ja) |
JP (3) | JP6254534B2 (ja) |
KR (1) | KR20140105841A (ja) |
CN (1) | CN104335607A (ja) |
AU (5) | AU2012358964B2 (ja) |
BR (1) | BR112014015219A8 (ja) |
CA (1) | CA2859811A1 (ja) |
HK (1) | HK1203238A1 (ja) |
MX (1) | MX2014007479A (ja) |
MY (2) | MY170666A (ja) |
NZ (2) | NZ717653A (ja) |
RU (1) | RU2014129554A (ja) |
SG (2) | SG11201403373XA (ja) |
WO (1) | WO2013096482A2 (ja) |
ZA (1) | ZA201405207B (ja) |
Families Citing this family (246)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8554868B2 (en) | 2007-01-05 | 2013-10-08 | Yahoo! Inc. | Simultaneous sharing communication interface |
US9424246B2 (en) | 2009-03-30 | 2016-08-23 | Touchtype Ltd. | System and method for inputting text into electronic devices |
IL306019A (en) | 2011-07-12 | 2023-11-01 | Snap Inc | Methods and systems for delivering editing functions to visual content |
US20130332307A1 (en) * | 2011-11-21 | 2013-12-12 | Facebook, Inc. | Method for notifying a sender of a gifting event |
US20130159919A1 (en) * | 2011-12-19 | 2013-06-20 | Gabriel Leydon | Systems and Methods for Identifying and Suggesting Emoticons |
US8972357B2 (en) | 2012-02-24 | 2015-03-03 | Placed, Inc. | System and method for data collection to validate location data |
US11734712B2 (en) | 2012-02-24 | 2023-08-22 | Foursquare Labs, Inc. | Attributing in-store visits to media consumption based on data collected from user devices |
WO2013166588A1 (en) | 2012-05-08 | 2013-11-14 | Bitstrips Inc. | System and method for adaptable avatars |
US20130307779A1 (en) * | 2012-05-17 | 2013-11-21 | Bad Donkey Social, LLC | Systems, methods, and devices for electronic communication |
US9594831B2 (en) | 2012-06-22 | 2017-03-14 | Microsoft Technology Licensing, Llc | Targeted disambiguation of named entities |
JP5845200B2 (ja) * | 2012-06-25 | 2016-01-20 | 株式会社コナミデジタルエンタテインメント | メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム |
JP5937992B2 (ja) | 2012-06-25 | 2016-06-22 | 株式会社コナミデジタルエンタテインメント | メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム |
JP5726935B2 (ja) | 2012-06-25 | 2015-06-03 | 株式会社コナミデジタルエンタテインメント | 端末装置 |
WO2014000263A1 (en) * | 2012-06-29 | 2014-01-03 | Microsoft Corporation | Semantic lexicon-based input method editor |
US20140019878A1 (en) * | 2012-07-12 | 2014-01-16 | KamaGames Ltd. | System and method for reflecting player emotional state in an in-game character |
US9746990B2 (en) * | 2012-09-28 | 2017-08-29 | Intel Corporation | Selectively augmenting communications transmitted by a communication device |
US10824297B2 (en) * | 2012-11-26 | 2020-11-03 | Google Llc | System for and method of accessing and selecting emoticons, content, and mood messages during chat sessions |
US10664657B2 (en) * | 2012-12-27 | 2020-05-26 | Touchtype Limited | System and method for inputting images or labels into electronic devices |
GB201322037D0 (en) * | 2013-12-12 | 2014-01-29 | Touchtype Ltd | System and method for inputting images/labels into electronic devices |
GB201223450D0 (en) | 2012-12-27 | 2013-02-13 | Touchtype Ltd | Search and corresponding method |
US20140282212A1 (en) * | 2013-03-15 | 2014-09-18 | Gary Shuster | System, method, and apparatus that facilitates modifying a textual input |
US20140324414A1 (en) * | 2013-04-28 | 2014-10-30 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for displaying emoticon |
WO2015030461A1 (en) | 2013-08-26 | 2015-03-05 | Samsung Electronics Co., Ltd. | User device and method for creating handwriting content |
KR102221223B1 (ko) * | 2013-08-26 | 2021-03-03 | 삼성전자주식회사 | 필기 컨텐츠를 작성하는 사용자 기기 및 방법 |
JP6157299B2 (ja) * | 2013-09-27 | 2017-07-05 | Kddi株式会社 | 通信端末、管理サーバ、メッセージ交換システム、メッセージ交換方法及びメッセージ交換プログラム |
US20150100537A1 (en) * | 2013-10-03 | 2015-04-09 | Microsoft Corporation | Emoji for Text Predictions |
JPWO2015059976A1 (ja) * | 2013-10-24 | 2017-03-09 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20150121248A1 (en) * | 2013-10-24 | 2015-04-30 | Tapz Communications, LLC | System for effectively communicating concepts |
JP6219503B2 (ja) * | 2013-10-31 | 2017-10-25 | インテル コーポレイション | ユーザ選択可能なアイコンを介したコンテキストベースのメッセージ生成 |
US20150127753A1 (en) | 2013-11-04 | 2015-05-07 | Meemo, Llc | Word Recognition and Ideograph or In-App Advertising System |
US10528219B2 (en) | 2015-08-10 | 2020-01-07 | Tung Inc. | Conversion and display of a user input |
US10877629B2 (en) | 2016-10-13 | 2020-12-29 | Tung Inc. | Conversion and display of a user input |
CN104333688B (zh) * | 2013-12-03 | 2018-07-10 | 广州三星通信技术研究有限公司 | 基于拍摄的图像生成表情符的设备和方法 |
US9674125B2 (en) * | 2013-12-13 | 2017-06-06 | Google Technology Holdings LLC | Method and system for achieving communications in a manner accounting for one or more user preferences or contexts |
US9628950B1 (en) | 2014-01-12 | 2017-04-18 | Investment Asset Holdings Llc | Location-based messaging |
US9515968B2 (en) * | 2014-02-05 | 2016-12-06 | Facebook, Inc. | Controlling access to ideograms |
US10050926B2 (en) * | 2014-02-05 | 2018-08-14 | Facebook, Inc. | Ideograms based on sentiment analysis |
US10013601B2 (en) * | 2014-02-05 | 2018-07-03 | Facebook, Inc. | Ideograms for captured expressions |
US10140373B2 (en) * | 2014-04-15 | 2018-11-27 | Facebook, Inc. | Eliciting user sharing of content |
JP6427950B2 (ja) * | 2014-05-21 | 2018-11-28 | 株式会社リコー | 端末装置、プログラム、機能呼び出し方法及び情報処理システム |
US9537811B2 (en) | 2014-10-02 | 2017-01-03 | Snap Inc. | Ephemeral gallery of ephemeral messages |
US9396354B1 (en) | 2014-05-28 | 2016-07-19 | Snapchat, Inc. | Apparatus and method for automated privacy protection in distributed images |
US10579212B2 (en) | 2014-05-30 | 2020-03-03 | Apple Inc. | Structured suggestions |
US10565219B2 (en) | 2014-05-30 | 2020-02-18 | Apple Inc. | Techniques for automatically generating a suggested contact based on a received message |
IL239237B (en) | 2014-06-05 | 2018-12-31 | Rotem Efrat | Network document extension |
US9113301B1 (en) | 2014-06-13 | 2015-08-18 | Snapchat, Inc. | Geo-location based event gallery |
US10708203B2 (en) * | 2014-06-25 | 2020-07-07 | Convergence Acceleration Solutions, Llc | Systems and methods for indicating emotions through electronic self-portraits |
US9225897B1 (en) | 2014-07-07 | 2015-12-29 | Snapchat, Inc. | Apparatus and method for supplying content aware photo filters |
US9043196B1 (en) | 2014-07-07 | 2015-05-26 | Machine Zone, Inc. | Systems and methods for identifying and suggesting emoticons |
CN106796583A (zh) * | 2014-07-07 | 2017-05-31 | 机械地带有限公司 | 用于识别和建议表情符号的系统和方法 |
US10176535B2 (en) * | 2014-09-05 | 2019-01-08 | Verizon Patent And Licensing Inc. | Method and system for providing social category indicators in a user profile header of an on-line posting |
KR102337072B1 (ko) * | 2014-09-12 | 2021-12-08 | 삼성전자 주식회사 | 이모티콘을 생성하는 방법 및 이를 지원하는 전자장치 |
US10423983B2 (en) | 2014-09-16 | 2019-09-24 | Snap Inc. | Determining targeting information based on a predictive targeting model |
US10824654B2 (en) | 2014-09-18 | 2020-11-03 | Snap Inc. | Geolocation-based pictographs |
US11216869B2 (en) | 2014-09-23 | 2022-01-04 | Snap Inc. | User interface to augment an image using geolocation |
US10284508B1 (en) | 2014-10-02 | 2019-05-07 | Snap Inc. | Ephemeral gallery of ephemeral messages with opt-in permanence |
US10769607B2 (en) * | 2014-10-08 | 2020-09-08 | Jgist, Inc. | Universal symbol system language-one world language |
US9015285B1 (en) | 2014-11-12 | 2015-04-21 | Snapchat, Inc. | User interface for accessing media at a geographic location |
CN105630849A (zh) * | 2014-11-27 | 2016-06-01 | 英业达科技有限公司 | 表情图像推荐系统及其方法 |
US9385983B1 (en) | 2014-12-19 | 2016-07-05 | Snapchat, Inc. | Gallery of messages from individuals with a shared interest |
US10311916B2 (en) | 2014-12-19 | 2019-06-04 | Snap Inc. | Gallery of videos set to an audio time line |
US9754355B2 (en) | 2015-01-09 | 2017-09-05 | Snap Inc. | Object recognition based photo filters |
US11388226B1 (en) | 2015-01-13 | 2022-07-12 | Snap Inc. | Guided personal identity based actions |
KR101615848B1 (ko) * | 2015-01-19 | 2016-04-26 | 주식회사 엔씨소프트 | 유사상황 검색을 통한 대화 스티커 추천방법 및 컴퓨터 프로그램 |
KR101634086B1 (ko) * | 2015-01-19 | 2016-07-08 | 주식회사 엔씨소프트 | 감정 분석을 통한 스티커 추천 방법 및 시스템 |
KR101641572B1 (ko) * | 2015-01-19 | 2016-07-21 | 주식회사 엔씨소프트 | 상황 및 선호도 기반 대화 스티커 순위 결정 방법 및 컴퓨터 프로그램 |
KR20160089152A (ko) | 2015-01-19 | 2016-07-27 | 주식회사 엔씨소프트 | 화행 분석을 통한 스티커 추천 방법 및 시스템 |
US10133705B1 (en) | 2015-01-19 | 2018-11-20 | Snap Inc. | Multichannel system |
CN104618223B (zh) | 2015-01-20 | 2017-09-26 | 腾讯科技(深圳)有限公司 | 一种信息推荐的管理方法、装置和系统 |
US9521515B2 (en) | 2015-01-26 | 2016-12-13 | Mobli Technologies 2010 Ltd. | Content request by location |
KR20160105321A (ko) * | 2015-02-27 | 2016-09-06 | 임머숀 코퍼레이션 | 사용자의 무드에 기초하는 액션 생성 |
US10223397B1 (en) | 2015-03-13 | 2019-03-05 | Snap Inc. | Social graph based co-location of network users |
EP4325806A3 (en) | 2015-03-18 | 2024-05-22 | Snap Inc. | Geo-fence authorization provisioning |
CN104699662B (zh) * | 2015-03-18 | 2017-12-22 | 北京交通大学 | 识别整体符号串的方法和装置 |
US9692967B1 (en) | 2015-03-23 | 2017-06-27 | Snap Inc. | Systems and methods for reducing boot time and power consumption in camera systems |
US10623352B2 (en) | 2015-03-30 | 2020-04-14 | International Business Machines Corporation | Modification of electronic messages |
US10353542B2 (en) * | 2015-04-02 | 2019-07-16 | Facebook, Inc. | Techniques for context sensitive illustrated graphical user interface elements |
US9881094B2 (en) | 2015-05-05 | 2018-01-30 | Snap Inc. | Systems and methods for automated local story generation and curation |
US10135949B1 (en) | 2015-05-05 | 2018-11-20 | Snap Inc. | Systems and methods for story and sub-story navigation |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
CN105094363A (zh) * | 2015-07-06 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 表情符号的处理方法及装置 |
US10993069B2 (en) | 2015-07-16 | 2021-04-27 | Snap Inc. | Dynamically adaptive media content delivery |
US10817898B2 (en) | 2015-08-13 | 2020-10-27 | Placed, Llc | Determining exposures to content presented by physical objects |
US10003938B2 (en) | 2015-08-14 | 2018-06-19 | Apple Inc. | Easy location sharing |
CN105119812B (zh) * | 2015-08-26 | 2018-05-18 | 小米科技有限责任公司 | 在聊天界面更改表情符号的方法、装置及终端设备 |
US10445425B2 (en) * | 2015-09-15 | 2019-10-15 | Apple Inc. | Emoji and canned responses |
US9665567B2 (en) * | 2015-09-21 | 2017-05-30 | International Business Machines Corporation | Suggesting emoji characters based on current contextual emotional state of user |
US10203843B2 (en) | 2015-09-21 | 2019-02-12 | Microsoft Technology Licensing, Llc | Facilitating selection of attribute values for graphical elements |
CN105425978A (zh) * | 2015-10-26 | 2016-03-23 | 百度在线网络技术(北京)有限公司 | 输入数据的处理方法及装置 |
US9652896B1 (en) | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
US10540431B2 (en) | 2015-11-23 | 2020-01-21 | Microsoft Technology Licensing, Llc | Emoji reactions for file content and associated activities |
US10474321B2 (en) | 2015-11-30 | 2019-11-12 | Snap Inc. | Network resource location linking and visual content sharing |
US9984499B1 (en) | 2015-11-30 | 2018-05-29 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
US10354425B2 (en) | 2015-12-18 | 2019-07-16 | Snap Inc. | Method and system for providing context relevant media augmentation |
US20170177554A1 (en) * | 2015-12-18 | 2017-06-22 | International Business Machines Corporation | Culturally relevant emoji character replacement |
USD852839S1 (en) * | 2015-12-23 | 2019-07-02 | Beijing Xinmei Hutong Technology Co., Ltd | Display screen with a graphical user interface |
US20170185581A1 (en) * | 2015-12-29 | 2017-06-29 | Machine Zone, Inc. | Systems and methods for suggesting emoji |
WO2017120924A1 (zh) * | 2016-01-15 | 2017-07-20 | 李强生 | 插入表情时的信息提醒方法和即时通讯工具 |
US10628036B2 (en) | 2016-01-18 | 2020-04-21 | Microsoft Technology Licensing, Llc | Keyboard customization |
CN105700703A (zh) * | 2016-02-24 | 2016-06-22 | 北京小牛互联科技有限公司 | 一种在键盘的文字输入界面嵌入表情并支持自定义表情的方法和装置 |
US10285001B2 (en) | 2016-02-26 | 2019-05-07 | Snap Inc. | Generation, curation, and presentation of media collections |
US11023514B2 (en) | 2016-02-26 | 2021-06-01 | Snap Inc. | Methods and systems for generation, curation, and presentation of media collections |
US10679389B2 (en) | 2016-02-26 | 2020-06-09 | Snap Inc. | Methods and systems for generation, curation, and presentation of media collections |
KR102462365B1 (ko) | 2016-02-29 | 2022-11-04 | 삼성전자주식회사 | 사용자 데모그래픽 정보 및 콘텍스트 정보에 기초한 텍스트 입력 예측 방법 및 장치 |
US10476819B2 (en) * | 2016-03-31 | 2019-11-12 | Atlassian Pty Ltd | Systems and methods for providing controls in a messaging interface |
US10339365B2 (en) | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
US10686899B2 (en) | 2016-04-06 | 2020-06-16 | Snap Inc. | Messaging achievement pictograph display system |
US11494547B2 (en) * | 2016-04-13 | 2022-11-08 | Microsoft Technology Licensing, Llc | Inputting images to electronic devices |
US20170308289A1 (en) * | 2016-04-20 | 2017-10-26 | Google Inc. | Iconographic symbol search within a graphical keyboard |
US20170308290A1 (en) * | 2016-04-20 | 2017-10-26 | Google Inc. | Iconographic suggestions within a keyboard |
CN105763431B (zh) * | 2016-05-06 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 一种信息推送方法、装置及系统 |
KR101780809B1 (ko) * | 2016-05-09 | 2017-09-22 | 네이버 주식회사 | 이모티콘이 함께 제공되는 번역문 제공 방법, 사용자 단말, 서버 및 컴퓨터 프로그램 |
US20170351678A1 (en) * | 2016-06-03 | 2017-12-07 | Facebook, Inc. | Profile Suggestions |
GB201610984D0 (en) * | 2016-06-23 | 2016-08-10 | Microsoft Technology Licensing Llc | Suppression of input images |
US10430838B1 (en) | 2016-06-28 | 2019-10-01 | Snap Inc. | Methods and systems for generation, curation, and presentation of media collections with automated advertising |
US9681265B1 (en) | 2016-06-28 | 2017-06-13 | Snap Inc. | System to track engagement of media items |
US10733255B1 (en) | 2016-06-30 | 2020-08-04 | Snap Inc. | Systems and methods for content navigation with automated curation |
US9723127B1 (en) * | 2016-07-12 | 2017-08-01 | Detrice Grayson | Emoticon scripture system |
US10348662B2 (en) | 2016-07-19 | 2019-07-09 | Snap Inc. | Generating customized electronic messaging graphics |
CN106293120B (zh) * | 2016-07-29 | 2020-06-23 | 维沃移动通信有限公司 | 表情输入方法及移动终端 |
US11115463B2 (en) | 2016-08-17 | 2021-09-07 | Microsoft Technology Licensing, Llc | Remote and local predictions |
CN109804411B (zh) | 2016-08-30 | 2023-02-17 | 斯纳普公司 | 用于同时定位和映射的系统和方法 |
CN106372059B (zh) | 2016-08-30 | 2018-09-11 | 北京百度网讯科技有限公司 | 信息输入方法和装置 |
US20180081500A1 (en) * | 2016-09-19 | 2018-03-22 | Facebook, Inc. | Systems and methods for content engagement |
CN106502515B (zh) * | 2016-09-30 | 2020-01-14 | 维沃移动通信有限公司 | 一种图片输入方法及移动终端 |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
CN106503744A (zh) * | 2016-10-26 | 2017-03-15 | 长沙军鸽软件有限公司 | 对聊天过程中的输入表情进行自动纠错的方法及装置 |
KR102219304B1 (ko) | 2016-11-07 | 2021-02-23 | 스냅 인코포레이티드 | 이미지 변경자들의 선택적 식별 및 순서화 |
KR20180057366A (ko) * | 2016-11-22 | 2018-05-30 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US10203855B2 (en) | 2016-12-09 | 2019-02-12 | Snap Inc. | Customized user-controlled media overlays |
US10452411B2 (en) | 2016-12-30 | 2019-10-22 | Riyad Mobeen | System and method of using emojis for interactive and enhanced data matching capabilities |
US11616745B2 (en) | 2017-01-09 | 2023-03-28 | Snap Inc. | Contextual generation and selection of customized media content |
US10454857B1 (en) | 2017-01-23 | 2019-10-22 | Snap Inc. | Customized digital avatar accessories |
US10915911B2 (en) | 2017-02-03 | 2021-02-09 | Snap Inc. | System to determine a price-schedule to distribute media content |
US10319149B1 (en) | 2017-02-17 | 2019-06-11 | Snap Inc. | Augmented reality anamorphosis system |
US11250075B1 (en) | 2017-02-17 | 2022-02-15 | Snap Inc. | Searching social media content |
US10074381B1 (en) | 2017-02-20 | 2018-09-11 | Snap Inc. | Augmented reality speech balloon system |
US10565795B2 (en) | 2017-03-06 | 2020-02-18 | Snap Inc. | Virtual vision system |
US10523625B1 (en) | 2017-03-09 | 2019-12-31 | Snap Inc. | Restricted group content collection |
US10582277B2 (en) | 2017-03-27 | 2020-03-03 | Snap Inc. | Generating a stitched data stream |
US10581782B2 (en) | 2017-03-27 | 2020-03-03 | Snap Inc. | Generating a stitched data stream |
US11170393B1 (en) | 2017-04-11 | 2021-11-09 | Snap Inc. | System to calculate an engagement score of location based media content |
US10387730B1 (en) | 2017-04-20 | 2019-08-20 | Snap Inc. | Augmented reality typography personalization system |
CN107093164A (zh) * | 2017-04-26 | 2017-08-25 | 北京百度网讯科技有限公司 | 用于生成图像的方法和装置 |
US11893647B2 (en) | 2017-04-27 | 2024-02-06 | Snap Inc. | Location-based virtual avatars |
CN117520684A (zh) | 2017-04-27 | 2024-02-06 | 斯纳普公司 | 在基于地图的社交媒体平台上的位置隐私关联 |
US10212541B1 (en) | 2017-04-27 | 2019-02-19 | Snap Inc. | Selective location-based identity communication |
US10467147B1 (en) | 2017-04-28 | 2019-11-05 | Snap Inc. | Precaching unlockable data elements |
US10803120B1 (en) | 2017-05-31 | 2020-10-13 | Snap Inc. | Geolocation based playlists |
US10318109B2 (en) * | 2017-06-09 | 2019-06-11 | Microsoft Technology Licensing, Llc | Emoji suggester and adapted user interface |
US10788900B1 (en) * | 2017-06-29 | 2020-09-29 | Snap Inc. | Pictorial symbol prediction |
US11475254B1 (en) | 2017-09-08 | 2022-10-18 | Snap Inc. | Multimodal entity identification |
US10740974B1 (en) | 2017-09-15 | 2020-08-11 | Snap Inc. | Augmented reality system |
US20190087466A1 (en) | 2017-09-21 | 2019-03-21 | Mz Ip Holdings, Llc | System and method for utilizing memory efficient data structures for emoji suggestions |
US10499191B1 (en) | 2017-10-09 | 2019-12-03 | Snap Inc. | Context sensitive presentation of content |
US10593087B2 (en) | 2017-10-23 | 2020-03-17 | Paypal, Inc. | System and method for generating emoji mashups with machine learning |
US10573043B2 (en) | 2017-10-30 | 2020-02-25 | Snap Inc. | Mobile-based cartographic control of display content |
US11265273B1 (en) | 2017-12-01 | 2022-03-01 | Snap, Inc. | Dynamic media overlay with smart widget |
US11017173B1 (en) | 2017-12-22 | 2021-05-25 | Snap Inc. | Named entity recognition visual context and caption data |
CN108173747B (zh) * | 2017-12-27 | 2021-10-22 | 上海传英信息技术有限公司 | 信息交互方法及装置 |
US10678818B2 (en) | 2018-01-03 | 2020-06-09 | Snap Inc. | Tag distribution visualization system |
US11507614B1 (en) | 2018-02-13 | 2022-11-22 | Snap Inc. | Icon based tagging |
US10979752B1 (en) | 2018-02-28 | 2021-04-13 | Snap Inc. | Generating media content items based on location information |
US10885136B1 (en) | 2018-02-28 | 2021-01-05 | Snap Inc. | Audience filtering system |
US10327096B1 (en) | 2018-03-06 | 2019-06-18 | Snap Inc. | Geo-fence selection system |
CN118454221A (zh) | 2018-03-14 | 2024-08-09 | 斯纳普公司 | 基于位置信息生成可收集项 |
US10970329B1 (en) * | 2018-03-30 | 2021-04-06 | Snap Inc. | Associating a graphical element to media content item collections |
US11163941B1 (en) | 2018-03-30 | 2021-11-02 | Snap Inc. | Annotating a collection of media content items |
US10219111B1 (en) | 2018-04-18 | 2019-02-26 | Snap Inc. | Visitation tracking system |
US11573679B2 (en) * | 2018-04-30 | 2023-02-07 | The Trustees of the California State University | Integration of user emotions for a smartphone or other communication device environment |
US10699104B2 (en) * | 2018-05-03 | 2020-06-30 | International Business Machines Corporation | Image obtaining based on emotional status |
DK201870380A1 (en) | 2018-05-07 | 2020-01-29 | Apple Inc. | DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES |
DK180171B1 (en) | 2018-05-07 | 2020-07-14 | Apple Inc | USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT |
US11496425B1 (en) * | 2018-05-10 | 2022-11-08 | Whatsapp Llc | Modifying message content based on user preferences |
US10896197B1 (en) | 2018-05-22 | 2021-01-19 | Snap Inc. | Event detection system |
US10679393B2 (en) | 2018-07-24 | 2020-06-09 | Snap Inc. | Conditional modification of augmented reality object |
US10997760B2 (en) | 2018-08-31 | 2021-05-04 | Snap Inc. | Augmented reality anthropomorphization system |
JP7206370B2 (ja) | 2018-08-31 | 2023-01-17 | グーグル エルエルシー | 動的キーボードインターフェース内にアニメーション画像を配置するための方法およびシステム |
US10698583B2 (en) | 2018-09-28 | 2020-06-30 | Snap Inc. | Collaborative achievement interface |
US10778623B1 (en) | 2018-10-31 | 2020-09-15 | Snap Inc. | Messaging and gaming applications communication platform |
US10652182B1 (en) * | 2018-11-01 | 2020-05-12 | International Business Machines Corporation | Unlocking emoticons based on professional skills |
US10939236B1 (en) | 2018-11-30 | 2021-03-02 | Snap Inc. | Position service to determine relative position to map features |
US11199957B1 (en) | 2018-11-30 | 2021-12-14 | Snap Inc. | Generating customized avatars based on location information |
US10871877B1 (en) * | 2018-11-30 | 2020-12-22 | Facebook, Inc. | Content-based contextual reactions for posts on a social networking system |
JP6636604B2 (ja) * | 2018-12-12 | 2020-01-29 | 株式会社コロプラ | 感情テキスト表示プログラム、方法およびシステム |
US11032670B1 (en) | 2019-01-14 | 2021-06-08 | Snap Inc. | Destination sharing in location sharing system |
US10939246B1 (en) | 2019-01-16 | 2021-03-02 | Snap Inc. | Location-based context information sharing in a messaging system |
US11294936B1 (en) | 2019-01-30 | 2022-04-05 | Snap Inc. | Adaptive spatial density based clustering |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
US10936066B1 (en) | 2019-02-13 | 2021-03-02 | Snap Inc. | Sleep detection in a location sharing system |
US10838599B2 (en) | 2019-02-25 | 2020-11-17 | Snap Inc. | Custom media overlay system |
US10964082B2 (en) | 2019-02-26 | 2021-03-30 | Snap Inc. | Avatar based on weather |
CN109918530A (zh) * | 2019-03-04 | 2019-06-21 | 北京字节跳动网络技术有限公司 | 用于推送图像的方法和装置 |
US10852918B1 (en) | 2019-03-08 | 2020-12-01 | Snap Inc. | Contextual information in chat |
US11868414B1 (en) | 2019-03-14 | 2024-01-09 | Snap Inc. | Graph-based prediction for contact suggestion in a location sharing system |
US11852554B1 (en) | 2019-03-21 | 2023-12-26 | Snap Inc. | Barometer calibration in a location sharing system |
US11249614B2 (en) | 2019-03-28 | 2022-02-15 | Snap Inc. | Generating personalized map interface with enhanced icons |
US10810782B1 (en) | 2019-04-01 | 2020-10-20 | Snap Inc. | Semantic texture mapping system |
DK201970531A1 (en) | 2019-05-06 | 2021-07-09 | Apple Inc | Avatar integration with multiple applications |
CN110162670B (zh) * | 2019-05-27 | 2020-05-08 | 北京字节跳动网络技术有限公司 | 用于生成表情包的方法和装置 |
US10560898B1 (en) | 2019-05-30 | 2020-02-11 | Snap Inc. | Wearable device location systems |
US10582453B1 (en) | 2019-05-30 | 2020-03-03 | Snap Inc. | Wearable device location systems architecture |
US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
US11074408B2 (en) | 2019-06-01 | 2021-07-27 | Apple Inc. | Mail application features |
US10893385B1 (en) | 2019-06-07 | 2021-01-12 | Snap Inc. | Detection of a physical collision between two client devices in a location sharing system |
US20220291789A1 (en) * | 2019-07-11 | 2022-09-15 | Google Llc | System and Method for Providing an Artificial Intelligence Control Surface for a User of a Computing Device |
US11307747B2 (en) | 2019-07-11 | 2022-04-19 | Snap Inc. | Edge gesture interface with smart interactions |
US11821742B2 (en) | 2019-09-26 | 2023-11-21 | Snap Inc. | Travel based notifications |
US11218838B2 (en) | 2019-10-31 | 2022-01-04 | Snap Inc. | Focused map-based context information surfacing |
US11128715B1 (en) | 2019-12-30 | 2021-09-21 | Snap Inc. | Physical friend proximity in chat |
US11429618B2 (en) | 2019-12-30 | 2022-08-30 | Snap Inc. | Surfacing augmented reality objects |
US11169658B2 (en) | 2019-12-31 | 2021-11-09 | Snap Inc. | Combined map icon with action indicator |
US11343323B2 (en) | 2019-12-31 | 2022-05-24 | Snap Inc. | Augmented reality objects registry |
CN111131006B (zh) * | 2019-12-31 | 2021-05-18 | 联想(北京)有限公司 | 一种信息处理方法 |
US11228551B1 (en) | 2020-02-12 | 2022-01-18 | Snap Inc. | Multiple gateway message exchange |
US11516167B2 (en) | 2020-03-05 | 2022-11-29 | Snap Inc. | Storing data based on device location |
US11619501B2 (en) | 2020-03-11 | 2023-04-04 | Snap Inc. | Avatar based on trip |
US11430091B2 (en) | 2020-03-27 | 2022-08-30 | Snap Inc. | Location mapping for large scale augmented-reality |
US10956743B1 (en) | 2020-03-27 | 2021-03-23 | Snap Inc. | Shared augmented reality system |
US11209964B1 (en) * | 2020-06-05 | 2021-12-28 | SlackTechnologies, LLC | System and method for reacting to messages |
US11483267B2 (en) | 2020-06-15 | 2022-10-25 | Snap Inc. | Location sharing using different rate-limited links |
US11290851B2 (en) | 2020-06-15 | 2022-03-29 | Snap Inc. | Location sharing using offline and online objects |
US11503432B2 (en) | 2020-06-15 | 2022-11-15 | Snap Inc. | Scalable real-time location sharing framework |
US11314776B2 (en) | 2020-06-15 | 2022-04-26 | Snap Inc. | Location sharing using friend list versions |
US20220269354A1 (en) * | 2020-06-19 | 2022-08-25 | Talent Unlimited Online Services Private Limited | Artificial intelligence-based system and method for dynamically predicting and suggesting emojis for messages |
US11308327B2 (en) | 2020-06-29 | 2022-04-19 | Snap Inc. | Providing travel-based augmented reality content with a captured image |
US11349797B2 (en) | 2020-08-31 | 2022-05-31 | Snap Inc. | Co-location connection service |
JP7521342B2 (ja) * | 2020-09-08 | 2024-07-24 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
US11044218B1 (en) * | 2020-10-23 | 2021-06-22 | Slack Technologies, Inc. | Systems and methods for reacting to messages |
CN112540756B (zh) * | 2020-12-01 | 2024-05-31 | 杭州讯酷科技有限公司 | 一种基于光标位置推荐字段的ui界面构建方法 |
KR102656810B1 (ko) * | 2020-12-15 | 2024-04-11 | 주식회사 카카오 | 컨텐츠 리스트 제공 방법과 서버 및 사용자 단말의 동작 방법 |
CN114816599B (zh) * | 2021-01-22 | 2024-02-27 | 北京字跳网络技术有限公司 | 图像显示方法、装置、设备及介质 |
US11516539B2 (en) * | 2021-03-01 | 2022-11-29 | Comcast Cable Communications, Llc | Systems and methods for providing contextually relevant information |
US11606756B2 (en) | 2021-03-29 | 2023-03-14 | Snap Inc. | Scheduling requests for location data |
US11645324B2 (en) | 2021-03-31 | 2023-05-09 | Snap Inc. | Location-based timeline media content system |
US12026362B2 (en) | 2021-05-19 | 2024-07-02 | Snap Inc. | Video editing application for mobile devices |
US11561673B1 (en) | 2021-06-30 | 2023-01-24 | Salesforce, Inc. | User interface for searching content of a communication platform using reaction icons |
US11765115B2 (en) * | 2021-07-29 | 2023-09-19 | Snap Inc. | Emoji recommendation system using user context and biosignals |
EP4300409A4 (en) | 2021-08-26 | 2024-08-28 | Samsung Electronics Co Ltd | METHOD AND DEVICE FOR GENERATING EMOTIONAL COMBINATION CONTENT |
US11960845B2 (en) * | 2021-10-20 | 2024-04-16 | International Business Machines Corporation | Decoding communications with token sky maps |
US11829834B2 (en) | 2021-10-29 | 2023-11-28 | Snap Inc. | Extended QR code |
US12001750B2 (en) | 2022-04-20 | 2024-06-04 | Snap Inc. | Location-based shared augmented reality experience system |
DE102022110951A1 (de) | 2022-05-04 | 2023-11-09 | fm menschenbezogen GmbH | Vorrichtung zur Auswahl einer Trainings- und/oder Nutzungsempfehlung und/oder einer Charakterisierung |
US12020384B2 (en) | 2022-06-21 | 2024-06-25 | Snap Inc. | Integrating augmented reality experiences with other components |
US12020386B2 (en) | 2022-06-23 | 2024-06-25 | Snap Inc. | Applying pregenerated virtual experiences in new location |
US20240220717A1 (en) * | 2022-12-28 | 2024-07-04 | Twilio Inc. | Adding theme-based content to messages using artificial intelligence |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07271791A (ja) * | 1994-03-31 | 1995-10-20 | Sharp Corp | 文章編集装置 |
JP2008225602A (ja) * | 2007-03-09 | 2008-09-25 | Ntt Docomo Inc | 絵文字検索装置、絵文字検索システムおよび絵文字検索方法 |
US20080244446A1 (en) * | 2007-03-29 | 2008-10-02 | Lefevre John | Disambiguation of icons and other media in text-based applications |
JP2009157660A (ja) * | 2007-12-26 | 2009-07-16 | Kyocera Corp | 絵文字入力支援装置、絵文字入力支援方法、およびプログラム |
JP2009538462A (ja) * | 2006-05-26 | 2009-11-05 | ザイ コーポレイション オブ カナダ インコーポレイテッド | テキスト形式の文書に絵的人工物を挿入する装置および方法 |
JP2011138343A (ja) * | 2009-12-28 | 2011-07-14 | Denso Corp | 電子機器及びプログラム |
JP2011248538A (ja) * | 2010-05-25 | 2011-12-08 | Nippon Telegr & Teleph Corp <Ntt> | 記号入力支援装置、記号入力支援方法、及びプログラム |
Family Cites Families (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4706212A (en) | 1971-08-31 | 1987-11-10 | Toma Peter P | Method using a programmed digital computer system for translation between natural languages |
US5805911A (en) | 1995-02-01 | 1998-09-08 | Microsoft Corporation | Word prediction system |
US7319957B2 (en) * | 2004-02-11 | 2008-01-15 | Tegic Communications, Inc. | Handwriting and voice input with automatic correction |
US6269189B1 (en) * | 1998-12-29 | 2001-07-31 | Xerox Corporation | Finding selected character strings in text and providing information relating to the selected character strings |
US7051019B1 (en) * | 1999-08-17 | 2006-05-23 | Corbis Corporation | Method and system for obtaining images from a database having images that are relevant to indicated text |
US6990452B1 (en) * | 2000-11-03 | 2006-01-24 | At&T Corp. | Method for sending multi-media messages using emoticons |
JP2003256586A (ja) | 2002-02-28 | 2003-09-12 | Fuji Photo Film Co Ltd | 動画キャラクタ生成システム |
JP4232093B2 (ja) * | 2003-06-30 | 2009-03-04 | 日本電気株式会社 | 複数の検索方法を用いた顔文字入力システム及び方法 |
JP2005063245A (ja) * | 2003-08-18 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | 入力支援システム、入力支援機能を備えた端末装置及びそのプログラム |
US20050192802A1 (en) * | 2004-02-11 | 2005-09-01 | Alex Robinson | Handwriting and voice input with automatic correction |
US7669135B2 (en) * | 2004-07-15 | 2010-02-23 | At&T Mobility Ii Llc | Using emoticons, such as for wireless devices |
US8375327B2 (en) | 2005-01-16 | 2013-02-12 | Zlango Ltd. | Iconic communication |
JP2008529325A (ja) | 2005-01-16 | 2008-07-31 | ズランゴー リミテッド | 通信ネットワークシステムおよびそれを使用するための方法 |
WO2007080557A2 (en) | 2006-01-16 | 2007-07-19 | Zlango Ltd. | Activating an application |
US7506254B2 (en) | 2005-04-21 | 2009-03-17 | Google Inc. | Predictive conversion of user input |
CN101346718A (zh) | 2005-10-28 | 2009-01-14 | 意大利电信股份公司 | 用于向用户提供选定内容项的方法 |
IL173011A (en) * | 2006-01-08 | 2012-01-31 | Picscout Ltd | Image insertion for cellular text messaging |
WO2007080559A2 (en) * | 2006-01-16 | 2007-07-19 | Zlango Ltd. | Iconic communication |
EP1982450A2 (en) | 2006-01-16 | 2008-10-22 | Zlango Ltd. | Communications network system and methods for using same |
JP4730114B2 (ja) | 2006-01-30 | 2011-07-20 | 日本電気株式会社 | メッセージ作成支援方法及び携帯端末 |
US8065601B2 (en) * | 2006-08-03 | 2011-11-22 | Apple Inc. | System and method for tagging data |
TW200809543A (en) | 2006-08-10 | 2008-02-16 | Inventec Corp | Mail-editing system and method |
JP5098304B2 (ja) * | 2006-11-17 | 2012-12-12 | 日本電気株式会社 | 特殊文字入力支援装置及びこれを備える電子機器 |
US8299943B2 (en) * | 2007-05-22 | 2012-10-30 | Tegic Communications, Inc. | Multiple predictions in a reduced keyboard disambiguating system |
JP2009110056A (ja) | 2007-10-26 | 2009-05-21 | Panasonic Corp | 通信装置 |
CN100570545C (zh) * | 2007-12-17 | 2009-12-16 | 腾讯科技(深圳)有限公司 | 表情输入方法及装置 |
WO2009128838A1 (en) | 2008-04-18 | 2009-10-22 | Tegic Communications, Inc. | Disambiguation of icons and other media in text-based applications |
US9646078B2 (en) | 2008-05-12 | 2017-05-09 | Groupon, Inc. | Sentiment extraction from consumer reviews for providing product recommendations |
US8458153B2 (en) * | 2008-08-26 | 2013-06-04 | Michael Pierce | Web-based services for querying and matching likes and dislikes of individuals |
US20100131447A1 (en) * | 2008-11-26 | 2010-05-27 | Nokia Corporation | Method, Apparatus and Computer Program Product for Providing an Adaptive Word Completion Mechanism |
US20100332287A1 (en) | 2009-06-24 | 2010-12-30 | International Business Machines Corporation | System and method for real-time prediction of customer satisfaction |
JP2011171891A (ja) * | 2010-02-17 | 2011-09-01 | Panasonic Corp | 携帯端末 |
CN101820475A (zh) * | 2010-05-25 | 2010-09-01 | 拓维信息系统股份有限公司 | 基于智能语义理解的手机彩信生成方法 |
CN103229168B (zh) | 2010-09-28 | 2016-10-19 | 国际商业机器公司 | 在问答期间在多个候选答案之间证据扩散的方法和系统 |
US8648823B2 (en) * | 2010-11-05 | 2014-02-11 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
US9536269B2 (en) | 2011-01-19 | 2017-01-03 | 24/7 Customer, Inc. | Method and apparatus for analyzing and applying data related to customer interactions with social media |
US8548951B2 (en) | 2011-03-10 | 2013-10-01 | Textwise Llc | Method and system for unified information representation and applications thereof |
US8903713B2 (en) | 2011-11-19 | 2014-12-02 | Richard L. Peterson | Method and apparatus for automatically analyzing natural language to extract useful information |
US9348479B2 (en) | 2011-12-08 | 2016-05-24 | Microsoft Technology Licensing, Llc | Sentiment aware user interface customization |
US20130159919A1 (en) * | 2011-12-19 | 2013-06-20 | Gabriel Leydon | Systems and Methods for Identifying and Suggesting Emoticons |
US20130247078A1 (en) * | 2012-03-19 | 2013-09-19 | Rawllin International Inc. | Emoticons for media |
US9483730B2 (en) | 2012-12-07 | 2016-11-01 | At&T Intellectual Property I, L.P. | Hybrid review synthesis |
GB201322037D0 (en) | 2013-12-12 | 2014-01-29 | Touchtype Ltd | System and method for inputting images/labels into electronic devices |
US20140278786A1 (en) * | 2013-03-14 | 2014-09-18 | Twain Liu-Qiu-Yan | System and method to survey and evaluate items according to people's perceptions and to generate recommendations based on people's perceptions |
US9613023B2 (en) | 2013-04-04 | 2017-04-04 | Wayne M. Kennard | System and method for generating ethnic and cultural emoticon language dictionaries |
US20140365208A1 (en) | 2013-06-05 | 2014-12-11 | Microsoft Corporation | Classification of affective states in social media |
US9311467B2 (en) | 2013-08-20 | 2016-04-12 | International Business Machines Corporation | Composite propensity profile detector |
US10706367B2 (en) | 2013-09-10 | 2020-07-07 | Facebook, Inc. | Sentiment polarity for users of a social networking system |
US20150100537A1 (en) | 2013-10-03 | 2015-04-09 | Microsoft Corporation | Emoji for Text Predictions |
US20150199609A1 (en) | 2013-12-20 | 2015-07-16 | Xurmo Technologies Pvt. Ltd | Self-learning system for determining the sentiment conveyed by an input text |
US10013601B2 (en) | 2014-02-05 | 2018-07-03 | Facebook, Inc. | Ideograms for captured expressions |
US10038786B2 (en) | 2014-03-05 | 2018-07-31 | [24]7.ai, Inc. | Method and apparatus for improving goal-directed textual conversations between agents and customers |
RU2571373C2 (ru) | 2014-03-31 | 2015-12-20 | Общество с ограниченной ответственностью "Аби ИнфоПоиск" | Метод анализа тональности текстовых данных |
US9043196B1 (en) | 2014-07-07 | 2015-05-26 | Machine Zone, Inc. | Systems and methods for identifying and suggesting emoticons |
US20160048768A1 (en) | 2014-08-15 | 2016-02-18 | Here Global B.V. | Topic Model For Comments Analysis And Use Thereof |
US10552759B2 (en) | 2014-12-01 | 2020-02-04 | Facebook, Inc. | Iterative classifier training on online social networks |
-
2011
- 2011-12-19 US US13/330,357 patent/US20130159919A1/en not_active Abandoned
-
2012
- 2012-12-19 MY MYPI2014001804A patent/MY170666A/en unknown
- 2012-12-19 RU RU2014129554A patent/RU2014129554A/ru unknown
- 2012-12-19 SG SG11201403373XA patent/SG11201403373XA/en unknown
- 2012-12-19 CN CN201280068550.6A patent/CN104335607A/zh active Pending
- 2012-12-19 AU AU2012358964A patent/AU2012358964B2/en not_active Ceased
- 2012-12-19 SG SG10201707573WA patent/SG10201707573WA/en unknown
- 2012-12-19 BR BR112014015219A patent/BR112014015219A8/pt not_active Application Discontinuation
- 2012-12-19 WO PCT/US2012/070677 patent/WO2013096482A2/en active Application Filing
- 2012-12-19 CA CA2859811A patent/CA2859811A1/en not_active Abandoned
- 2012-12-19 NZ NZ717653A patent/NZ717653A/en not_active IP Right Cessation
- 2012-12-19 EP EP12858827.4A patent/EP2795441B1/en not_active Not-in-force
- 2012-12-19 NZ NZ627285A patent/NZ627285A/en not_active IP Right Cessation
- 2012-12-19 JP JP2014548845A patent/JP6254534B2/ja not_active Expired - Fee Related
- 2012-12-19 MY MYPI2018000076A patent/MY189954A/en unknown
- 2012-12-19 KR KR1020147020236A patent/KR20140105841A/ko active Search and Examination
- 2012-12-19 MX MX2014007479A patent/MX2014007479A/es unknown
- 2012-12-19 EP EP18000201.6A patent/EP3352092A1/en not_active Withdrawn
-
2014
- 2014-04-02 US US14/243,042 patent/US8909513B2/en not_active Expired - Fee Related
- 2014-07-16 ZA ZA2014/05207A patent/ZA201405207B/en unknown
- 2014-12-08 US US14/563,004 patent/US9075794B2/en not_active Expired - Fee Related
-
2015
- 2015-04-15 HK HK15103701.7A patent/HK1203238A1/xx not_active IP Right Cessation
- 2015-06-08 US US14/733,112 patent/US9244907B2/en not_active Expired - Fee Related
- 2015-12-21 US US14/976,925 patent/US10254917B2/en not_active Expired - Fee Related
-
2016
- 2016-06-15 AU AU2016204020A patent/AU2016204020B2/en not_active Ceased
- 2016-07-21 AU AU2016206331A patent/AU2016206331B1/en not_active Ceased
- 2016-11-02 AU AU2016253602A patent/AU2016253602B2/en not_active Ceased
-
2017
- 2017-11-30 JP JP2017230299A patent/JP6563465B2/ja not_active Expired - Fee Related
-
2019
- 2019-02-06 AU AU2019200788A patent/AU2019200788A1/en not_active Abandoned
- 2019-02-22 US US16/282,447 patent/US20190187879A1/en not_active Abandoned
- 2019-07-24 JP JP2019136207A patent/JP2019207726A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07271791A (ja) * | 1994-03-31 | 1995-10-20 | Sharp Corp | 文章編集装置 |
JP2009538462A (ja) * | 2006-05-26 | 2009-11-05 | ザイ コーポレイション オブ カナダ インコーポレイテッド | テキスト形式の文書に絵的人工物を挿入する装置および方法 |
JP2008225602A (ja) * | 2007-03-09 | 2008-09-25 | Ntt Docomo Inc | 絵文字検索装置、絵文字検索システムおよび絵文字検索方法 |
US20080244446A1 (en) * | 2007-03-29 | 2008-10-02 | Lefevre John | Disambiguation of icons and other media in text-based applications |
JP2009157660A (ja) * | 2007-12-26 | 2009-07-16 | Kyocera Corp | 絵文字入力支援装置、絵文字入力支援方法、およびプログラム |
JP2011138343A (ja) * | 2009-12-28 | 2011-07-14 | Denso Corp | 電子機器及びプログラム |
JP2011248538A (ja) * | 2010-05-25 | 2011-12-08 | Nippon Telegr & Teleph Corp <Ntt> | 記号入力支援装置、記号入力支援方法、及びプログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6563465B2 (ja) | エモティコンを識別および提案するためのシステムおよび方法 | |
US10579717B2 (en) | Systems and methods for identifying and inserting emoticons | |
JP2017527881A (ja) | エモティコンを識別および提案するためのシステムおよび方法 | |
JP2019153338A (ja) | エモティコンを識別および提案するためのシステムおよび方法 | |
NZ713913B2 (en) | Systems and methods for identifying and suggesting emoticons | |
NZ713912B2 (en) | Systems and methods for identifying and suggesting emoticons |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190808 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210518 |