JP6254534B2 - エモティコンを識別および提案するためのシステムおよび方法、ならびに、コンピュータプログラム - Google Patents

エモティコンを識別および提案するためのシステムおよび方法、ならびに、コンピュータプログラム Download PDF

Info

Publication number
JP6254534B2
JP6254534B2 JP2014548845A JP2014548845A JP6254534B2 JP 6254534 B2 JP6254534 B2 JP 6254534B2 JP 2014548845 A JP2014548845 A JP 2014548845A JP 2014548845 A JP2014548845 A JP 2014548845A JP 6254534 B2 JP6254534 B2 JP 6254534B2
Authority
JP
Japan
Prior art keywords
emoticons
emoticon
user
candidate
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014548845A
Other languages
English (en)
Other versions
JP2015507791A5 (ja
JP2015507791A (ja
Inventor
レイドン,ガブリエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Machine Zone Inc
Original Assignee
Machine Zone Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Machine Zone Inc filed Critical Machine Zone Inc
Publication of JP2015507791A publication Critical patent/JP2015507791A/ja
Publication of JP2015507791A5 publication Critical patent/JP2015507791A5/ja
Application granted granted Critical
Publication of JP6254534B2 publication Critical patent/JP6254534B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Document Processing Apparatus (AREA)

Description

発明の分野
本願明細書において記載される発明は一般的にエモティコン(emoticon)に関する。より特定的には、本発明は、コンピューティングデバイス上でのさまざまなアクティビティの間にエモティコンを識別および提案するためのシステムおよび方法に関する。
関連技術の記載
元々、エモティコンは、文字、数および記号のようなコンピュータキーボード上に一般的に見出される文字(例えばASCII文字)によって示される顔表現であった。これらの元々のエモティコンは、著者による電子メッセージまたは電子投稿(たとえば電子掲示板)中に配置されると、著者の気分を伝えるか、または当該メッセージもしくは投稿の全体的な感情を伝達する/高めるよう意図されていた。最初は、これらのエモティコンは、幸福、怒り、悲しみおよび無関心といった気分を表すことに制限されていた。しかしながら徐々に、これらの文字ベースのエモティコンキャラクタ(以下、「文字エモティコン」)の使用は、意味とメッセージとを伝達することへと拡大した。
最終的にエモティコンはさらに、タイプ、可用性、および使用において拡大した。今日、エモティコンは、文字エモティコンと、グラフィカルイメージによって示されるエモティコン(以下、「グラフィカルエモティコン」)とを含む。グラフィカルエモティコンの可用性により、ユーザは、文字エモティコンだけでは可能ではなかったより多くの気分、意味およびメッセージを表現することができる。ここで、文字エモティコンおよびグラフィカルエモティコンの両方は、さまざまなデジタルデバイス(たとえばモバイルテレコミュニケーションデバイスおよびタブレット)を通じて利用可能であり、特にインターネットに関するさまざまなコンピューティングアクティビティにおいて用いられている。たとえば、グラフィカルエモティコンは、個人的な電子メールを作成する際、メッセージをインターネット上に投稿する際(たとえばソーシャルネットワーキングサイトまたはウェブフォーラム上)、およびモバイルデバイス同士の間でメッセージ通信を行う際の使用に一般に利用可能である。一般に、ユーザがエモティコンに適用可能なコンピューティングアクティビティを行なう際には、ユーザはメニューまたはライブラリを通じてエモティコンにアクセスし得る。ユーザは、当該メニューまたはライブラリから、コンピューティングアクティビティで使用されるエモティコンをブラウズおよび選択し得る。
グラフィカルエモティコンの出現により、ユーザが選ぶことができるエモティコンの数は膨大に増加したという問題がある。ほとんどすべての想像可能な事項に利用可能なグラフィカルエモティコンが存在する。エモティコンの数、使用、可用性および多様性の拡大により、エモティコンを適用可能なコンピューティングアクティビティに参加している際に所与のコンテキストについて、ブラウズして適切なエモティコンを選択することは、ユーザにとってかなり時間を浪費することであり得、時に閉口させられることである。
実施の形態の概要
本願明細書において論じられるさまざまな実施の形態は、テキストのセグメントについてエモティコンを識別および提案するためのシステムおよび方法を提供する。いくつかのシステムおよび方法は、コンピューティングデバイス上でのユーザアクティビティの間に用いられ得る。ユーザアクティビティは、インスタントメッセージング、オンラインチャットルームへの参加、電子メールの作成、ウェブブログの投稿、またはウェブフォーラムへの投稿を含むが、これらに限定されない。
例示的な方法は、セグメントのセットをテキストフィールドから受け取るステップと、上記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう上記セグメントのセットを分析するステップと、候補のエモティコンのセットを識別するステップとを含み、上記候補のエモティコンのセットにおける各候補のエモティコンは、上記候補のエモティコンと上記目標サブテキストまたは上記目標意味の少なくとも1つとの間に関連性を有している。上記方法はさらに、エントリ選択のために入力カーソルの現在位置に上記候補のエモティコンのセットを提示するステップと、上記候補のエモティコンのセットからの選択されるエモティコンのセットについて、エントリ選択を受け取るステップと、上記選択されるエモティコンのセットを上記テキストフィールドにおける上記入力カーソルの現在位置に挿入するステップを含んでもよい。上記セグメントのセットは上記テキストフィールドにおける入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含んでもよく、上記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでもよく、上記選択されるエモティコンのセットは1つ以上の選択されるエモティコンを含んでもよい。実施の形態に依存して、上記セグメントのセットを分析するステップは、上記セグメントのセットの意味分析を含んでもよい。
いくつかの実施の形態の場合、各関連性は、上記目標サブテキストまたは上記目標意味の少なくとも1つとの上記候補のエモティコンの統計的な使用を含んでもよい。さらに、いくつかの実施の形態の場合、上記方法は、上記選択されるエモティコンのセットについての上記エントリ選択に基づき、上記候補のエモティコンの上記統計的な使用を更新するステップをさらに含んでもよい。実施の形態に依存して、上記統計的な使用は単一のユーザまたは複数のユーザによる使用に基づいてもよい。
エントリ選択のために上記エモティコンのセットを提示するステップは、エントリ選択のために上記入力カーソルの現在位置または現在位置の近くに上記エモティコンを表示するステップを含んでもよい。エントリ選択のために上記候補のエモティコンのセットを提示するステップは、エントリ選択のために物理的な入力装置または仮想入力装置(たとえばオンスクリーンキーボードまたは投影されたキーボード)上に上記候補のエモティコンのセットを表示するステップを含んでもよく、上記物理的な入力装置および表示された入力インターフェイスは、上記エントリ選択を実行するよう構成される。実施の形態に依存して、上記仮想入力装置は、上記テキストフィールドも表示している表示装置によって表示されてもよい。さらに、上記仮想入力装置は、上記テキストフィールドに近接近して表示されてもよい。
いくつかの実施の形態では、上記方法はさらに、構文分析を用いて上記セグメントのセットを識別するステップを含んでもよい。対象の各セグメントは、入力カーソルの現在位置の前または後に存在する単語、文の断片、文、句、または節の少なくとも1つを含んでもよい。
特定の実施の形態では、上記候補のエモティコンのセットを識別するステップはさらに、少なくともユーザプレファレンス、ユーザに関連する情報、または受信者に関連する情報に基づいてもよい。上記ユーザに関連する情報は、ユーザの興味と、ユーザの民族性と、ユーザの宗教と、ユーザの地理的位置と、ユーザの年齢と、ユーザの関係ステータスと、ユーザの職業とを含んでもよい。上記受信者に関連する情報は、ユーザに対する受信者の関係と、受信者の興味と、受信者の民族性と、受信者の宗教と、受信者の地理的位置と、受信者の年齢と、受信者の関係ステータスと、受信者の職業とを含んでもよい。
例示的なシステムは、プロセッサと、表示モジュールと、入力モジュールと、セグメント分析モジュールと、エモティコン検索モジュールと、エモティコン提案モジュールと、エモティコン選択モジュールとを含む。上記表示モジュールは、テキストフィールドと上記テキストフィールドに入力される1つ以上のセグメントとを表示するよう構成されてもよい。
上記入力モジュールは、セグメント入力をユーザから受け取り、上記セグメント入力を上記テキストフィールド内に入力カーソルにて入力するよう構成されてもよい。セグメント分析モジュールは、セグメントのセットを上記テキストフィールドから受け取るよう構成されてもよく、上記セグメントのセットは上記テキストフィールドにおける上記入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含む。上記セグメント分析モジュールはさらに、上記プロセッサを用いて、上記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう上記セグメントのセットを分析するよう構成されてもよい。上記エモティコン検索モジュールは、候補のエモティコンのセットを識別するよう構成されてもよく、上記候補のエモティコンのセットにおける各候補のエモティコンは、上記候補のエモティコンと上記目標サブテキストまたは上記目標意味の少なくとも1つとの間に関連性を有しており、上記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでいる。上記エモティコン提案モジュールは、エントリ選択のために上記入力カーソルの現在位置に上記表示モジュールを通じて上記候補のエモティコンのセットを提示するよう構成されてもよい。上記エモティコン選択モジュールは、上記候補のエモティコンのセットからの選択されるエモティコンのセットについて、上記入力モジュールからエントリ選択を受け取るよう構成されてもよく、上記選択されるエモティコンのセットは1つ以上の選択されるエモティコンを含む。上記エモティコン選択モジュールはさらに、上記選択されるエモティコンのセットを上記テキストフィールドにおける上記入力カーソルの現在位置に挿入するよう構成されてもよい。
いくつかの実施の形態では、上記システムは、上記テキストフィールドへのエントリが可能な1つ以上のエモティコンを含むエモティコンデータストアをさらに含み、上記エモティコン検索モジュールはさらに、上記エモティコンデータストア上の候補のエモティコンのセットを識別するよう構成される。
さまざまな実施の形態では、各関連性は、上記目標サブテキストまたは上記目標意味の少なくとも1つとの上記候補のエモティコンの統計的な使用を含んでもよく、上記エモティコン選択モジュールはさらに、上記選択されるエモティコンのセットについての上記エントリ選択に基づき、上記候補のエモティコンの上記統計的な使用を更新するよう構成されてもよい。
いくつかの実施の形態では、エントリ選択のために上記表示モジュールを通じて上記エモティコンのセットを提示することは、エントリ選択のために上記入力カーソルの現在位置または現在位置の近くに上記エモティコンを表示することを含んでもよい。上記入力モジュールは物理的な入力装置または仮想入力装置を含んでもよく、上記物理的な入力装置および仮想入力インターフェイスは、上記エントリ選択を実行するよう構成される。
いくつかの実施の形態の他の特徴および局面は、添付の図面に関連して解釈される、さまざまな実施の形態に従って特徴を例示目的で記載する以下の詳細な説明から明らかになるであろう。
以下の図を参照してさまざまな実施の形態が詳細に記載される。当該図面は、例示目的にのみ提供されており、単にいくつかの例示的な実施の形態を示す。これらの図面は、さまざまな実施の形態についての読者の理解を促進するために提供されており、実施の形態の広さ、範囲または適用可能性を限定するとは考えられるべきではない。
さまざまな実施の形態が用いられ得る環境の例を示す図である。 いくつかの実施の形態に従った例示的なエモティコン提案システムのブロック図である。 いくつかの実施の形態に従った、エモティコンを識別および提案するための例示的な方法のフローチャートである。 いくつかの実施の形態に従ったクライアントサーバアーキテクチャを用いる例示的なエモティコン提案システムのブロック図である。 ある実施の形態を利用するメッセージングアプリケーションのユーザインターフェイスを示す図である。 ある実施の形態を利用するメッセージングアプリケーションのユーザインターフェイスを示す図である。 例示的なデジタルデバイスのブロック図である。
実施の形態の詳細な説明
本願明細書において記載される多くの実施の形態は、テキストフィールドへの文字のタイピングを伴う、コンピューティングデバイス上でのさまざまなアクティビティの間に、エモティコンを識別および提案するシステムおよび方法に関する。さまざまなシステムおよび方法が、テキストフィールドに存在するセグメントのコンテキストの分析をするとともにそのコンテキストに基づいてテキストフィールドへのエントリに利用可能な1つ以上の候補のエモティコンを識別することにより、エモティコンを識別し得る。その後、ユーザは候補のエモティコンから1つ以上のエモティコンを選択し得、選択されるエモティコンは、テキストフィールドに入力され得る。随意では、ユーザは、エモティコンの提案を完全に無視するよう選択し、コンピューティングデバイス上の自身のアクティビティを継続し得る。この記載において使用されるように、「セグメント」は、単語、句、文の断片、文または節を示す1つ以上の文字を含み得る。
実施の形態に依存して、テキストフィールドに存在するセグメントのコンテキストの分析は、それらのセグメントの意味解析を必要とし得る、それらのセグメントに関するサブテキストまたは意味を決定することを伴い得る。さらに、本願明細書に記載されるように、特定の候補のエモティコンと特定のサブテキストまたは意味との間の関連性は、特定のサブテキストまたは意味を持つ特定の候補のエモティコンの(過去の)統計的な使用に基づき得る。さまざまな実施の形態では、このようなエモティコンの使用は、特定のサブテキストもしくは意味(たとえば特定のサブテキストもしくは意味における提案されるエモティコンのユーザの選択)との特定のエモティコンのユーザの個人的な使用に基づき得るか、または特定のサブテキストもしくは意味(たとえばユーザのコミュニティによるソーシャルネットワーク上の投稿におけるあるエモティコンの観察された使用)を持つ特定のエモティコンのコミュニティの使用に基づき得る。
図1は、さまざまな実施の形態が用いられ得る環境100の例を示す。環境100は、タブレットコンピューティングデバイス104と、タブレットコンピューティングデバイス104に結合されたローカルのエモティコンデータストア102と、スマートフォンコンピューティングデバイス108と、スマートフォンコンピューティングデバイス108に結合されたローカルのエモティコンデータストア106と、デスクトップコンピューティングデバイス112と、デスクトップコンピューティングデバイス112に結合されたローカルのエモティコンデータストア114と、エモティコン提案サーバ116と、エモティコン提案サーバ116に結合されたローカルのエモティコンデータストア118とを含む。環境100はさらに通信ネットワーク110を含む。通信ネットワーク110上で、タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108、デスクトップコンピューティングデバイス112およびエモティコン提案サーバ116が通信する。タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108、デスクトップコンピューティングデバイス112、およびエモティコン提案サーバ116は、プロセッサおよびメモリを有するデジタルデバイスの例である。さまざまな実施の形態が用いられ得る他の例示的なデジタルデバイスは、ラップトップ、ネットブック、ノートブック、メディアデバイス、音楽デバイス、携帯情報端末(PDA)などを含む。例示的なデジタルデバイスが、図7にさらに記載される。
いくつかの実施の形態に従うと、タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108、およびデスクトップコンピューティングデバイス112は、入力のためのエモティコンを識別および提案するためのシステムおよび方法を利用する例示的なデジタルデバイスであり得る。たとえば、このようなコンピューティングデバイスは、ユーザがこのようなコンピューティングデバイス上でインスタントメッセージングアプリケーションを使用している場合、またはユーザがこのようなコンピューティングデバイスを通じてウェブサイトフォーラムにメッセージを投稿している場合に、ある実施の形態を用いてエモティコンを識別および提案し得る。本願明細書において記載されるさまざまな実施の形態に関連して他のデジタルデバイスが用いられ得ることが当業者には理解されるであろう。
いくつかの実施の形態では、エモティコン提案サーバ116は、デジタルデバイスにてユーザのためにエモティコンの識別および提案を促進し得る。本願明細書において後述されるように、エモティコン提案サーバ116は、セグメントのコンテキストを決定し得るか、決定されたコンテキストに基づいて1つ以上の候補のエモティコンを識別し得るか、デジタルデバイスに1つ以上の候補のエモティコンを提案し得るか、またはそれらの何らかの組合せを行い得る。さまざまな実施の形態の場合、エモティコン提案サーバ116は、エモティコン提案サーバ116がインターネットサービスにエモティコンの提案機能性を提供する場合、インターネットサービスをホストするサーバ上で動作するサービスであり得る。たとえば、エモティコン提案サーバ116は、エモティコン提案サーバ116によってサービスが提供されている(すなわちエモティコン提案サーバ116によってエモティコンの提案が提供されている)ウェブサイト(たとえばウェブサイトフォーラムまたはソーシャルネットワーキングウェブサイト)をホストしているウェブサーバ上で動作するサービスであり得る。
実施の形態に依存して、エモティコンを識別および提案するためのさまざまな動作およびコンポーネントは、エモティコンの提案を利用するデジタルデバイスに分離され得るか、または2つ以上のデジタルデバイスの間で変動するレベルで分散され得る。たとえば、スマートフォンコンピューティングデバイス108上で電子メールを作成する際にエモティコンを識別、提案、および入力するためのシステムまたは方法は、スマートフォンコンピューティングデバイス108上に格納および動作される電子メールアプリケーションに完全に埋め込まれ得る。代替的な例においては、ウェブサイトフォーラムのためにメッセージ投稿を準備するようタブレットコンピューティングデバイス104を使用している間、エモティコンを識別、提案、および入力するためのシステムまたは方法は、タブレットコンピューティングデバイス104を利用して、現在準備されるメッセージのコンテキストを決定し、エモティコン提案サーバ116を利用して、現在準備されるメッセージにおいて使用される1つ以上の候補のエモティコンを識別し、次いで、タブレットコンピューティングデバイス104を利用して、提案されるエモティコンとして候補のエモティコンを提示し得る。
エモティコン提案サーバ116は、デジタルデバイスへのエモティコンの識別および提案の間、リモートのエモティコンデータストア118を利用し得る。ある実施の形態の場合、リモートのエモティコンデータストア118は、エモティコン提案サーバ116による提案に利用可能なエモティコンのライブラリと、当該ライブラリにおけるエモティコンとコンテキスト(たとえばサブテキストおよび意味)との間の関連性とを含み得る。たとえば、リモートのエモティコンデータストア118は、「幸せな顔」のエモティコンのライブラリと、「幸せな顔」のエモティコンと幸福なコンテキストとの間の関連性とを含み得る。別の例では、リモートのエモティコンデータストア118は、「サンフランシスコ」のエモティコンのライブラリと、「サンフランシスコ」のエモティコンとサンフランシスコの町を明示的または暗黙的に指すコンテキストとの間の関連性とを含み得る。いくつかの実施の形態の場合、リモートのエモティコンデータストア118は、所与のエモティコンと所与のコンテキスト(たとえばサブテキストまたは意味)との間の2つ以上の関連性を含み得る。たとえば、リモートのエモティコンデータストア118は、「しかめっ面」のエモティコンのライブラリと、「しかめっ面」のエモティコンと悲しいコンテキストとの間の関連性と、「しかめっ面」のエモティコンと不快なコンテキストとの間の関連性とを含み得る。さまざまなエモティコンライブラリおよびエモティコンとコンテキストとの間のさまざまな関連性が、リモートのエモティコンデータストア118上に格納され得るということを当業者であれば理解するであろう。
実施の形態に依存して、エモティコンのライブラリは、任意のユーザによってアクセス可能なエモティコンか、(たとえば、プレミアムに基づくか、またはあるグループにのみアクセス可能であるといった)アクセスが制限された限定されたグループのユーザによってアクセス可能なエモティコンか、ユーザがカスタマイズしたエモティコンもしくはユーザがアップロードしたエモティコン、またはユーザのお気に入りであるエモティコンを含み得る。著者の気分または感情を伝える文字エモティコンおよびグラフィカルエモティコンに加えて、さまざまな実施の形態において使用されるエモティコンは、関心事、趣味、地理的な位置、イベント、休日、季節および天候などに関するエモティコンを含み得る。エモティコン提案データストア118上に格納されたエモティコンは、文字エモティコン、グラフィカルエモティコン、グラフィカルにアニメーション化されたエモティコン、および音を伴ったエモティコンを含み得る。いくつかの実施の形態の場合、リモートのエモティコンデータストア118はさらに、提案に好適なエモティコンを識別する際に実施の形態において利用され得るユーザプレファレンス、ユーザ情報または受信者情報を含み得る。たとえば、リモートのエモティコンデータストア118は、任意のユーザに一般に利用可能なエモティコンを提案する前に、ユーザが規定したエモティコンまたはユーザがアップロードしたエモティコンを実施の形態に提案させるユーザプレファレンスを格納し得る。別の例では、リモートのエモティコンデータストア118は、実施の形態によってユーザに提案された第1のエモティコンを実施の形態に自動的に挿入させるか、または所与のコンテキストにおいてもっとも使用が高い提案されるエモティコンを実施の形態に自動的に挿入させるユーザプレファレンスを格納し得る。
いくつかの実施の形態では、タブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108およびデスクトップコンピューティングデバイス112は各々、別個のローカルのエモティコンデータストアに結合され得る。別個のローカルのエモティコンデータストアは、ユーザがカスタマイズしたエモティコン、ユーザのお気に入りもしくはユーザが好むエモティコン、ローカルのエモティコン上に格納されたエモティコンとコンテキスト(たとえばサブテキストまたは意味)との間の関連性、エモティコンの識別および提案に関してのユーザプレファレンス、ユーザに関連する情報、または受信者に関連する情報を格納可能である。たとえば、タブレットコンピューティングデバイス104は、ローカルのエモティコンデータストア102に結合され得、スマートフォンコンピューティングデバイス108は、結合されたローカルのエモティコンデータストア106に結合され得、デスクトップコンピューティングデバイス112は、ローカルのエモティコンデータストア114に結合され得る。
さらに、ローカルのエモティコンデータストア102、106および114の各々は、それらのそれぞれのコンピューティングデバイスによって用いられて、以前に提案されたエモティコンまたは以前にユーザによって選択された提案されたエモティコンをローカルにキャッシュし得る。その際、いくつかの実施の形態は、当該提案されたエモティコンについてエモティコン提案サーバ116がクエリを受ける回数を制限しつつ、共通して発生するコンテキストについて同じエモティコンを繰り返し提案し得る。いくつかの実施の形態の場合、ローカルのエモティコンデータストア102、106および114にキャッシュされたエモティコンは、失効時間を有し得る。当該失効時間の後、キャッシュされたエモティコンは無効化またはパージされる。ひとたびキャッシュ中のエモティコンアイテムが失効すると、いくつかの実施の形態は、提案されるエモティコンについてエモティコン提案サーバ116にクエリを送ることを再開する。
図2は、いくつかの実施の形態に従った例示的なエモティコン提案システム200のブロック図である。エモティコン提案システム200は、表示モジュール202、入力モジュール204、セグメント分析モジュール206、エモティコン検索モジュール208、エモティコン提案モジュール210、エモティコン選択モジュール212、およびエモティコンデータストア214を含み得る。いくつかの実施の形態では、エモティコン提案システム200はさらに、エモティコン提案システム200に含まれるさまざまなモジュールの動作を促進するメモリおよび少なくとも1つのプロセッサを含み得る。
表示モジュール202は、テキストフィールドまたはテキストボックスのような入力フィールドを表示し得る。入力フィールドに、ユーザは入力モジュール204を使用して、1つ以上のセグメント、文字エモティコンまたはグラフィカルエモティコンを入力し得る。典型的に、セグメントおよびエモティコンは、入力フィールドに入力されると、入力フィールドに現われる。本願明細書において示されるように、「セグメント」は、単語、句、文の断片、文または節を示す1つ以上の文字を含み得る。入力フィールドの一部として、表示モジュール202は、ユーザの文字入力が次にどこに入力されるか、またはエモティコンが次にどこに入力されるかを示す入力カーソルを表示し得る。
本願明細書において示されるように、さまざまな実施の形態は、入力フィールド内の入力カーソルの現在位置、入力の現在のセグメント内容、ユーザに関連する情報、受信者に関連する情報、ユーザプレファレンスまたはそれらの何らかの組合せに基づき、エモティコンを提案し得る。一般に、ひとたび1つ以上の候補のエモティコンがユーザへの提案のために(たとえば、入力フィールドのセグメント内容に基づいて)識別されると、候補のエモティコンは表示モジュール202を介してユーザに提案され得る。具体的には、表示モジュール202は、ユーザの選択のために、入力フィールドにおける入力カーソルの現在位置または当該現在位置の近くに、候補のエモティコンを表示し得る。実施の形態に依存して、表示モジュール202は、コールアウトボックスを介して、入力フィールドまたはその入力フィールドの近くに、候補のエモティコンを表示し得る。
いくつかの実施の形態の場合、表示モジュール202は、デジタルデバイス(たとえばビデオディスプレイまたはビデオプロジェクタ)の一部を形成し得る。当該デジタルデバイスは、デジタルデバイスからのグラフィカル出力をすべて表示することを担い得る。いくつかの実施の形態では、表示モジュール202は、グラフィカルユーザインターフェイス(GUI)の一部として、入力フィールドを表示し得る。たとえば、入力フィールドは、デジタルデバイス上で動作するアプリケーションのグラフィカルコンポーネントであり得る(たとえば電子メールクライアントもしくはインスタントメッセージングアプリケーション)か、またはデジタルデバイス上で動作するアプリケーションを通じて閲覧可能もしくは編集可能である文書のグラフィカル表示であり得る(たとえば、ウェブブラウザを通じて示されるウェブページのテキストフィールドもしくはワードプロセッサを通じて示される文書)。当業者であれば、実施の形態同士の間で入力フィールドのタイプとサイズが変動し得るということを理解するであろう。
入力モジュール204は、ユーザから文字入力を受け取り得、受け取られたようにこのような文字入力を入力フィールドに入力し得る。文字入力が入力フィールドに入力されると、表示モジュール202は、当該文字入力で入力フィールドを更新し得る。さらに、さまざまな実施の形態に従うと、入力モジュール204は、提案されるエモティコンについてのエントリ選択を受け取り得る。一般に、選択に際して、選択されるエモティコンは、入力フィールドにおける入力カーソルの現在位置に挿入され得る。実施の形態に依存して、入力モジュールは、デジタルデバイスに外部的に結合されるか、またはデジタルデバイスに物理的に埋め込まれる物理的な入力装置を含み得る。物理的な入力装置の例は、キーボード、トラックパッドまたはコンピュータマウスを含み得るが、これらに限定されない。いくつかの実施の形態では、入力モジュールは、レーザ投射されたキーボードまたはオンスクリーンキーボードのような仮想入力装置を含み得る。仮想入力装置は、表示モジュール202を通じてユーザに提供され得る(すなわち表示され得る)。さまざまな実施の形態において、仮想入力装置が使用される際には、このような仮想入力装置は、セグメントが入力される入力フィールドまたはその入力フィールドの近くに表示され得る。
図6にさらに記載されるように、いくつかの実施の形態において、提案されるエモティコンは、入力モジュール204を通じてユーザに提示され得る。たとえば、入力モジュール204が物理的なキーボードを含む場合、物理的なキーボードは、提案されるエモティコンを当該物理的なキーボードを通じて表示するように構成され得る。いくつかの実施の形態の場合、物理的なキーボードは、埋め込まれたディスプレイ(たとえばLCDボタン)を含むキーもしくはボタンによって、または物理的なキーボードの表面上(たとえばキーボードの頂部)に埋め込まれたディスプレイによって、提案されるエモティコンを表示し得る。実施の形態に依存して、提案されるエモティコンは、物理的なキーボードを通じてカラーまたはグレイスケールで表示され得る。提案されるエモティコンが物理的なキーボードを通じて表示される際、ユーザは、物理的なキーボードのキーまたはボタンを通じて、当該提案されるエモティコンの1つ以上を選択し得る。
別の例では、入力モジュール204が、(何らかのタブレットコンピューティングデバイスおよびスマートフォンコンピューティングデバイス上に存在するもののような)オンスクリーンキーボードを含む場合、オンスクリーンキーボードの外観は、オンスクリーンキーボードを通じて、提案されるエモティコンを表示するよう再構成され得る。いくつかの実施の形態の場合、オンスクリーンキーボードの外観は、オンスクリーンキーボードのあるボタンが、提案されるエモティコンボタンに置換されるように再構成され得るか、またはオンスクリーンキーボードが、付加的な提案されるエモティコンボタンで強化されるように再構成され得る。提案されるエモティコンボタンは、ひとたびオンスクリーンキーボードを通じて提示されると、1つ以上の提案されるエモティコンから選択するようユーザによって使用され得る。
セグメント分析モジュール206は、入力フィールドに存在する1つ以上のセグメントを分析し、分析されたセグメントについてコンテキストを決定し得る。本願明細書に記載されるように、セグメント分析モジュール206によって決定されたコンテキストはその後、ユーザに提案されるべき候補のエモティコンを識別する際に、利用され得る。さまざまな実施の形態では、セグメント分析モジュール206は、入力フィールドにおけるセグメントのコンテキストを決定する際に、入力フィールドから対象のセグメントのみを分析し得る。
いくつかの実施の形態では、セグメント分析モジュール206はまず、入力フィールドにおける対象のセグメントを識別し、次いで、コンテキストを決定するよう対象のそれらのセグメントを分析する。一般に、対象のセグメントは、入力フィールドにおける入力カーソルの現在位置に関連して識別される。さらにいくつかの実施の形態の場合、セグメント分析モジュール206は、対象のセグメントを識別する際に、入力フィールドに現在存在するセグメントの構文分析を行ない得る。
実施の形態に依存して、セグメント分析モジュール206は、対象のセグメント識別プロセスをガイドする条件付きまたは非条件付きのルールに基づいて、対象のセグメントを識別し得る。対象のセグメントを識別するための例示的なルールは、対象のセグメントとして、入力フィールドにおける入力カーソルの現在位置の直前の文の断片または文を識別することを含み得る。対象のセグメントを識別するための別の例示的なルールは、対象のセグメントとして、入力フィールドにおける入力カーソルの現在位置の直後の文の断片または文を識別することを含み得る。いくつかの実施の形態の場合、ルールは、対象のセグメントを決定するよう、セグメント分析モジュール206によって行なわれた構文分析に関連して利用され得る。
1つより多い対象のセグメントが識別される場合、セグメント分析モジュール206は、対象のセグメントの各々のコンテキストを分析し得るか、または(たとえば、対象のあるセグメントが他のセグメントより重要性が高くなる重み付けシステムに基づいて)もっとも重要でない対象のセグメント以外のコンテキストを分析し得る。さらに1つ以上のルールは、2つ以上の対象のセグメントが識別される場合、対象のセグメントのうちどれを分析すべきかを決定し得る。
セグメント分析モジュール206は、対象のセグメントからの2つ以上のコンテキストを決定し得る。このような場合、エモティコン提案システム200は、決定されたコンテキストのすべてに関連付けられる候補のエモティコンを検索し得るか、または(たとえばルールに基づいて決定された)もっとも重要なコンテキストのうち1つ以上にマッチする候補のエモティコンのみを検索し得る。
対象の1つ以上のセグメントのコンテキストを決定するよう、セグメント分析モジュール206は、入力フィールドに存在する対象のセグメントを意味分析し得る。当業者であれば、このセグメントの意味分析は、当該技術において公知の1つ以上の技術に従って行なわれ得るということを理解するであろう。対象の1つ以上のセグメントのコンテキストを分析する場合、セグメント分析モジュール206は、対象のセグメントについてのサブテキストまたは意味を決定し得る。対象のセグメントについて識別されたサブテキストまたは意味に基づいて、エモティコン提案システム200は、提案のために1つ以上の候補のエモティコンを識別し得る。対象のセグメントのサブテキストは、当該対象のセグメントについて気分または感情を識別し得る。対象のセグメントについての例示的なサブテキストは、幸福、悲しみ、無関心、怒り、憤慨、悔恨または興奮を含み得るがこれらに限定されない。対象のセグメントについての意味は、対象のセグメントについての明示的な意味を識別し得る。たとえば、対象のセグメントが「新しい仕事をゲットした!」と記載する場合、セグメント分析モジュール206は対象のセグメントについての意味を「新しい仕事」として識別し得る。
なお、いくつかの実施の形態の場合、セグメント分析モジュール206は、入力モジュール204を使用してユーザが文字またはエモティコンを加えるかまたは入力フィールドから文字またはエモティコンを取り除く際に、リアルタイムまたはほぼリアルタイムで対象のセグメントを識別および分析し得る。
エモティコン検索モジュール208は、対象のセグメントの識別されたコンテキスト(たとえばサブテキストまたは意味)に基づいて、1つ以上の候補のエモティコンを検索し得る。いくつかの実施の形態では、エモティコン検索モジュール208は、エモティコン提案システム200によって識別された1つ以上のコンテキストに関連したエモティコンを求めて、エモティコンデータストア214を検索し得る。本願明細書に記載されるように、エモティコンデータストア214は、入力フィールドへの入力に利用可能なエモティコンと、エモティコンと1つ以上のコンテキストとの間の関連性とを含み得る。
本願明細書において示されるように、所与のエモティコンと所与のコンテキストとの間の関連性は、当該所与のコンテキストとの所与のエモティコンの統計的な使用を含み得る。所与のエモティコンと所与のコンテキストとの間の関連性の強さは、このような統計的な使用に基づき得る。さらに、統計的な使用は、所与の内容との所与のエモティコンのユーザ自身の使用に基づき得るか、またはユーザのコミュニティによる所与の内容との所与のエモティコンの使用(たとえばソーシャルネットワーキングウェブサイト上の所与のコンテキストにおける所与のエモティコンの使用)に基づき得る。
一般に、所与のコンテキストとの所与のエモティコンの使用が多くなるほど、当該所与のエモティコンと所与のコンテキストとの間の関連性が強くなる。いくつかの実施の形態の場合、エモティコンとコンテキストとの間の関連性の強さは、当該コンテキストについてのエモティコンを提案することにおける信頼性を示し得る。関連性の強さも、もっとも高い強さからもっとも低いの強さまで1つ以上の候補のエモティコンに優先順位を付けて提示するよう使用され得る。
いくつかの実施の形態では、エモティコン検索エンジンモジュール208による1つ以上の候補のエモティコンの検索は、エモティコンとコンテキストとの間の関連性の強さを考慮し得る。たとえば、エモティコン検索エンジンモジュール208は、エモティコンと目標コンテキストとの間の関連性の強さが所定のしきい値に合致または超える場合、単にエモティコンを候補のエモティコンとして識別し得る。さらに、エモティコン検索エンジンモジュール208は、あるエモティコンと目標コンテキストとの間の関連性の強さが、他の潜在的な候補のエモティコンに対するしきい値に合致または越える場合に、単に当該エモティコンを候補のエモティコンとして識別し得る。
本願明細書において示されたように、さまざまな実施の形態において、エモティコン検索モジュール208は、ユーザプレファレンス、ユーザに関連する情報、受信者に関連する情報、またはそれらの何らかの組合せを用いることによって、候補のエモティコンの検索をさらに狭め得る。ユーザプレファレンスの例は、他のタイプのエモティコンの前に、ユーザがカスタマイズしたエモティコンを提案するプレファレンスと、あるカテゴリのエモティコンを無視するプレファレンス(たとえば、ユーザに関して年齢が適切であるエモティコンのみを提案する)とを含み得るがこれらに限定されない。受信者に関連する情報の例は、ユーザの興味、ユーザの民族性、ユーザの宗教、ユーザの地理的位置、ユーザの年齢、ユーザの関係ステータス、およびユーザの職業を含み得るがこれらに限定されない。ユーザに関連する情報の例は、ユーザに対する受信者の関係と、受信者の興味と、受信者の民族性と、受信者の宗教と、受信者の地理的位置と、受信者の年齢と、受信者の関係ステータスと、受信者の職業とを含み得るがこれらに限定されない。ある実施の形態では、1つ以上の候補のエモティコンを検索する際、エモティコン検索モジュール208は、さらに、文字エモティコンまたはグラフィカルエモティコンを受け取ることにおいて入力フィールドの制限を考慮し、それにしたがって候補のエモティコンを検索し得る。
エモティコン提案モジュール210は、対象のセグメントの識別されたコンテキストに基づいて特定された1つ以上の候補のエモティコンを受け取り、選択のためにユーザに当該1つ以上の候補のエモティコンを提示し得る。本願明細書に示されるように、いくつかの実施の形態において、エモティコン提案モジュール210は、エントリ選択のために1つ以上の候補のエモティコンを入力フィールドにおける入力カーソルの現在位置またはその現在位置の近くに表示するよう表示モジュール202を使用し得る。さらに本願明細書において示されるように、さまざまな実施の形態において、エモティコン提案モジュール210は、物理的な入力装置または仮想入力装置を通じて、エントリ選択のために1つ以上の候補のエモティコンを表示するよう入力モジュール202を使用し得る。
エモティコン選択モジュール212は、ユーザに提案される1つ以上の候補のエモティコンについてエントリ選択をユーザから受け取り得る。特定の実施の形態において、エモティコン選択モジュール212は、入力モジュール204を通じて1つ以上の候補のエモティコンについてエントリ選択を受け取り得、エモティコン選択モジュール212は、入力フィールドに1つ以上の選択されるエモティコンを入力し得る。本願明細書において示されるように、エモティコン選択モジュール212は、入力カーソルの現在位置に、1つ以上の選択されるエモティコンを入力し得る。いくつかの実施の形態の場合、エモティコン選択モジュール212は、入力フィールド内のセグメントまたは対象のセグメントを1つ以上の選択されるエモティコンに置換することによって、入力フィールドに1つ以上の選択されるエモティコンを入力し得る。さらに、いくつかの実施の形態は、モジュール212があるガイドラインに基づいて、提案されるエモティコンを自動選択するように(たとえばユーザプレファレンスを使用して)ユーザがエモティコン選択モジュール212を設定することを可能にする。たとえばユーザは、エモティコンの提案がなされると、第1の提案されたエモティコンが選択されるように、エモティコン選択モジュール212を構成し得る。
いくつかの実施の形態では、エモティコンとコンテキストとの間の関連性がこのようなコンテキストとのこのようなエモティコンの統計的な使用を含む場合、エモティコン選択モジュール212は、ユーザから受け取られたエントリ選択に基づいて、統計的使用情報を更新し得る。特に、エモティコン選択モジュール212は、所与のコンテキストについての1つ以上の候補のエモティコンのエントリ選択を受け取り、選択された候補のエモティコンとそれらの使用のそれぞれのコンテキストとの間で、格納された統計的使用情報を更新し得る。実施の形態に依存して、エモティコン選択モジュール212は、エモティコンデータストア214上の統計的使用情報を更新し得る。
エモティコンデータストア214は、エモティコン提案システム200による提案に利用可能なエモティコンのライブラリと、ライブラリにおけるエモティコンとコンテキスト(たとえばサブテキストおよび意味)との間の関連性とを含み得る。エモティコン検索モジュール208は、1つ以上の特定のコンテキストに関連付けられる1つ以上の候補のエモティコンを検索する場合、エモティコンデータストア214にアクセスし得る。本願明細書において示されるように、いくつかの実施の形態の場合、エモティコンデータストア214は、所与のエモティコンと所与のコンテキスト(たとえばサブテキストまたは意味)との間の2つ以上の関連性を含み得る。さらに、所与のエモティコンと所与のコンテキストとの間の関連性は、所与のコンテキストとの所与のエモティコンの統計的な使用を含み得る。このような統計的な使用は、エモティコンとコンテキストとの間の関連性の強さを反映し得る。
エモティコンデータストア214上に格納されたエモティコンは、文字エモティコン、グラフィカルエモティコン、グラフィカルにアニメーション化されたエモティコン、および音を伴ったエモティコンを含み得る。いくつかの実施の形態の場合、エモティコンデータストア214はさらに、提案に好適なエモティコンを識別する際に、実施の形態において用いられ得るユーザプレファレンス、ユーザ情報、または受信者情報を含み得る。たとえば、エモティコンデータストア214は、任意のユーザに一般に利用可能なエモティコンを提案する前に、ユーザが規定したエモティコンまたはユーザがアップロードしたエモティコンを実施の形態に提案させるユーザプレファレンスを格納し得る。別の例では、エモティコンデータストア214は、実施の形態によってユーザに提案された第1のエモティコンを実施の形態に自動的に挿入させるユーザプレファレンスか、または所与のコンテキストにおいてもっとも高い使用を有する提案されるエモティコンを実施の形態に自動的に挿入させるユーザプレファレンスを格納し得る。
当業者は、さまざまなエモティコンライブラリおよびエモティコンとコンテキストとの間のさまざまな関連性は、エモティコンデータストア214上に格納され得るということを理解するであろう。
「モジュール」は、ソフトウェア、ハードウェア、ファームウェアおよび/または回路網を含み得るということが理解されるであろう。一例では、プロセッサによって実行可能な命令を含む1つ以上のソフトウェアプログラムが、本願明細書において記載されたモジュールの機能の1つ以上を実行し得る。別の例では、回路網が、同じまたは同様の機能を実行し得る。代替的な実施の形態は、より多い、より少ない、または機能的に等価なモジュールを含み得、これも本実施の形態の範囲内である。たとえば、さまざまなモジュールの機能は、異なって組み合わせられるまたは分割され得る。たとえば、さまざまなモジュールの機能は、エモティコン提案サーバに存在する1つ以上のモジュールの間で分散され得、1つ以上のモジュールがエモティコン提案クライアントに存在する。
図3は、いくつかの実施の形態に従った、エモティコンを識別および提案するための例示的な方法300のフローチャートである。ステップ302において、セグメント分析モジュール206は、表示モジュール202を通じて表示され得る入力フィールドから1つ以上のセグメントを受け取り得る。本願明細書において示されるように、1つ以上のセグメントを受け取る際、セグメント分析モジュール206は、コンテキスト分析の目的のために、対象のセグメントを識別し得る。
ステップ304では、セグメント分析モジュール206は、セグメントの1つ以上の目標サブテキストまたは1つ以上の目標意味を決定するよう1つ以上のセグメントを分析し得る。セグメントの目標サブテキストおよび目標意味は、セグメントに関連した1つ以上のコンテキストを提供する。実施の形態に依存して、セグメント分析モジュール206は、セグメント分析モジュール206によって対象のセグメントとして識別されたセグメントのみを分析し得る。
ステップ306では、エモティコン検索モジュール208は、1つ以上の目標コンテキストとの関連性を有する1つ以上の候補のエモティコンか、またはセグメント分析モジュール206によって決定され得た1つ以上の目標意味を識別し得る。いくつかの実施の形態では、エモティコン検索モジュール208は、目標サブテキストまたは目標意味と関連性とを有する、エモティコンデータストア214中の1つ以上の候補のエモティコンを識別し得る。本願明細書において示されるように、各関連性の強さは、所与のコンテキストとの所与のエモティコンの統計的な使用に基づき得、エモティコン検索モジュール208が1つ以上の候補のエモティコンを識別する際には、このような強さが考慮に入れられ得る。
ステップ308では、エモティコン提案モジュール210は、入力フィールドにおける入力カーソルの現在位置に、エントリ選択のためにユーザに1つ以上の候補のエモティコンを提示し得る。本願明細書に記載されるように、入力フィールドおよびその中の入力カーソルは、表示モジュール202を通じてユーザに表示され得る。いくつかの実施の形態の場合、エモティコン提案モジュール210は、表示モジュール202を使用して、エントリ選択のためにユーザに1つ以上の候補のエモティコンを提示し得、入力フィールドにおける入力カーソルの現在位置またはその現在位置の近くに候補のエモティコンを表示し得る。さらに、エモティコン提案モジュール210は、入力モジュール204の1つ以上の入力装置を通じてエントリ選択のためにユーザに1つ以上の候補のエモティコンを提示し得る。たとえば、エモティコン提案モジュール210は、ディスプレイを有する物理的なキーボードのような物理的な入力装置を通じてまたはオンスクリーンキーボードのような仮想入力装置を通じて、ユーザに1つ以上の候補のエモティコンを提示し得る。
ステップ310では、エモティコン選択モジュール212は、1つ以上の候補のエモティコンからの1つ以上の選択したエモティコンについて、ユーザからエントリ選択を受け取り得る。いくつかの実施の形態の場合、エモティコン選択モジュール212は、入力モジュール204からエントリ選択を受け取り得る。さらに、エントリ選択を受け取る際に、エモティコン選択モジュール212は、1つ以上の候補のエモティコンについて、エントリ選択に基づき、エモティコンデータストア214上で統計的使用情報を更新し得、これにより、候補のエモティコンと特定のコンテキストとの間の関連性を強くするまたは弱くする。
ステップ312では、エントリ選択に基づき、エモティコン選択モジュール212は、テキストフィールドにおける入力カーソルの現在位置に、エモティコン選択モジュール212によって受け取られた1つ以上の候補のエモティコンを挿入し得る。本願明細書において示されるように、いくつかの実施の形態において、入力フィールドへの候補のエモティコンのエントリは、入力フィールドにおける1つ以上のセグメントを、選択されるエモティコンに置換することを伴い得る。
図4は、いくつかの実施の形態に従った、クライアントサーバアーキテクチャを使用する例示的なエモティコン提案システム400のブロック図である。エモティコン提案システム400は、エモティコン提案クライアント402およびエモティコン提案サーバ420を含み得る。いくつかの実施の形態では、エモティコン提案クライアント402は、図7に記載されるデジタルデバイスまたは図1に記載されるコンピューティングデバイス(すなわちタブレットコンピューティングデバイス104、スマートフォンコンピューティングデバイス108およびデスクトップコンピューティングデバイス112)と同様であり得、エモティコン提案サーバ420は、図7に記載されるデジタルデバイスまたは図1に記載されたエモティコン提案サーバ116と同様であり得る。エモティコン提案クライアント402およびエモティコン提案サーバ420は、通信ネットワーク418上で互いに通信し得る。
エモティコン提案クライアント402は、表示モジュール404、入力モジュール406、セグメント分析モジュール408、エモティコン検索モジュール410、ローカルのエモティコンデータストア412、エモティコン提案モジュール414、およびエモティコン選択モジュール416を含み得る。エモティコン提案サーバ420は、エモティコン検索エンジン422と、リモートのエモティコンデータストア424とを含み得る。
エモティコン提案クライアント402では、表示モジュール404は、ユーザが入力モジュール406を使用して、1つ以上のセグメント、文字エモティコンまたはグラフィカルエモティコンを入力し得る入力フィールドを表示し得る。典型的には、セグメントおよびエモティコンは、入力フィールドに入力されると、入力フィールドに現われる。当該入力フィールドにより、表示モジュール404は、入力フィールドに入力カーソルを表示し得る。入力フィールドでは、入力カーソルは、ユーザの文字入力が次にどこに入力されるか、またはエモティコンが次にどこに入力されるかを示す。
さまざまな実施の形態は、たとえば、入力フィールドにおける入力カーソルの現在位置、入力の現在のセグメント内容、ユーザに関連する情報、受信者に関連する情報、ユーザプレファレンス、またはそれらの何らかの組合せを含む多くの要因に基づき、エモティコンを提案し得る。ひとたび識別された候補のエモティコンは、表示モジュール404を介してユーザに提案され得る。具体的には、表示モジュール404は、ユーザの選択のために、入力フィールドにおける入力カーソルの現在位置またはその現在位置の近くに候補のエモティコンを表示し得る。実施の形態に依存して、表示モジュール404は、コールアウトボックスを介して、入力フィールドまたはその入力フィールドの近くに候補のエモティコンを表示し得る。
表示モジュール404によって、デジタルデバイスは、デジタルデバイスからのすべてのグラフィカル出力を表示し得る。いくつかの実施の形態では、表示モジュール404は、グラフィカルユーザインターフェイス(GUI)の一部として、入力フィールドを表示し得る。実施の形態に依存して、入力フィールドは、デジタルデバイス上で動作するアプリケーションのグラフィカルコンポーネントか、またはデジタルデバイス上で動作するアプリケーションを通じて閲覧可能もしくは編集可能である文書のグラフィカル表現であり得る。入力フィールドは、実施の形態ごとに、タイプおよびサイズが変動し得るということが当業者によって理解されるであろう。
入力モジュール406は、ユーザから文字入力を受け取り、受け取られた文字入力を入力フィールドに入力し得る。文字入力が入力フィールドに入力されると、表示モジュール404は、当該文字入力で入力フィールドを更新し得る。さらに、入力モジュール406は、さまざまな実施の形態に従って提案されるエモティコンについてエントリ選択をさらに受け取り得る。一般に、選択の際、選択されるエモティコンは、入力フィールドにおける入力カーソルの現在位置に挿入され得る。本願明細書において示されるように、入力モジュールは、デジタルデバイスに外部から結合されるかもしくはデジタルデバイスに物理的に埋め込まれた物理的な入力装置か、または表示モジュール404によってユーザに提供され得るオンスクリーンキーボードのような仮想入力装置を含み得る。さまざまな実施の形態において、仮想入力装置が使用される場合、このような仮想入力装置は、セグメントが入力される入力フィールドまたはその入力フィールドの近くに表示され得る。
いくつかの実施の形態の場合、提案されるエモティコンは、入力モジュール406を通じてユーザに提示され得る。たとえば、入力モジュール406が物理的なキーボードを含む場合、物理的なキーボードは、物理的なキーボードを通じて、提案されるエモティコンを表示するように構成され得る。いくつかの実施の形態の場合、物理的なキーボードは、埋め込まれたディスプレイ(たとえばLCDボタン)を含むキーまたはボタンによってか、または物理的なキーボードの表面(たとえばキーボードの頂部)上に埋め込まれたディスプレイによって、提案されるエモティコンを表示し得る。提案されるエモティコンは、物理的なキーボードを通じてカラーまたはグレイスケールで表示され得る。提案されるエモティコンが物理的なキーボードを通じて表示される際、ユーザは、物理的なキーボードのキーまたはボタンを通じて、それらの提案されるエモティコンの1つ以上を選択し得る。
いくつかの実施の形態では、入力モジュール406がオンスクリーンキーボードを含む場合、オンスクリーンキーボードの外観は、提案されるエモティコンをオンスクリーンキーボードを通じて表示するよう再構成され得る。たとえば、オンスクリーンキーボードの外観は、オンスクリーンキーボードのあるボタンが提案されるエモティコンボタンに置換されるように、またはオンスクリーンキーボードが付加的な提案されるエモティコンボタンで増強されるように、再構成され得る。提案されるエモティコンボタンは、ひとたびオンスクリーンキーボードを通じて提示されると、1つ以上の提案されるエモティコンから選択するようユーザによって使用され得る。
セグメント分析モジュール408は、入力フィールドに存在する1つ以上のセグメントを分析し得、分析されたセグメントについてコンテキストを決定し得る。本願明細書に記載されるように、セグメント分析モジュール408によって決定されたコンテキストは、ユーザに提案される候補のエモティコンを識別する際に、その後用いられ得る。さまざまな実施の形態では、入力フィールドにおけるセグメントのコンテキストを決定する際に、セグメント分析モジュール408はまず、入力フィールドにおける対象のセグメントを識別し、その後、それらの対象のセグメントのみを分析し得る。
いくつかの実施の形態では、セグメント分析モジュール408は、対象のセグメントを識別する際、入力フィールドに現在存在するセグメントの構文分析を行い得る。さらに、セグメント分析モジュール408は、対象のセグメント識別プロセスをガイドする条件付きまたは非条件付きルールに基づき、対象のセグメントを識別し得る。
対象の1つ以上のセグメントのコンテキストを決定するよう、セグメント分析モジュール408は、入力フィールドに存在する対象のセグメントを意味分析し得る。対象の1つ以上のセグメントのコンテキストを分析する際、セグメント分析モジュール408は、対象のセグメントのサブテキストまたは意味を決定し得る。対象のセグメントのサブテキストは、当該対象のセグメントについて気分または感情を識別し得る。対象のセグメントについて識別されたサブテキストまたは意味に基づき、エモティコン提案システム400は、提案のために1つ以上の候補のエモティコンを識別し得る。
なお、いくつかの実施の形態の場合、セグメント分析モジュール408は、ユーザが入力モジュール408を使用して文字またはエモティコンを入力フィールドに加えるか、または入力フィールドから文字またはエモティコンを取り除く際に、リアルタイムもしくはほぼリアルタイムで、対象のセグメントを識別および分析し得る。
エモティコン検索モジュール410は、対象のセグメントの識別されたコンテキスト(たとえばサブテキストまたは意味)に基づき、1つ以上の候補のエモティコンを検索し得る。いくつかの実施の形態では、1つ以上の特定のコンテキストに関連付けられる1つ以上の候補のエモティコンを検索する際、エモティコン検索モジュール410は、ローカルのエモティコンデータストア412にアクセスし得る。
実施の形態に依存して、ローカルのエモティコンデータストア412は、ユーザがカスタマイズしたエモティコン、ユーザのお気に入りもしくはユーザが好むエモティコン、ローカルのエモティコン上に格納されたエモティコンとコンテキスト(たとえばサブテキストまたは意味)との間の関連性、エモティコンの識別および提案に関してのユーザプレファレンス、ユーザに関連する情報、または受信者に関連する情報を格納し得る。さらに、ローカルのエモティコンデータストア412は、以前に提案されるエモティコンまたは以前にユーザが選択した提案されるエモティコンをローカルにキャッシュするよう用いられ得る。
いくつかの実施の形態では、エモティコン検索モジュール410は、エモティコン提案サーバ420を用いて、候補のエモティコンを検索してエモティコン提案クライアント402に提供する。たとえば、エモティコン提案サーバ420は、リモートのエモティコンデータストア424上の候補のエモティコンを検索し、得られた候補のエモティコンをエモティコン提案クライアント402上のエモティコン検索モジュール410に提供し得る。エモティコン提案サーバ420は、エモティコン検索エンジン422を使用して、リモートのエモティコンデータストア424上の候補のエモティコンを検索すること、リモートのエモティコンデータストア424から候補のエモティコンを抽出すること、およびエモティコン検索モジュール410に候補のエモティコンを提供することとを行う。
リモートのエモティコンデータストア424は、エモティコン提案クライアント402への提案に利用可能であるエモティコンのライブラリを含み得る。リモートのエモティコンデータストア424はさらに、ライブラリにおけるエモティコンとコンテキストとの間の関連性を含み得る。ある実施の形態の場合、上記関連性は、コンテキストとの、ライブラリにおけるエモティコンのうち所与のエモティコンの統計的な使用を含む。一般に、このような統計的な使用は、エモティコンとコンテキストとの間の関連性の強さを反映し得る。
本願明細書に示されるように、リモートのエモティコンデータストア424上に格納されたエモティコンは、文字エモティコン、グラフィカルエモティコン、グラフィカルにアニメーション化されたエモティコン、および音を伴ったエモティコンを含み得る。いくつかの実施の形態の場合、リモートのエモティコンデータストア424はさらに、提案に好適なエモティコンを識別する際に、実施の形態において用いられ得るユーザプレファレンス、ユーザ情報、または受信者情報を含み得る。当業者は、さまざまなエモティコンライブラリおよびエモティコンとコンテキストとの間のさまざまな関連性は、リモートのエモティコンデータストア424上に格納され得るということを理解するであろう。
エモティコン提案モジュール414は、対象のセグメントの識別されたコンテキストに基づいて特定された1つ以上の候補のエモティコンを受け取り、選択のためにユーザに当該1つ以上の候補のエモティコンを提示し得る。本願明細書に示されるように、いくつかの実施の形態において、エモティコン提案モジュール414は、エントリ選択のために1つ以上の候補のエモティコンを、入力フィールドにおける入力カーソルの現在位置またはその現在位置の近くに表示するよう表示モジュール414を使用し得る。本願明細書において示されるように、さまざまな実施の形態では、エモティコン提案モジュール414は、物理的な入力装置または仮想入力装置を通じて、エントリ選択のために1つ以上の候補のエモティコンを表示するよう入力モジュール406を使用し得る。
エモティコン選択モジュール416は、ユーザに提案された1つ以上の候補のエモティコンについてエントリ選択をユーザから受け取り得る。特定の実施の形態において、エモティコン選択モジュール416は、入力モジュール404を通じて1つ以上の候補のエモティコンについてエントリ選択を受け取り得、エモティコン選択モジュール416は、入力フィールドに1つ以上の選択されるエモティコンを入力し得る。エモティコン選択モジュール416は、入力カーソルの現在位置に、1つ以上の選択されるエモティコンを入力し得る。さらに、エモティコン選択モジュール416は、入力フィールド内のセグメントまたは対象のセグメントを1つ以上の選択されるエモティコンに置換することによって、入力フィールドに1つ以上の選択されるエモティコンを入力し得る。いくつかの実施の形態では、モジュール416があるガイドラインに基づいて、提案されるエモティコンを自動選択するように、エモティコン選択モジュール416を(たとえばユーザプレファレンスを使用して)ユーザが設定することを可能にする。たとえば、ユーザは、エモティコンの提案がなされると、第1の提案されたエモティコンが選択されるように、エモティコン選択モジュール416を構成し得る。
いくつかの実施の形態では、エモティコンとコンテキストとの間の関連性がこのようなコンテキストとのこのようなエモティコンの統計的な使用を含む場合、エモティコン選択モジュール416は、ユーザから受け取られたエントリ選択に基づいて、統計的使用情報を更新し得る。特に、エモティコン選択モジュール416は、所与のコンテキストについての1つ以上の候補のエモティコンのエントリ選択を受け取り、選択された候補のエモティコンとそれらの使用のそれぞれのコンテキストの間で、格納された統計的使用情報を更新し得る。
実施の形態に依存して、エモティコン選択モジュール416は、ローカルのエモティコンデータストア412上またはリモートのエモティコンデータストア424上の統計的使用情報を更新し得る。たとえば、エモティコン選択モジュール416を通じて選択された1つ以上の候補のエモティコンがエモティコン提案サーバ420から提供された場合、それらの候補のエモティコンについての統計的使用情報は、リモートのエモティコンデータストア424上で更新されることになる。別の例では、エモティコン選択モジュール416を通じて選択された1つ以上の候補のエモティコンがローカルのエモティコンデータストア412から提供された場合、それらの候補のエモティコンについての統計的使用情報は、ローカルのエモティコンデータストア412上で更新されることになる。
図5は、メッセージングアプリケーションのユーザインターフェイス500を示す。当該メッセージングアプリケーションはある実施の形態を利用する。いくつかの実施の形態では、ユーザは、ユーザインターフェイス500を用いて、オンラインチャット上で他のユーザから受け取られたメッセージを受け取ってレビューするとともに、オンラインチャット上で他のユーザへのメッセージを作成および送信し得る。メッセージングアプリケーションは、インスタントメッセージングシステム上のクライアントであり得、メッセージングアプリケーションは、スマートフォンコンピューティングデバイスまたはラップトップといった、ユーザにローカルなデジタルデバイス上で動作している。インスタントメッセージングシステムは、サーバのような別のデジタルデバイス上で動作し得、メッセージングアプリケーションはインスタントメッセージングシステムとインターフェイス接続する。実施の形態に依存して、メッセージングアプリケーションは、スタンドアロンアプリケーションとしてか、またはウェブブラウザを通じて動作するアプレット、プラグインもしくはスクリプトとしてデジタルデバイス上で動作し得る。
メッセージングアプリケーションのユーザインターフェイス500は、会話ペイン502、メッセージ入力フィールド504、および送信ボタン514を含み得る。いくつかの実施の形態については、会話ペイン502は、オンラインチャットに提出されたメッセージを含み得る。そのため、会話ペイン502は、他人からオンラインチャットに提出されたメッセージと、ユーザインターフェイス500を通じてユーザによって提出されたメッセージとを含み得る。ユーザは、メッセージ入力フィールド504を使用して、オンラインチャットへメッセージを提出し得る。特に、ユーザは、オンラインチャットにメッセージを提出することをユーザが所望がする場合に、メッセージ入力フィールド504へメッセージを入力し、送信ボタン514を押し得る。
メッセージ入力フィールド504は、オンラインチャットへの提出のためにユーザによって準備されたメッセージを含み得、当該メッセージを受け取るように構成され得る。メッセージ入力フィールド504は、ユーザから1つ以上のセグメントを受け取り得るか、または、いくつかの実施の形態に従って入力された1つ以上のエモティコンを受け取り得る。メッセージ入力フィールド504はさらに入力カーソル516を含み得る。
ユーザがメッセージ入力フィールド504におけるメッセージを準備する際、さまざまな実施の形態は、入力カーソル516の現在位置での入力のためにエモティコンを提案し得る。たとえば、ユーザがメッセージ入力フィールド504に「とても楽しかった」と書いた場合、実施の形態は、「とても楽し」を記載する対象のセグメント512の実施の形態の分析に基づき、入力フィールド504へのエントリのために「笑顔」のグラフィカルエモティコン510を提案し得る。実施の形態は、「笑顔」のグラフィカルエモティコン510と、対象のセグメント512のコンテキストとの間の関連性に基づいて、「笑顔」のグラフィカルエモティコン510を提案し得る。ひとたびユーザが「笑顔」のグラフィカルエモティコン510を選択すると、実施の形態は、メッセージ入力フィールド504に「笑顔」のグラフィカルエモティコン510を入力し得る。
同様に、ユーザが「ありがとう、あなたの町を案内してくれて」とメッセージ入力フィールド504に書く場合、実施の形態は、対象のセグメント514のコンテキスト分析に基づいて、複数のグラフィカルエモティコン506を提案し得る。本願明細書において示されるように、実施の形態は、入力カーソル516の現在位置またはその現在位置の近くに位置決めされたコールアウトボックス508にグラフィカルエモティコン506を表示することによって、提案されたグラフィカルエモティコン506を提示し得る。「あなたの町」と記載する対象のセグメント514の分析に基づいて、実施の形態は、町に関するグラフィカルエモティコン506を提案し得る。
図6は、メッセージングアプリケーションのユーザインターフェイス600を示す。当該メッセージングアプリケーションはある実施の形態を利用する。図5と同様に、ユーザは、ユーザインターフェイス600を用いて、オンラインチャット上で他のユーザから受け取られたメッセージを受け取ってレビューするとともに、オンラインチャット上で他のユーザへのメッセージを作成および送信し得る。メッセージングアプリケーションは、インスタントメッセージングシステム上のクライアントであり得、メッセージングアプリケーションは、スマートフォンコンピューティングデバイスまたはラップトップといった、ユーザにローカルなデジタルデバイス上で動作している。インスタントメッセージングシステムは、サーバのような別のデジタルデバイス上で動作し得、メッセージングアプリケーションはインスタントメッセージングシステムとインターフェイス接続する。実施の形態に依存して、メッセージングアプリケーションは、スタンドアロンアプリケーションとしてか、またはウェブブラウザを通じて動作するアプレット、プラグインもしくはスクリプトとしてデジタルデバイス上で動作し得る。
メッセージングアプリケーションのユーザインターフェイス600は、会話ペイン602、メッセージ入力フィールド604、オンスクリーンキーボード606、および送信ボタン616を含み得る。いくつかの実施の形態の場合、会話ペイン602は、ユーザインターフェイス600を通じてユーザによって提出されたメッセージを含む、オンラインチャットに提出されたメッセージを含み得る。ユーザは、メッセージ入力フィールド604を使用して、オンラインチャットへメッセージを提出し得る。具体的には、ユーザは、オンラインチャットにメッセージを提出することをユーザが所望がする場合に、オンスクリーンキーボード606を用いてメッセージ入力フィールド604へメッセージを入力し、送信ボタン616を押し得る。
メッセージ入力フィールド604は、オンラインチャットへの提出のためにユーザによって準備されたメッセージを含み得、当該メッセージを受け取るように構成され得る。メッセージ入力フィールド604は、ユーザからオンスクリーンキーボード606を通じて1つ以上のセグメントを受け取り得るか、またはオンスクリーンキーボード606を通じて選択される1つ以上のエモティコンを受け取り得る。メッセージ入力フィールド604はさらに入力カーソル610を含み得る。
オンスクリーンキーボード606は、QWERTYキーボードと、(たとえば使用されていない場合に)視界からオンスクリーンキーボード606を隠すボタン624と、エモティコンメニュー622とを含み得る。エモティコンメニュー622を通じて、ユーザは、入力カーソル610の現在位置にて、メッセージ入力フィールド604へのエントリのために1つ以上のエモティコンを選択し得る。エモティコンメニュー622は、デフォルトのエモティコンライブラリまたは実施の形態によって提案されるエモティコンのセレクションからのエモティコンを含み得る。左の選択ボタン618および右の選択ボタン620により、ユーザは、エモティコンメニュー622を通じてエントリ選択に利用可能であるエモティコンをスクロールおよびブラウズすることが可能になる。
ユーザがメッセージ入力フィールド604においてメッセージを準備する際、さまざまな実施の形態が、入力カーソル610の現在位置へのエントリのためにエモティコンを提案し得る。たとえば、ユーザがメッセージ入力フィールド604に「思いもしなかった、あのフットボール」と書いた場合、実施の形態は、「フットボール」を記載する対象のセグメント612の実施の形態の分析に基づき、入力フィールド604へのエントリのために「フットボール」のグラフィカルエモティコン614を提案し得る。実施の形態は、「フットボール」のグラフィカルエモティコン614と、対象のセグメント512のコンテキストとの間の関連性に基づいて、「フットボール」のグラフィカルエモティコン614を提案し得る。ひとたびユーザが「フットボール」のグラフィカルエモティコン614を選択すると、実施の形態は、メッセージ入力フィールド604に「フットボール」のグラフィカルエモティコン614を入力し得る。
同様に、ユーザがメッセージ入力フィールド604に「50ヤードのフィールドゴール」と書くと、実施の形態は、対象のセグメント608のコンテキスト分析に基づき、複数の「フィールドゴール」のグラフィカルエモティコンを提案し得る。特に、実施の形態は、オンスクリーンキーボード606の一部として表示され得るエモティコンメニュー622にグラフィカルエモティコンを表示することによって、エントリ選択のために「フィールドゴール」のグラフィカルエモティコンを提示し得る。
図7は、例示的なデジタルデバイス700のブロック図である。デジタルデバイス700は、通信可能にバス714に結合されたプロセッサ702、メモリシステム704、ストレージシステム706、通信ネットワークインターフェイス708、I/Oインターフェイス710、および表示インターフェイス712を含む。プロセッサ702は、実行可能な命令(たとえばプログラム)を実行するように構成される。いくつかの実施の形態では、プロセッサ702は、実行可能な命令を処理することができる回路網または任意のプロセッサを含む。
メモリシステム704は、データを格納するように構成される任意のメモリである。メモリシステム704のいくつかの例は、RAMまたはROMのようなストレージデバイスである。メモリシステム704は、RAMキャッシュを含み得る。さまざまな実施の形態では、データはメモリシステム704内に格納される。メモリシステム704内のデータは、消去されるかまたはストレージシステム706に最終的に転送され得る。
ストレージシステム706は、データを抽出および格納するように構成された任意の一時的でないストレージである。ストレージシステム706のいくつかの例は、フラッシュドライブ、ハードドライブ、光学ドライブおよび/または磁気テープである。いくつかの実施の形態では、デジタルデバイス700は、RAMの形態にあるメモリシステム704と、フラッシュデータの形態にあるストレージシステム706とを含む。メモリシステム704およびストレージシステム706の両方は、プロセッサ702を含むコンピュータプロセッサによって実行可能である命令またはプログラムを格納し得るコンピュータ可読媒体を含む。
通信ネットワークインターフェイス(com.ネットワークインターフェイス)708は、リンク716を介してネットワーク(たとえば通信ネットワーク110)に結合され得る。通信ネットワークインターフェイス708は、たとえばイーサネット(登録商標)接続、シリアル接続、パラレル接続、またはATA接続上の通信をサポートし得る。通信ネットワークインターフェイス708はさらに、無線通信(たとえば802.11 alb/gin、WiMax)をサポートし得る。通信ネットワークインターフェイス708は、多くの有線規格および無線規格をサポートし得るということは当業者に明らかであろう。
随意の入出力(I/O)インターフェイス710は、ユーザから入力を受け取るとともにデータを出力する任意の装置である。随意の表示インターフェイス712は、ディスプレイにグラフィックスおよびデータを出力するように構成される任意の装置である。一例では、表示インターフェイス712は、グラフィックスアダプタである。すべてのデジタルデバイス700が、I/Oインターフェイス710または表示インターフェイス712のいずれかを含むわけではないということが理解されるであろう。
デジタルデバイス700のハードウェア要素は、図7に示されたものに限定されないということが当業者によって理解されるであろう。デジタルデバイス700は、示されたものよりも多いまたは少ないハードウェア要素を含んでもよい。さらに、ハードウェア要素は、機能性を共有してもよく、それでも、本願明細書で記載されるさまざまな実施の形態の内にある。一例では、エンコーディングおよび/またはデコーディングが、プロセッサ702および/またはGPU(Le., Nvidia)に配置されるコプロセッサによって行なわれてもよい。
上記の機能およびコンポーネントは、コンピュータ可読媒体のような記憶媒体上に格納される命令で構成され得る。命令は、プロセッサによって抽出および実行され得る。命令のいくつかの例は、ソフトウェア、プログラムコードおよびファームウェアである。記憶媒体のいくつかの例は、メモリデバイス、テープ、ディスク、集積回路およびサーバである。命令は、プロセッサによって実行された際には、プロセッサに指示していくつかの実施の形態に従って動作させる動作状態である。当業者は、命令、プロセッサおよび記憶媒体に精通している。
さまざまな実施の形態が、例として本願明細書において記載されている。さまざまな修正例がなされ得るとともに、他の実施の形態が本発明のより広い範囲から逸脱することなく使用され得るということは当業者に明らかであろう。したがって、例示的な実施の形態に対するこれらおよび他の変形例は、本発明によってカバーされるように意図される。

Claims (26)

  1. セグメントのセットをテキストフィールドから受け取るステップを含み、前記セグメントのセットは、文の断片を構成し、前記テキストフィールドにおける入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含んでおり、さらに、
    前記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう前記セグメントのセットを分析するステップと、
    候補のエモティコンのセットを識別するステップとを含み、前記候補のエモティコンのセットにおける各候補のエモティコンは、前記候補のエモティコンと前記目標サブテキストまたは前記目標意味の少なくとも1つとの間に関連性を有しており、前記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでおり、さらに、
    エントリ選択のために前記入力カーソルの現在位置に前記候補のエモティコンのセットを当該セットの中の各エモティコンと前記目標サブテキストおよび前記目標意味の少なくとも1つとの間の関連性の強さに基づく優先順位を付けて提示するステップと、
    前記候補のエモティコンのセットからの選択されるエモティコンのセットについて、エントリ選択を受け取るステップとを含み、前記選択されるエモティコンのセットは1つ以上の選択されるエモティコンを含んでおり、さらに、
    前記選択されるエモティコンのセットを前記テキストフィールドにおける前記入力カーソルの現在位置に挿入するステップを含む、方法。
  2. 各関連性は、前記目標サブテキストまたは前記目標意味の少なくとも1つとの前記候補のエモティコンの統計的な使用を含む、請求項1に記載の方法。
  3. 前記統計的な使用は単一のユーザまたは複数のユーザによる使用に基づく、請求項2に記載の方法。
  4. 前記選択されるエモティコンのセットについての前記エントリ選択に基づき、前記候補のエモティコンの前記統計的な使用を更新するステップをさらに含む、請求項2に記載の方法。
  5. 前記セグメントのセットを分析するステップは、前記セグメントのセットの意味分析を含む、請求項1〜請求項4のいずれか1項に記載の方法。
  6. エントリ選択のために前記エモティコンのセットを提示するステップは、エントリ選択のために前記入力カーソルの現在位置または現在位置の近くに前記エモティコンを表示するステップを含む、請求項1〜請求項5のいずれか1項に記載の方法。
  7. エントリ選択のために前記候補のエモティコンのセットを提示するステップは、エントリ選択のために物理的な入力装置または仮想入力装置上に前記候補のエモティコンのセットを表示するステップを含み、前記物理的な入力装置および仮想入力装置は、前記エントリ選択を実行するよう構成される、請求項1〜請求項6のいずれか1項に記載の方法。
  8. 前記仮想入力装置は、前記テキストフィールドに近接して表示される、請求項7に記載の方法。
  9. 前記候補のエモティコンのセットを識別するステップはさらに、少なくともユーザプレファレンス、ユーザに関連する情報、または受信者に関連する情報に基づく、請求項1〜請求項8のいずれか1項に記載の方法。
  10. 前記ユーザに関連する情報は、ユーザの興味と、ユーザの民族性と、ユーザの宗教と、ユーザの地理的位置と、ユーザの年齢と、ユーザの関係ステータスと、ユーザの職業とを含む、請求項9に記載の方法。
  11. 前記受信者に関連する情報は、ユーザに対する受信者の関係と、受信者の興味と、受信者の民族性と、受信者の宗教と、受信者の地理的位置と、受信者の年齢と、受信者の関係ステータスと、受信者の職業とを含む、請求項9に記載の方法。
  12. システムであって、
    プロセッサと、
    テキストフィールドと前記テキストフィールドに入力される1つ以上のセグメントとを表示するよう構成される表示モジュールと、
    セグメント入力をユーザから受け取り、前記セグメント入力を前記テキストフィールド内に入力カーソルにて入力するよう構成される入力モジュールと、
    セグメント分析モジュールとを含み、
    前記セグメント分析モジュールは、セグメントのセットを前記テキストフィールドから受け取るよう構成されており、前記セグメントのセットは、文の断片を構成し、前記テキストフィールドにおける前記入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含んでおり、
    前記セグメント分析モジュールは、前記プロセッサを用いて、前記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう前記セグメントのセットを分析するよう構成されており、前記システムはさらに、
    候補のエモティコンのセットを識別するよう構成されるエモティコン検索モジュールを含み、前記候補のエモティコンのセットにおける各候補のエモティコンは、前記候補のエモティコンと前記目標サブテキストまたは前記目標意味の少なくとも1つとの間に関連性を有しており、前記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでおり、前記システムはさらに、
    エントリ選択のために前記入力カーソルの現在位置に前記表示モジュールを通じて前記候補のエモティコンのセットを当該セットの中の各エモティコンと前記目標サブテキストおよび前記目標意味の少なくとも1つとの間の関連性の強さに基づく優先順位を付けて提示するよう構成されるエモティコン提案モジュールと、
    エモティコン選択モジュールとを含み、
    前記エモティコン選択モジュールは、前記候補のエモティコンのセットからの選択されるエモティコンのセットについて、前記入力モジュールからエントリ選択を受け取るよう構成されており、前記選択されるエモティコンのセットは1つ以上の選択されるエモティ
    コンを含んでおり、
    前記エモティコン選択モジュールは、前記選択されるエモティコンのセットを前記テキストフィールドにおける前記入力カーソルの現在位置に挿入するよう構成される、システム。
  13. 前記テキストフィールドへのエントリが可能な1つ以上のエモティコンを含むエモティコンデータストアをさらに含み、前記エモティコン検索モジュールはさらに、前記エモティコンデータストア上の前記候補のエモティコンのセットを識別するよう構成される、請求項12に記載のシステム。
  14. 各関連性は、前記目標サブテキストまたは前記目標意味の少なくとも1つとの前記候補のエモティコンの統計的な使用を含む、請求項12または請求項13に記載のシステム。
  15. 前記統計的な使用は単一のユーザまたは複数のユーザによる使用に基づく、請求項14に記載のシステム。
  16. 前記エモティコン選択モジュールはさらに、前記選択されるエモティコンのセットについての前記エントリ選択に基づき、前記候補のエモティコンの前記統計的な使用を更新するよう構成される、請求項14に記載のシステム。
  17. 前記セグメントのセットを分析することは、前記セグメントのセットの意味分析を含む、請求項12〜請求項16のいずれか1項に記載のシステム。
  18. エントリ選択のために前記表示モジュールを通じて前記エモティコンのセットを提示することは、エントリ選択のために前記入力カーソルの現在位置または現在位置の近くに前記エモティコンを表示することを含む、請求項12〜請求項17のいずれか1項に記載のシステム。
  19. エントリ選択のために前記表示モジュールを通じて前記候補のエモティコンのセットを提示することは、エントリ選択のために前記入力モジュールを通じて前記候補のエモティコンのセットを表示することを含む、請求項12〜請求項18のいずれか1項に記載のシステム。
  20. 前記入力モジュールは物理的な入力装置または仮想入力装置を含み、前記物理的な入力装置および仮想入力装置は、前記エントリ選択を実行するよう構成される、請求項19に記載のシステム。
  21. 前記仮想入力装置は、前記テキストフィールドに近接して表示される、請求項20に記載のシステム。
  22. 前記候補のエモティコンのセットを識別することはさらに、少なくともユーザプレファレンス、ユーザに関連する情報、または受信者に関連する情報に基づく、請求項12〜請求項21のいずれか1項に記載のシステム。
  23. 前記ユーザに関連する情報は、ユーザの興味と、ユーザの民族性と、ユーザの宗教と、ユーザの地理的位置と、ユーザの年齢と、ユーザの関係ステータスと、ユーザの職業とを含む、請求項22に記載のシステム。
  24. 前記受信者に関連する情報は、ユーザに対する受信者の関係と、受信者の興味と、受信者の民族性と、受信者の宗教と、受信者の地理的位置と、受信者の年齢と、受信者の関係
    ステータスと、受信者の職業とを含む、請求項22に記載のシステム。
  25. セグメントのセットをテキストフィールドから受け取るための手段を含み、前記セグメントのセットは、文の断片を構成し、前記テキストフィールドにおける入力カーソルの現在位置に対して選択された対象の1つ以上のセグメントを含んでおり、さらに、
    前記セグメントのセットに関連付けられる目標サブテキストまたは目標意味の少なくとも1つを決定するよう前記セグメントのセットを分析するための手段と、
    候補のエモティコンのセットを識別するための手段とを含み、前記候補のエモティコンのセットにおける各候補のエモティコンは、前記候補のエモティコンと前記目標サブテキストまたは前記目標意味の少なくとも1つとの間に関連性を有しており、前記候補のエモティコンのセットは、1つ以上の候補のエモティコンを含んでおり、さらに、
    エントリ選択のために前記入力カーソルの現在位置に前記候補のエモティコンのセットを当該セットの中の各エモティコンと前記目標サブテキストおよび前記目標意味の少なくとも1つとの間の関連性の強さに基づく優先順位を付けて提示するための手段と、
    前記候補のエモティコンのセットからの選択されるエモティコンのセットについて、エントリ選択を受け取るための手段とを含み、前記選択されるエモティコンのセットは1つ以上の選択されるエモティコンを含んでおり、さらに、
    前記選択されるエモティコンのセットを前記テキストフィールドにおける前記入力カーソルの現在位置に挿入するための手段を含む、システム。
  26. 請求項1〜請求項11のいずれか1項に記載の方法をコンピュータのプロセッサに実行させるための、コンピュータプログラム。
JP2014548845A 2011-12-19 2012-12-19 エモティコンを識別および提案するためのシステムおよび方法、ならびに、コンピュータプログラム Expired - Fee Related JP6254534B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/330,357 2011-12-19
US13/330,357 US20130159919A1 (en) 2011-12-19 2011-12-19 Systems and Methods for Identifying and Suggesting Emoticons
PCT/US2012/070677 WO2013096482A2 (en) 2011-12-19 2012-12-19 Systems and methods for identifying and suggesting emoticons

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017230299A Division JP6563465B2 (ja) 2011-12-19 2017-11-30 エモティコンを識別および提案するためのシステムおよび方法

Publications (3)

Publication Number Publication Date
JP2015507791A JP2015507791A (ja) 2015-03-12
JP2015507791A5 JP2015507791A5 (ja) 2016-02-04
JP6254534B2 true JP6254534B2 (ja) 2017-12-27

Family

ID=48611572

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014548845A Expired - Fee Related JP6254534B2 (ja) 2011-12-19 2012-12-19 エモティコンを識別および提案するためのシステムおよび方法、ならびに、コンピュータプログラム
JP2017230299A Expired - Fee Related JP6563465B2 (ja) 2011-12-19 2017-11-30 エモティコンを識別および提案するためのシステムおよび方法
JP2019136207A Pending JP2019207726A (ja) 2011-12-19 2019-07-24 エモティコンを識別および提案するためのシステムおよび方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2017230299A Expired - Fee Related JP6563465B2 (ja) 2011-12-19 2017-11-30 エモティコンを識別および提案するためのシステムおよび方法
JP2019136207A Pending JP2019207726A (ja) 2011-12-19 2019-07-24 エモティコンを識別および提案するためのシステムおよび方法

Country Status (16)

Country Link
US (6) US20130159919A1 (ja)
EP (2) EP2795441B1 (ja)
JP (3) JP6254534B2 (ja)
KR (1) KR20140105841A (ja)
CN (1) CN104335607A (ja)
AU (5) AU2012358964B2 (ja)
BR (1) BR112014015219A8 (ja)
CA (1) CA2859811A1 (ja)
HK (1) HK1203238A1 (ja)
MX (1) MX2014007479A (ja)
MY (2) MY170666A (ja)
NZ (2) NZ717653A (ja)
RU (1) RU2014129554A (ja)
SG (2) SG11201403373XA (ja)
WO (1) WO2013096482A2 (ja)
ZA (1) ZA201405207B (ja)

Families Citing this family (241)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8554868B2 (en) 2007-01-05 2013-10-08 Yahoo! Inc. Simultaneous sharing communication interface
US9424246B2 (en) 2009-03-30 2016-08-23 Touchtype Ltd. System and method for inputting text into electronic devices
EP2732383B1 (en) 2011-07-12 2018-04-04 Snap Inc. Methods and systems of providing visual content editing functions
US20130332307A1 (en) * 2011-11-21 2013-12-12 Facebook, Inc. Method for notifying a sender of a gifting event
US20130159919A1 (en) 2011-12-19 2013-06-20 Gabriel Leydon Systems and Methods for Identifying and Suggesting Emoticons
US11734712B2 (en) 2012-02-24 2023-08-22 Foursquare Labs, Inc. Attributing in-store visits to media consumption based on data collected from user devices
US8972357B2 (en) 2012-02-24 2015-03-03 Placed, Inc. System and method for data collection to validate location data
WO2013166588A1 (en) 2012-05-08 2013-11-14 Bitstrips Inc. System and method for adaptable avatars
US20130307779A1 (en) * 2012-05-17 2013-11-21 Bad Donkey Social, LLC Systems, methods, and devices for electronic communication
US9594831B2 (en) 2012-06-22 2017-03-14 Microsoft Technology Licensing, Llc Targeted disambiguation of named entities
JP5845200B2 (ja) * 2012-06-25 2016-01-20 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
JP5937992B2 (ja) 2012-06-25 2016-06-22 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
JP5844298B2 (ja) 2012-06-25 2016-01-13 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
WO2014000263A1 (en) * 2012-06-29 2014-01-03 Microsoft Corporation Semantic lexicon-based input method editor
US20140019878A1 (en) * 2012-07-12 2014-01-16 KamaGames Ltd. System and method for reflecting player emotional state in an in-game character
US9746990B2 (en) * 2012-09-28 2017-08-29 Intel Corporation Selectively augmenting communications transmitted by a communication device
US10824297B2 (en) * 2012-11-26 2020-11-03 Google Llc System for and method of accessing and selecting emoticons, content, and mood messages during chat sessions
GB201223450D0 (en) 2012-12-27 2013-02-13 Touchtype Ltd Search and corresponding method
GB201322037D0 (en) * 2013-12-12 2014-01-29 Touchtype Ltd System and method for inputting images/labels into electronic devices
US10664657B2 (en) * 2012-12-27 2020-05-26 Touchtype Limited System and method for inputting images or labels into electronic devices
US20140282212A1 (en) * 2013-03-15 2014-09-18 Gary Shuster System, method, and apparatus that facilitates modifying a textual input
US20140324414A1 (en) * 2013-04-28 2014-10-30 Tencent Technology (Shenzhen) Company Limited Method and apparatus for displaying emoticon
WO2015030461A1 (en) 2013-08-26 2015-03-05 Samsung Electronics Co., Ltd. User device and method for creating handwriting content
KR102221223B1 (ko) * 2013-08-26 2021-03-03 삼성전자주식회사 필기 컨텐츠를 작성하는 사용자 기기 및 방법
JP6157299B2 (ja) * 2013-09-27 2017-07-05 Kddi株式会社 通信端末、管理サーバ、メッセージ交換システム、メッセージ交換方法及びメッセージ交換プログラム
US20150100537A1 (en) * 2013-10-03 2015-04-09 Microsoft Corporation Emoji for Text Predictions
US20150121248A1 (en) * 2013-10-24 2015-04-30 Tapz Communications, LLC System for effectively communicating concepts
US20160210276A1 (en) * 2013-10-24 2016-07-21 Sony Corporation Information processing device, information processing method, and program
US9961026B2 (en) * 2013-10-31 2018-05-01 Intel Corporation Context-based message creation via user-selectable icons
US20150127753A1 (en) * 2013-11-04 2015-05-07 Meemo, Llc Word Recognition and Ideograph or In-App Advertising System
US10877629B2 (en) 2016-10-13 2020-12-29 Tung Inc. Conversion and display of a user input
US10528219B2 (en) 2015-08-10 2020-01-07 Tung Inc. Conversion and display of a user input
CN104333688B (zh) * 2013-12-03 2018-07-10 广州三星通信技术研究有限公司 基于拍摄的图像生成表情符的设备和方法
US9674125B2 (en) * 2013-12-13 2017-06-06 Google Technology Holdings LLC Method and system for achieving communications in a manner accounting for one or more user preferences or contexts
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
US9515968B2 (en) 2014-02-05 2016-12-06 Facebook, Inc. Controlling access to ideograms
US10050926B2 (en) * 2014-02-05 2018-08-14 Facebook, Inc. Ideograms based on sentiment analysis
US10013601B2 (en) * 2014-02-05 2018-07-03 Facebook, Inc. Ideograms for captured expressions
US10140373B2 (en) * 2014-04-15 2018-11-27 Facebook, Inc. Eliciting user sharing of content
JP6427950B2 (ja) * 2014-05-21 2018-11-28 株式会社リコー 端末装置、プログラム、機能呼び出し方法及び情報処理システム
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US10579212B2 (en) 2014-05-30 2020-03-03 Apple Inc. Structured suggestions
US10565219B2 (en) 2014-05-30 2020-02-18 Apple Inc. Techniques for automatically generating a suggested contact based on a received message
IL239237B (en) 2014-06-05 2018-12-31 Rotem Efrat Network document extension
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
US10708203B2 (en) * 2014-06-25 2020-07-07 Convergence Acceleration Solutions, Llc Systems and methods for indicating emotions through electronic self-portraits
US9043196B1 (en) 2014-07-07 2015-05-26 Machine Zone, Inc. Systems and methods for identifying and suggesting emoticons
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
CA2954330A1 (en) * 2014-07-07 2016-01-14 Machine Zone, Inc. System and method for identifying and suggesting emoticons
US10176535B2 (en) * 2014-09-05 2019-01-08 Verizon Patent And Licensing Inc. Method and system for providing social category indicators in a user profile header of an on-line posting
KR102337072B1 (ko) * 2014-09-12 2021-12-08 삼성전자 주식회사 이모티콘을 생성하는 방법 및 이를 지원하는 전자장치
US10423983B2 (en) 2014-09-16 2019-09-24 Snap Inc. Determining targeting information based on a predictive targeting model
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US10769607B2 (en) * 2014-10-08 2020-09-08 Jgist, Inc. Universal symbol system language-one world language
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
CN105630849A (zh) * 2014-11-27 2016-06-01 英业达科技有限公司 表情图像推荐系统及其方法
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US11388226B1 (en) 2015-01-13 2022-07-12 Snap Inc. Guided personal identity based actions
KR20160089152A (ko) 2015-01-19 2016-07-27 주식회사 엔씨소프트 화행 분석을 통한 스티커 추천 방법 및 시스템
KR101641572B1 (ko) * 2015-01-19 2016-07-21 주식회사 엔씨소프트 상황 및 선호도 기반 대화 스티커 순위 결정 방법 및 컴퓨터 프로그램
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
KR101634086B1 (ko) * 2015-01-19 2016-07-08 주식회사 엔씨소프트 감정 분석을 통한 스티커 추천 방법 및 시스템
KR101615848B1 (ko) * 2015-01-19 2016-04-26 주식회사 엔씨소프트 유사상황 검색을 통한 대화 스티커 추천방법 및 컴퓨터 프로그램
CN104618223B (zh) * 2015-01-20 2017-09-26 腾讯科技(深圳)有限公司 一种信息推荐的管理方法、装置和系统
US9521515B2 (en) 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
KR20160105321A (ko) * 2015-02-27 2016-09-06 임머숀 코퍼레이션 사용자의 무드에 기초하는 액션 생성
US10223397B1 (en) 2015-03-13 2019-03-05 Snap Inc. Social graph based co-location of network users
KR102524426B1 (ko) 2015-03-18 2023-04-24 스냅 인코포레이티드 지오-펜스 인가 프로비저닝
CN104699662B (zh) * 2015-03-18 2017-12-22 北京交通大学 识别整体符号串的方法和装置
US9692967B1 (en) 2015-03-23 2017-06-27 Snap Inc. Systems and methods for reducing boot time and power consumption in camera systems
US10623352B2 (en) 2015-03-30 2020-04-14 International Business Machines Corporation Modification of electronic messages
US10353542B2 (en) 2015-04-02 2019-07-16 Facebook, Inc. Techniques for context sensitive illustrated graphical user interface elements
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
CN105094363A (zh) * 2015-07-06 2015-11-25 百度在线网络技术(北京)有限公司 表情符号的处理方法及装置
US10993069B2 (en) 2015-07-16 2021-04-27 Snap Inc. Dynamically adaptive media content delivery
US10817898B2 (en) 2015-08-13 2020-10-27 Placed, Llc Determining exposures to content presented by physical objects
US10003938B2 (en) 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
CN105119812B (zh) * 2015-08-26 2018-05-18 小米科技有限责任公司 在聊天界面更改表情符号的方法、装置及终端设备
US10445425B2 (en) * 2015-09-15 2019-10-15 Apple Inc. Emoji and canned responses
US9665567B2 (en) * 2015-09-21 2017-05-30 International Business Machines Corporation Suggesting emoji characters based on current contextual emotional state of user
US10203843B2 (en) 2015-09-21 2019-02-12 Microsoft Technology Licensing, Llc Facilitating selection of attribute values for graphical elements
CN105425978A (zh) * 2015-10-26 2016-03-23 百度在线网络技术(北京)有限公司 输入数据的处理方法及装置
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US10540431B2 (en) 2015-11-23 2020-01-21 Microsoft Technology Licensing, Llc Emoji reactions for file content and associated activities
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US10474321B2 (en) 2015-11-30 2019-11-12 Snap Inc. Network resource location linking and visual content sharing
US20170177554A1 (en) * 2015-12-18 2017-06-22 International Business Machines Corporation Culturally relevant emoji character replacement
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
USD852839S1 (en) * 2015-12-23 2019-07-02 Beijing Xinmei Hutong Technology Co., Ltd Display screen with a graphical user interface
AU2016383052A1 (en) * 2015-12-29 2018-06-28 Mz Ip Holdings, Llc Systems and methods for suggesting emoji
WO2017120924A1 (zh) * 2016-01-15 2017-07-20 李强生 插入表情时的信息提醒方法和即时通讯工具
US10628036B2 (en) 2016-01-18 2020-04-21 Microsoft Technology Licensing, Llc Keyboard customization
CN105700703A (zh) * 2016-02-24 2016-06-22 北京小牛互联科技有限公司 一种在键盘的文字输入界面嵌入表情并支持自定义表情的方法和装置
US11023514B2 (en) 2016-02-26 2021-06-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10285001B2 (en) 2016-02-26 2019-05-07 Snap Inc. Generation, curation, and presentation of media collections
US10679389B2 (en) 2016-02-26 2020-06-09 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
KR102462365B1 (ko) 2016-02-29 2022-11-04 삼성전자주식회사 사용자 데모그래픽 정보 및 콘텍스트 정보에 기초한 텍스트 입력 예측 방법 및 장치
US10476819B2 (en) * 2016-03-31 2019-11-12 Atlassian Pty Ltd Systems and methods for providing controls in a messaging interface
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US10686899B2 (en) * 2016-04-06 2020-06-16 Snap Inc. Messaging achievement pictograph display system
US11494547B2 (en) 2016-04-13 2022-11-08 Microsoft Technology Licensing, Llc Inputting images to electronic devices
US20170308289A1 (en) * 2016-04-20 2017-10-26 Google Inc. Iconographic symbol search within a graphical keyboard
US20170308290A1 (en) * 2016-04-20 2017-10-26 Google Inc. Iconographic suggestions within a keyboard
CN105763431B (zh) * 2016-05-06 2019-03-26 腾讯科技(深圳)有限公司 一种信息推送方法、装置及系统
KR101780809B1 (ko) * 2016-05-09 2017-09-22 네이버 주식회사 이모티콘이 함께 제공되는 번역문 제공 방법, 사용자 단말, 서버 및 컴퓨터 프로그램
US20170351678A1 (en) * 2016-06-03 2017-12-07 Facebook, Inc. Profile Suggestions
GB201610984D0 (en) * 2016-06-23 2016-08-10 Microsoft Technology Licensing Llc Suppression of input images
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US10430838B1 (en) 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising
US10733255B1 (en) 2016-06-30 2020-08-04 Snap Inc. Systems and methods for content navigation with automated curation
US9723127B1 (en) * 2016-07-12 2017-08-01 Detrice Grayson Emoticon scripture system
US10348662B2 (en) 2016-07-19 2019-07-09 Snap Inc. Generating customized electronic messaging graphics
CN106293120B (zh) * 2016-07-29 2020-06-23 维沃移动通信有限公司 表情输入方法及移动终端
US11115463B2 (en) 2016-08-17 2021-09-07 Microsoft Technology Licensing, Llc Remote and local predictions
CN106372059B (zh) * 2016-08-30 2018-09-11 北京百度网讯科技有限公司 信息输入方法和装置
EP3800618B1 (en) 2016-08-30 2022-12-07 Snap Inc. Systems and methods for simultaneous localization and mapping
US20180081500A1 (en) * 2016-09-19 2018-03-22 Facebook, Inc. Systems and methods for content engagement
CN106502515B (zh) * 2016-09-30 2020-01-14 维沃移动通信有限公司 一种图片输入方法及移动终端
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
CN106503744A (zh) * 2016-10-26 2017-03-15 长沙军鸽软件有限公司 对聊天过程中的输入表情进行自动纠错的方法及装置
US10623666B2 (en) 2016-11-07 2020-04-14 Snap Inc. Selective identification and order of image modifiers
KR20180057366A (ko) * 2016-11-22 2018-05-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10203855B2 (en) 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
US10452411B2 (en) 2016-12-30 2019-10-22 Riyad Mobeen System and method of using emojis for interactive and enhanced data matching capabilities
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US10915911B2 (en) 2017-02-03 2021-02-09 Snap Inc. System to determine a price-schedule to distribute media content
US11250075B1 (en) 2017-02-17 2022-02-15 Snap Inc. Searching social media content
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10565795B2 (en) 2017-03-06 2020-02-18 Snap Inc. Virtual vision system
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US11170393B1 (en) 2017-04-11 2021-11-09 Snap Inc. System to calculate an engagement score of location based media content
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
CN107093164A (zh) * 2017-04-26 2017-08-25 北京百度网讯科技有限公司 用于生成图像的方法和装置
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
KR20220141927A (ko) 2017-04-27 2022-10-20 스냅 인코포레이티드 지도-기반 소셜 미디어 플랫폼들에 대한 위치 프라이버시 관리
US10467147B1 (en) 2017-04-28 2019-11-05 Snap Inc. Precaching unlockable data elements
US10803120B1 (en) 2017-05-31 2020-10-13 Snap Inc. Geolocation based playlists
US10318109B2 (en) * 2017-06-09 2019-06-11 Microsoft Technology Licensing, Llc Emoji suggester and adapted user interface
US10788900B1 (en) * 2017-06-29 2020-09-29 Snap Inc. Pictorial symbol prediction
US11475254B1 (en) 2017-09-08 2022-10-18 Snap Inc. Multimodal entity identification
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
US20190087466A1 (en) 2017-09-21 2019-03-21 Mz Ip Holdings, Llc System and method for utilizing memory efficient data structures for emoji suggestions
US10499191B1 (en) 2017-10-09 2019-12-03 Snap Inc. Context sensitive presentation of content
US10593087B2 (en) 2017-10-23 2020-03-17 Paypal, Inc. System and method for generating emoji mashups with machine learning
US10573043B2 (en) 2017-10-30 2020-02-25 Snap Inc. Mobile-based cartographic control of display content
US11265273B1 (en) 2017-12-01 2022-03-01 Snap, Inc. Dynamic media overlay with smart widget
US11017173B1 (en) 2017-12-22 2021-05-25 Snap Inc. Named entity recognition visual context and caption data
CN108173747B (zh) * 2017-12-27 2021-10-22 上海传英信息技术有限公司 信息交互方法及装置
US10678818B2 (en) 2018-01-03 2020-06-09 Snap Inc. Tag distribution visualization system
US11507614B1 (en) 2018-02-13 2022-11-22 Snap Inc. Icon based tagging
US10885136B1 (en) 2018-02-28 2021-01-05 Snap Inc. Audience filtering system
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US10327096B1 (en) 2018-03-06 2019-06-18 Snap Inc. Geo-fence selection system
CN111886058B (zh) 2018-03-14 2024-06-18 斯纳普公司 基于位置信息生成可收集项
US10970329B1 (en) * 2018-03-30 2021-04-06 Snap Inc. Associating a graphical element to media content item collections
US11163941B1 (en) 2018-03-30 2021-11-02 Snap Inc. Annotating a collection of media content items
US10219111B1 (en) 2018-04-18 2019-02-26 Snap Inc. Visitation tracking system
US11573679B2 (en) * 2018-04-30 2023-02-07 The Trustees of the California State University Integration of user emotions for a smartphone or other communication device environment
US10699104B2 (en) * 2018-05-03 2020-06-30 International Business Machines Corporation Image obtaining based on emotional status
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
DK201870378A1 (en) 2018-05-07 2020-01-13 Apple Inc. DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
US11496425B1 (en) * 2018-05-10 2022-11-08 Whatsapp Llc Modifying message content based on user preferences
US10896197B1 (en) 2018-05-22 2021-01-19 Snap Inc. Event detection system
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
KR102481910B1 (ko) 2018-08-31 2022-12-27 구글 엘엘씨 동적 키보드 인터페이스내의 애니메이션 이미지 포지셔닝 방법 및 시스템
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
US10778623B1 (en) 2018-10-31 2020-09-15 Snap Inc. Messaging and gaming applications communication platform
US10652182B1 (en) * 2018-11-01 2020-05-12 International Business Machines Corporation Unlocking emoticons based on professional skills
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
US10871877B1 (en) * 2018-11-30 2020-12-22 Facebook, Inc. Content-based contextual reactions for posts on a social networking system
JP6636604B2 (ja) * 2018-12-12 2020-01-29 株式会社コロプラ 感情テキスト表示プログラム、方法およびシステム
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
US10838599B2 (en) 2019-02-25 2020-11-17 Snap Inc. Custom media overlay system
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
CN109918530A (zh) * 2019-03-04 2019-06-21 北京字节跳动网络技术有限公司 用于推送图像的方法和装置
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US11249614B2 (en) 2019-03-28 2022-02-15 Snap Inc. Generating personalized map interface with enhanced icons
US10810782B1 (en) 2019-04-01 2020-10-20 Snap Inc. Semantic texture mapping system
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
CN110162670B (zh) * 2019-05-27 2020-05-08 北京字节跳动网络技术有限公司 用于生成表情包的方法和装置
US10582453B1 (en) 2019-05-30 2020-03-03 Snap Inc. Wearable device location systems architecture
US10560898B1 (en) 2019-05-30 2020-02-11 Snap Inc. Wearable device location systems
US11074408B2 (en) 2019-06-01 2021-07-27 Apple Inc. Mail application features
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US20220291789A1 (en) * 2019-07-11 2022-09-15 Google Llc System and Method for Providing an Artificial Intelligence Control Surface for a User of a Computing Device
US11821742B2 (en) 2019-09-26 2023-11-21 Snap Inc. Travel based notifications
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US11429618B2 (en) 2019-12-30 2022-08-30 Snap Inc. Surfacing augmented reality objects
US11343323B2 (en) 2019-12-31 2022-05-24 Snap Inc. Augmented reality objects registry
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
CN111131006B (zh) * 2019-12-31 2021-05-18 联想(北京)有限公司 一种信息处理方法
US11228551B1 (en) 2020-02-12 2022-01-18 Snap Inc. Multiple gateway message exchange
US11516167B2 (en) 2020-03-05 2022-11-29 Snap Inc. Storing data based on device location
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
US11209964B1 (en) * 2020-06-05 2021-12-28 SlackTechnologies, LLC System and method for reacting to messages
US11503432B2 (en) 2020-06-15 2022-11-15 Snap Inc. Scalable real-time location sharing framework
US11290851B2 (en) 2020-06-15 2022-03-29 Snap Inc. Location sharing using offline and online objects
US11314776B2 (en) 2020-06-15 2022-04-26 Snap Inc. Location sharing using friend list versions
US11483267B2 (en) 2020-06-15 2022-10-25 Snap Inc. Location sharing using different rate-limited links
US20220269354A1 (en) * 2020-06-19 2022-08-25 Talent Unlimited Online Services Private Limited Artificial intelligence-based system and method for dynamically predicting and suggesting emojis for messages
US11308327B2 (en) 2020-06-29 2022-04-19 Snap Inc. Providing travel-based augmented reality content with a captured image
US11349797B2 (en) 2020-08-31 2022-05-31 Snap Inc. Co-location connection service
JP2022045129A (ja) * 2020-09-08 2022-03-18 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
US11044218B1 (en) * 2020-10-23 2021-06-22 Slack Technologies, Inc. Systems and methods for reacting to messages
CN112540756B (zh) * 2020-12-01 2024-05-31 杭州讯酷科技有限公司 一种基于光标位置推荐字段的ui界面构建方法
KR102656810B1 (ko) * 2020-12-15 2024-04-11 주식회사 카카오 컨텐츠 리스트 제공 방법과 서버 및 사용자 단말의 동작 방법
CN114816599B (zh) * 2021-01-22 2024-02-27 北京字跳网络技术有限公司 图像显示方法、装置、设备及介质
US11516539B2 (en) * 2021-03-01 2022-11-29 Comcast Cable Communications, Llc Systems and methods for providing contextually relevant information
US11606756B2 (en) 2021-03-29 2023-03-14 Snap Inc. Scheduling requests for location data
US11645324B2 (en) 2021-03-31 2023-05-09 Snap Inc. Location-based timeline media content system
US11561673B1 (en) 2021-06-30 2023-01-24 Salesforce, Inc. User interface for searching content of a communication platform using reaction icons
US11765115B2 (en) * 2021-07-29 2023-09-19 Snap Inc. Emoji recommendation system using user context and biosignals
US11960845B2 (en) * 2021-10-20 2024-04-16 International Business Machines Corporation Decoding communications with token sky maps
US11829834B2 (en) 2021-10-29 2023-11-28 Snap Inc. Extended QR code
US12001750B2 (en) 2022-04-20 2024-06-04 Snap Inc. Location-based shared augmented reality experience system
DE102022110951A1 (de) 2022-05-04 2023-11-09 fm menschenbezogen GmbH Vorrichtung zur Auswahl einer Trainings- und/oder Nutzungsempfehlung und/oder einer Charakterisierung

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4706212A (en) 1971-08-31 1987-11-10 Toma Peter P Method using a programmed digital computer system for translation between natural languages
JP3393162B2 (ja) * 1994-03-31 2003-04-07 シャープ株式会社 文章編集装置
US5805911A (en) 1995-02-01 1998-09-08 Microsoft Corporation Word prediction system
US7319957B2 (en) * 2004-02-11 2008-01-15 Tegic Communications, Inc. Handwriting and voice input with automatic correction
US6269189B1 (en) * 1998-12-29 2001-07-31 Xerox Corporation Finding selected character strings in text and providing information relating to the selected character strings
US7051019B1 (en) * 1999-08-17 2006-05-23 Corbis Corporation Method and system for obtaining images from a database having images that are relevant to indicated text
US6990452B1 (en) * 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
JP2003256586A (ja) 2002-02-28 2003-09-12 Fuji Photo Film Co Ltd 動画キャラクタ生成システム
JP4232093B2 (ja) * 2003-06-30 2009-03-04 日本電気株式会社 複数の検索方法を用いた顔文字入力システム及び方法
JP2005063245A (ja) * 2003-08-18 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> 入力支援システム、入力支援機能を備えた端末装置及びそのプログラム
US20050192802A1 (en) * 2004-02-11 2005-09-01 Alex Robinson Handwriting and voice input with automatic correction
US7669135B2 (en) * 2004-07-15 2010-02-23 At&T Mobility Ii Llc Using emoticons, such as for wireless devices
EP1844403A4 (en) 2005-01-16 2010-06-23 Zlango Ltd SIGNS COMMUNICATION
WO2006075335A2 (en) 2005-01-16 2006-07-20 Zlango Ltd. Communications network system and methods for using same
WO2007080558A2 (en) 2006-01-16 2007-07-19 Zlango Ltd. Communications network system and methods for using same
US8744350B2 (en) 2005-01-18 2014-06-03 Zlango Ltd. Activating an application
US7506254B2 (en) 2005-04-21 2009-03-17 Google Inc. Predictive conversion of user input
EP1949263B1 (en) 2005-10-28 2016-09-07 Telecom Italia S.p.A. Method of providing selected content items to a user
IL173011A (en) * 2006-01-08 2012-01-31 Picscout Ltd Image insertion for cellular text messaging
US8775526B2 (en) * 2006-01-16 2014-07-08 Zlango Ltd. Iconic communication
JP4730114B2 (ja) 2006-01-30 2011-07-20 日本電気株式会社 メッセージ作成支援方法及び携帯端末
US8166418B2 (en) * 2006-05-26 2012-04-24 Zi Corporation Of Canada, Inc. Device and method of conveying meaning
US8065601B2 (en) * 2006-08-03 2011-11-22 Apple Inc. System and method for tagging data
TW200809543A (en) 2006-08-10 2008-02-16 Inventec Corp Mail-editing system and method
JP5098304B2 (ja) * 2006-11-17 2012-12-12 日本電気株式会社 特殊文字入力支援装置及びこれを備える電子機器
JP2008225602A (ja) * 2007-03-09 2008-09-25 Ntt Docomo Inc 絵文字検索装置、絵文字検索システムおよび絵文字検索方法
US20080244446A1 (en) * 2007-03-29 2008-10-02 Lefevre John Disambiguation of icons and other media in text-based applications
US8299943B2 (en) * 2007-05-22 2012-10-30 Tegic Communications, Inc. Multiple predictions in a reduced keyboard disambiguating system
JP2009110056A (ja) 2007-10-26 2009-05-21 Panasonic Corp 通信装置
CN100570545C (zh) * 2007-12-17 2009-12-16 腾讯科技(深圳)有限公司 表情输入方法及装置
JP5290570B2 (ja) 2007-12-26 2013-09-18 京セラ株式会社 絵文字入力支援装置、絵文字入力支援方法、およびプログラム
WO2009128838A1 (en) 2008-04-18 2009-10-22 Tegic Communications, Inc. Disambiguation of icons and other media in text-based applications
US9646078B2 (en) 2008-05-12 2017-05-09 Groupon, Inc. Sentiment extraction from consumer reviews for providing product recommendations
US8458153B2 (en) * 2008-08-26 2013-06-04 Michael Pierce Web-based services for querying and matching likes and dislikes of individuals
US20100131447A1 (en) * 2008-11-26 2010-05-27 Nokia Corporation Method, Apparatus and Computer Program Product for Providing an Adaptive Word Completion Mechanism
US20100332287A1 (en) 2009-06-24 2010-12-30 International Business Machines Corporation System and method for real-time prediction of customer satisfaction
JP5267450B2 (ja) * 2009-12-28 2013-08-21 株式会社デンソー 電子機器及びプログラム
JP2011171891A (ja) * 2010-02-17 2011-09-01 Panasonic Corp 携帯端末
CN101820475A (zh) * 2010-05-25 2010-09-01 拓维信息系统股份有限公司 基于智能语义理解的手机彩信生成方法
JP5398638B2 (ja) 2010-05-25 2014-01-29 日本電信電話株式会社 記号入力支援装置、記号入力支援方法、及びプログラム
US8738362B2 (en) 2010-09-28 2014-05-27 International Business Machines Corporation Evidence diffusion among candidate answers during question answering
US8593422B2 (en) * 2010-11-05 2013-11-26 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9536269B2 (en) 2011-01-19 2017-01-03 24/7 Customer, Inc. Method and apparatus for analyzing and applying data related to customer interactions with social media
CA2829569C (en) 2011-03-10 2016-05-17 Textwise Llc Method and system for unified information representation and applications thereof
US8903713B2 (en) 2011-11-19 2014-12-02 Richard L. Peterson Method and apparatus for automatically analyzing natural language to extract useful information
US9348479B2 (en) 2011-12-08 2016-05-24 Microsoft Technology Licensing, Llc Sentiment aware user interface customization
US20130159919A1 (en) * 2011-12-19 2013-06-20 Gabriel Leydon Systems and Methods for Identifying and Suggesting Emoticons
US20130247078A1 (en) * 2012-03-19 2013-09-19 Rawllin International Inc. Emoticons for media
US9483730B2 (en) 2012-12-07 2016-11-01 At&T Intellectual Property I, L.P. Hybrid review synthesis
GB201322037D0 (en) 2013-12-12 2014-01-29 Touchtype Ltd System and method for inputting images/labels into electronic devices
US20140278786A1 (en) * 2013-03-14 2014-09-18 Twain Liu-Qiu-Yan System and method to survey and evaluate items according to people's perceptions and to generate recommendations based on people's perceptions
US9613023B2 (en) 2013-04-04 2017-04-04 Wayne M. Kennard System and method for generating ethnic and cultural emoticon language dictionaries
US20140365208A1 (en) 2013-06-05 2014-12-11 Microsoft Corporation Classification of affective states in social media
US9311467B2 (en) 2013-08-20 2016-04-12 International Business Machines Corporation Composite propensity profile detector
US10706367B2 (en) 2013-09-10 2020-07-07 Facebook, Inc. Sentiment polarity for users of a social networking system
US20150100537A1 (en) 2013-10-03 2015-04-09 Microsoft Corporation Emoji for Text Predictions
US20150199609A1 (en) 2013-12-20 2015-07-16 Xurmo Technologies Pvt. Ltd Self-learning system for determining the sentiment conveyed by an input text
US10013601B2 (en) 2014-02-05 2018-07-03 Facebook, Inc. Ideograms for captured expressions
US10038786B2 (en) 2014-03-05 2018-07-31 [24]7.ai, Inc. Method and apparatus for improving goal-directed textual conversations between agents and customers
RU2571373C2 (ru) 2014-03-31 2015-12-20 Общество с ограниченной ответственностью "Аби ИнфоПоиск" Метод анализа тональности текстовых данных
US9043196B1 (en) 2014-07-07 2015-05-26 Machine Zone, Inc. Systems and methods for identifying and suggesting emoticons
US20160048768A1 (en) 2014-08-15 2016-02-18 Here Global B.V. Topic Model For Comments Analysis And Use Thereof
US10552759B2 (en) 2014-12-01 2020-02-04 Facebook, Inc. Iterative classifier training on online social networks

Also Published As

Publication number Publication date
CA2859811A1 (en) 2013-06-27
AU2016253602A1 (en) 2016-11-17
WO2013096482A3 (en) 2014-10-02
AU2016253602B2 (en) 2018-11-29
AU2016204020B2 (en) 2016-07-14
US9075794B2 (en) 2015-07-07
US20150095020A1 (en) 2015-04-02
BR112014015219A2 (pt) 2017-06-13
RU2014129554A (ru) 2016-02-10
NZ627285A (en) 2015-11-27
KR20140105841A (ko) 2014-09-02
EP2795441B1 (en) 2018-05-30
NZ717653A (en) 2016-03-31
MX2014007479A (es) 2014-12-05
MY170666A (en) 2019-08-26
SG11201403373XA (en) 2014-07-30
JP2019207726A (ja) 2019-12-05
NZ713912A (en) 2016-03-31
US20150347384A1 (en) 2015-12-03
JP2018077861A (ja) 2018-05-17
US9244907B2 (en) 2016-01-26
ZA201405207B (en) 2015-10-28
SG10201707573WA (en) 2017-11-29
AU2019200788A1 (en) 2019-02-21
CN104335607A (zh) 2015-02-04
MY189954A (en) 2022-03-22
AU2016206331B1 (en) 2016-08-11
EP2795441A4 (en) 2015-10-07
US10254917B2 (en) 2019-04-09
JP2015507791A (ja) 2015-03-12
AU2016204020A1 (en) 2016-07-07
EP3352092A1 (en) 2018-07-25
JP6563465B2 (ja) 2019-08-21
NZ713913A (en) 2016-03-31
AU2012358964A1 (en) 2014-07-31
BR112014015219A8 (pt) 2017-06-13
AU2012358964B2 (en) 2016-06-23
US8909513B2 (en) 2014-12-09
WO2013096482A2 (en) 2013-06-27
EP2795441A2 (en) 2014-10-29
US20130159919A1 (en) 2013-06-20
US20160110058A1 (en) 2016-04-21
US20190187879A1 (en) 2019-06-20
HK1203238A1 (en) 2015-10-23
US20140214409A1 (en) 2014-07-31

Similar Documents

Publication Publication Date Title
JP6563465B2 (ja) エモティコンを識別および提案するためのシステムおよび方法
US10579717B2 (en) Systems and methods for identifying and inserting emoticons
JP2017527881A (ja) エモティコンを識別および提案するためのシステムおよび方法
JP2019153338A (ja) エモティコンを識別および提案するためのシステムおよび方法
NZ713913B2 (en) Systems and methods for identifying and suggesting emoticons
NZ713912B2 (en) Systems and methods for identifying and suggesting emoticons

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171130

R150 Certificate of patent or registration of utility model

Ref document number: 6254534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees