JP2019537117A - アニメートされたオブジェクトを有するメッセージングストリームの生成 - Google Patents
アニメートされたオブジェクトを有するメッセージングストリームの生成 Download PDFInfo
- Publication number
- JP2019537117A JP2019537117A JP2019520091A JP2019520091A JP2019537117A JP 2019537117 A JP2019537117 A JP 2019537117A JP 2019520091 A JP2019520091 A JP 2019520091A JP 2019520091 A JP2019520091 A JP 2019520091A JP 2019537117 A JP2019537117 A JP 2019537117A
- Authority
- JP
- Japan
- Prior art keywords
- user
- animated
- animated object
- action
- messaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000009471 action Effects 0.000 claims abstract description 163
- 238000000034 method Methods 0.000 claims abstract description 57
- 230000008859 change Effects 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 3
- 235000014510 cooky Nutrition 0.000 description 60
- 238000004891 communication Methods 0.000 description 20
- 230000002452 interceptive effect Effects 0.000 description 9
- 238000007664 blowing Methods 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 235000013305 food Nutrition 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 241000070023 Phoenicopterus roseus Species 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000010267 cellular communication Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013475 authorization Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004579 marble Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- RZVAJINKPMORJF-UHFFFAOYSA-N Acetaminophen Chemical compound CC(=O)NC1=CC=C(O)C=C1 RZVAJINKPMORJF-UHFFFAOYSA-N 0.000 description 1
- 241000289581 Macropus sp. Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000007373 indentation Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 235000021178 picnic Nutrition 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Human Computer Interaction (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Health & Medical Sciences (AREA)
- Operations Research (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
Abstract
第1ユーザと第2ユーザとの間で1つまたは複数のメッセージが交換されるメッセージングストリームを生成する方法は、第1ユーザと第2ユーザとの間で1つまたは複数のメッセージが交換されるメッセージングストリームを生成する工程を備える。方法は、メッセージングストリームに対するアニメートされたオブジェクトの選択を、第1ユーザから受信する工程をさらに含む。方法は、アニメートされたオブジェクトをメッセージングストリームにおいて提供する工程をさらに含む。方法は、アニメートされたオブジェクトに関連する第1ユーザからの第1アクションを受信する工程をさらに含む。方法は、アニメートされたオブジェクトの表示を、第1アクションに基づき変更する工程をさらに含む。方法は、アニメートされたオブジェクトに関連する第2ユーザからの第2アクションを受信する工程をさらに含む。方法は、アニメートされたオブジェクトの表示を、第2アクションに基づき変更する工程をさらに含む。
Description
本願は、アニメートされたオブジェクトを有するメッセージングストリームの生成に関する。
現在のメッセージングアプリケーションは、ステッカー、絵文字、写真、GIF、および音声の形式での非対話型の、一方向のオブジェクトを可能にする。しかしながら、これらの一方向のオブジェクトは、適用が制限されるため、一過性であると考えられ得る。例えば、第1ユーザが絵文字を第2ユーザに送信する場合があり、ユーザは絵文字を面白いと思うが、その後は絵文字のことを完全に忘れてしまう。したがって、周知のメッセージング方法およびシステムにおけるユーザ対話の可能性はかなり限定されている。
本明細書に述べられる背景技術の記載は、本開示の背景を一般的に提示するためのものである。ここに指定された発明者の研究は、出願時に別段、従来技術とされない記載の態様と同様に、この背景技術の欄に記載されている範囲では、明示的にも暗示的にも本開示に対する従来技術であるとは認められない。
本願は、アニメートされたオブジェクトを有するメッセージングストリームの生成に関する。
実装は、一般的には、第1ユーザと第2ユーザとの間で1つまたは複数のメッセージが交換されるメッセージングストリームを生成するためのコンピュータが実行する方法に関する。方法は、第1ユーザと第2ユーザ(第1ユーザと第2ユーザは地理的に離れてよい)との間で1つまたは複数のメッセージが交換されるメッセージングストリームを生成する工程を含んでよい。方法は、メッセージングストリームに対するアニメートされたオブジェクトの選択を、第1ユーザから受信する工程をさらに含む。方法は、アニメートされたオブジェクトをメッセージングストリームにおいて提供する、提供工程をさらに含む。方法は、アニメートされたオブジェクトに関連する第1ユーザから第1アクションを受信する、第1アクション受信工程をさらに含む。方法は、アニメートされたオブジェクトの表示を、第1アクションに基づき変更する、第1アクション基準オブジェクト表示変更工程をさらに含む。方法は、アニメートされたオブジェクトに関連する第2ユーザから第2アクションを受信する、第2アクション受信工程をさらに含む。方法は、アニメートされたオブジェクトの表示を、第2アクションに基づき変更する工程をさらに含む。提案された解決に基づき、ユーザが対話をするためにメッセージングストリームを介してメッセージを交換する機能が強化される。ユーザが、別個のコンピューティング装置を使用して、例えばより直感的および/またはより変化のある形式で互いに対話することを可能にする技術が提供される。
いくつかの実装では、異なる種類のアクションおよびユーザ入力が受信され、アニメートされたオブジェクトの表示を変更してよい。いくつかの実装では、第1アクション受信工程は、コンピューティング装置に関連付けられたマイク付近の気流の変化を検出することを含む。いくつかの実装では、第1アクション受信工程は、タッチスクリーン上の指の移動を検出することまたはポインティングデバイスの移動を検出することを含む。いくつかの実装では、第1アクション受信工程は、コンピューティング装置の移動を、コンピューティング装置に関連付けられたセンサから受信された情報に基づき検出することを含む。これに関して、方法は、移動の方向を判定および/またはユーザ(use)装置が移動した場所を判定する工程をさらに備えてよく、第1アクション基準オブジェクト表示変更工程は、アニメートされたオブジェクトの表示を、判定された移動の方向および/またはコンピューティング装置が移動したと判定された場所に基づき、変更することを含む。例えば、第1ユーザまたは第2ユーザがコンピューティング装置をユーザの耳元に移動させた場合、ユーザがコンピューティング装置をユーザの耳元に移動させたことを示すセンサからの情報を受信してよい。いくつかの例では、アニメートされたオブジェクトは、ユーザがコンピューティング装置をユーザの左耳に移動した場合の甲高い鳴き声、ユーザがコンピューティング装置をユーザの右耳に移動した場合の吠える声等、どのようにコンピューティング装置が移動したかによって、異なる音を出す。いくつかの実装では、第1アクション受信工程は、第1ユーザからメッセージを受信し、メッセージングストリームからコンテクストを判定することを含み、第1アクション基準オブジェクト表示変更工程は、アニメートされたオブジェクトの表示を、メッセージングストリームからのコンテクストに基づき、変更することを含む。いくつかの実装では、第1アクションは、アニメートされたオブジェクトを第1方向に引くことであり、第2アクションは、アニメートされたオブジェクトを第2方向に引くことである。いくつかの実装では、第1ユーザおよび第2ユーザは地理的に離れており、提供工程は、(a)アニメートされたオブジェクトを、第1ユーザの第1コンピューティング装置上のメッセージングストリームにおいて、および第2ユーザの第2コンピューティング装置上のメッセージングストリームにおいて、提供することと、(b)第1コンピューティング装置および第2コンピューティング装置のうちの1つ以上の上で、アニメートされたオブジェクトを表示のために、第1ユーザまたは第2ユーザのそれぞれに関連付けられたメタデータに基づき変更することと、を含む。メタデータは、第1ユーザの第1コンピューティング装置および第2ユーザの第2コンピューティング装置のうちの1つ以上に関連付けられた時刻、位置、時間帯、ユーザ嗜好のうちの1つ以上を含んでよい。これに関して、方法は、例えば、第1ユーザおよび第2ユーザのうちの1人以上のコンピューティング装置に関連付けられた位置を、GPS(全地球測位システム)情報を提供するセンサに基づき判定する工程をさらに備えてよい。いくつかの実装では、方法は、アニメートされたオブジェクトがメッセージングストリームの部分に固定されたままで、1つまたは複数のメッセージをメッセージングストリーム内に表示する工程をさらに備える。いくつかの実装では、第1ユーザはチャットボットであり、アニメートされたオブジェクトは、第1ユーザと第2ユーザとの間で交換される1つまたは複数のメッセージに関連する。いくつかの実装では、アニメートされたオブジェクトの表示は、1つまたは複数のメッセージ中の単語、音声コンテンツ、およびメッセージングストリームのコンテクストのうちの1つ以上に基づき変更される。いくつかの実装では、方法は、第1ユーザにオプションとして提供するオブジェクトのセットを、メッセージングストリームが表示されるコンピューティング装置の種類に基づき識別する工程であって、アニメートされたオブジェクトはオブジェクトのセットの一部である工程をさらに備える。いくつかの実装では、方法は、第1ユーザがアニメートされたオブジェクトをメッセージングストリームに対して選択するために、アニメートされたオブジェクトのグループを提供する工程をさらに備え、アニメートされたオブジェクトのグループのアニメートされたオブジェクトは、(a)アニメートされたオブジェクトを選択するために使用されるコンピューティング装置の種類によって異なり、および/または(b)アニメートされたオブジェクトを選択するために使用されるコンピューティング装置に基づき異なる属性を有する。
いくつかの実装では、方法は、第1ユーザと第2ユーザとの間で1つまたは複数のメッセージが交換されるメッセージングストリームを生成する工程を含む。方法は、メッセージングストリームに対するアニメートされたオブジェクトの選択を、第1ユーザから受信する工程をさらに含む。方法は、アニメートされたオブジェクトのバージョンを、アニメートされたオブジェクトが表示されるコンピューティング装置の種類に基づき表示させる工程をさらに含む。方法は、アニメートされたオブジェクトに関連する第2ユーザからアクションを受信する、第2ユーザアクション受信工程をさらに含む。方法は、アクションを受信することに応じて、アニメートされたオブジェクトの表示を変更する工程をさらに含む。
いくつかの実装では、選択は第1選択であり、アニメートされたオブジェクトは第1のアニメートされたオブジェクトであり、方法は、第2ユーザにアニメートされたオブジェクトのセットを、第1オブジェクトとの関係に基づき提供する工程と、アニメートされたオブジェクトのセットから、第2のアニメートされたオブジェクトの第2選択を受信する工程と、第2選択の受信に応じて、第2オブジェクトをメッセージングストリームにおいて提供する工程と、をさらに備える。いくつかの実装では、アニメートされたオブジェクトが表示されるコンピューティング装置の種類に基づき表示される、アニメートされたオブジェクトのバージョンは、デスクトップコンピュータ用の複雑なバージョン、モバイル装置用の簡易バージョン、およびスマートウォッチ用のより簡易なバージョンを含む。いくつかの実装では、選択は第1選択であり、アニメートされたオブジェクトは、第1のアニメートされたオブジェクトであり、第2ユーザからのアクションは、メッセージングストリームに対する第2ユーザからの第2のアニメートされたオブジェクトの第2選択を含み、第1のアニメートされたオブジェクトの表示を変更する工程は、第2のアニメートされたオブジェクトと対話する第1のアニメートされたオブジェクトを含む。
別の態様によれば、システムが記載される。そのようなシステムは、第1ユーザと第2ユーザとの間で1つまたは複数のメッセージが交換されるメッセージングストリームを生成する手段を含む。システムは、メッセージングストリームに対するアニメートされたオブジェクトの選択を、第1ユーザから受信する手段をさらに含む。システムは、アニメートされたオブジェクトをメッセージングストリームにおいて提供する手段をさらに含む。システムは、アニメートされたオブジェクトに関連する第1ユーザから第1アクションを受信する手段をさらに含む。システムは、アニメートされたオブジェクトの表示を、第1アクションに基づき変更する手段をさらに含む。システムは、アニメートされたオブジェクトに関連する第2ユーザから第2アクションを受信する手段をさらに含む。システムは、アニメートされたオブジェクトの表示を、第2アクションに基づき変更する手段をさらに含む。
下記の様々な実装は、対話型のアニメートされたオブジェクトを含むメッセージングストリームを提供する。下記のアニメートされたオブジェクトは、ディスプレイ画面上に表示され得る、仮想現実環境において投影され得る、オーディとしてオ再生され得る、触覚フィードバックを介して再生され得る、またはそのような様式の組み合わせのフィーチャ等のマルチメディアの特徴を含んでよい。様々な実装において、ユーザの同意に基づき、アニメートされたオブジェクトはユーザ入力、メッセージングストリームにおいて交換されるメッセージ、メッセージングコンテクスト、およびそのような要素の組み合わせに反応する。対話型のアニメートされたオブジェクトは複数の利点を提供してよい。例えば、そのようなアニメートされたオブジェクトは、テキスト、画像、アニメートされたGIF、ステッカー、および絵文字等の所有するアイテムの送信に制限されるのではなく、例えばユーザが対話的方法で自身を表現することを可能にすることで、メッセージングストリームを実装するメッセージングアプリケーションを使用するユーザエクスペリエンスを向上させ得る。さらに、複数のユーザを含むメッセージングストリームにおいてアニメートされたオブジェクトを提供する実装において、アニメートされたオブジェクトは、複数のユーザによって、同時にまたは連続的に動かされてよい。そのような対話性は、地理的に離れたユーザに対して、オブジェクトを共同して変更する体験を提供してよい。さらなる利点は、オブジェクトの動作がユーザによってカスタマイズされ得るということである。
本明細書で提供される実装は、対話型のアニメートされたオブジェクトを、メッセージングストリームにおいて効率的に提供する。例えば、アニメートされたオブジェクトは、ある行動について前もってプログラムされてよい。例えば、アニメートされたオブジェクトは、ユーザアクションまたはコンテクストに従って変更または表示されることによって、様々なユーザアクション、メッセージングコンテクスト等に反応するよう構成されてよい。このように、技術的な利点は、アニメートされたオブジェクトの複数または更には無数の行動が、各行動を明示的に指定する必要なく、前もってプログラムされた行動の組み合わせによって提供され得るということである。これは、複雑なアニメートされたオブジェクトが、限定的な計算リソースで記憶および表示されることを可能にする。アニメートされたオブジェクトは、例えば、アニメートされたオブジェクトをメッセージングストリームに挿入するだけで、ダウンロードまたは要求に応じてアクセスされてよい。これにより、オブジェクトを記憶するために必要な記憶スペースを削減する。アニメートされたオブジェクトの異なるバージョンは、異なるコンピューティング装置に対して下記のように提供されてよい。従って、限定された記憶スペース、ネットワークアクセス容量、および処理能力を有する装置であっても、アニメートされたオブジェクトの適切なバージョンを描画することが可能である。従って、下記の実装は、アニメートされたオブジェクトを、装置固有の構成を必要とせずに、異なる種類のコンピューティング装置に対するメッセージングストリームにおいて提供する。
本開示は、例として説明されており、類似の要素を参照するために同様な参照番号を用いる添付された図の形状における限定としては説明されていない。
いくつかの実装において、メッセージングアプリケーションは、第1ユーザと第2ユーザとの間でメッセージが交換されるメッセージングストリームを生成する。メッセージングアプリケーションは、アニメートされたオブジェクトの選択を第1ユーザからメッセージングストリーム用に受信してよい。例えば、第1ユーザは、メッセージングストリームに追加するアニメートされた泡を選択してよい。メッセージングアプリケーションは、アニメートされたオブジェクトをメッセージングストリームに追加してよい。例えば、第1ユーザおよび第2ユーザは、メッセージングストリームにおいてアニメートされた泡を閲覧してよい。
メッセージングアプリケーションは、アニメートされたオブジェクトに関連する第1ユーザから、第1アクションを受信してよい。例えば、第1ユーザはユーザ装置に息を吹きかけてよく、ユーザ装置はマイク付近の気流の変化を検出する。メッセージングアプリケーションは、第1アクションに基づき、アニメートされたオブジェクトの表示を変更してよい。例えば、メッセージングアプリケーションは、泡をユーザがユーザ装置に息を吹きかけることに基づき上昇するように表示してよい。メッセージングアプリケーションは、アニメートされたオブジェクトに関連する第2ユーザから、第2アクションを受信してよい。例えば、メッセージングアプリケーションは、第2ユーザがユーザ装置上で指を使って泡を引くことに基づく指示を受信してよい。メッセージングアプリケーションは、第2アクションに基づき、アニメートされたオブジェクトの表示を変更してよい。例えば、メッセージングアプリケーションは、泡を指の動きに対応する方向に引き伸ばされ、その後に破裂するように表示してよい。
例示的なシステム
図1は、アニメートされたオブジェクトを含むメッセージングストリームを生成する例示的なシステム100のブロック図を示す。システム100は、メッセージングサーバ101、ユーザ装置115a、115n、第2サーバ120、およびネットワーク105を含む。ユーザ125a、125nは、各々のユーザ装置115a、115nに関連付けられてよい。いくつかの実装では、システム100は、図1に示されない他のサーバまたは装置を含んでよい。図1および残りの図において、例えば「115a」のような参照番号の後の文字は、その特定の参照番号を有する要素に対する参照を表す。本明細書において、例えば「115」のように続きの文字を持たない参照番号は、その参照番号を有する要素の実装に対する一般的な参照を表す。
例示的なシステム
図1は、アニメートされたオブジェクトを含むメッセージングストリームを生成する例示的なシステム100のブロック図を示す。システム100は、メッセージングサーバ101、ユーザ装置115a、115n、第2サーバ120、およびネットワーク105を含む。ユーザ125a、125nは、各々のユーザ装置115a、115nに関連付けられてよい。いくつかの実装では、システム100は、図1に示されない他のサーバまたは装置を含んでよい。図1および残りの図において、例えば「115a」のような参照番号の後の文字は、その特定の参照番号を有する要素に対する参照を表す。本明細書において、例えば「115」のように続きの文字を持たない参照番号は、その参照番号を有する要素の実装に対する一般的な参照を表す。
メッセージングサーバ101は、プロセッサ、メモリ、およびネットワーク通信機能を含んでよい。いくつかの実装では、メッセージングサーバ101は、ハードウェアサーバである。メッセージングサーバ101は、信号線102を介してネットワーク105に通信可能に接続されている。信号線102は、イーサネット(登録商標)、同軸ケーブル、光ファイバーケーブル等の有線接続、またはWi−Fi(登録商標)、Bluetooth(登録商標)、または他の無線技術等の無線接続であってよい。いくつかの実装では、メッセージングサーバ101は、ネットワーク105を介して1つまたは複数のユーザ装置115a、115nおよび第2サーバ120にデータを送信および受信する。メッセージングサーバ101はメッセージングアプリケーション103aおよびデータベース199を含んでよい。
メッセージングアプリケーション103aは、アニメートされたオブジェクトを含むメッセージングストリームを生成するよう動作可能なコードおよびルーチンであってよい。いくつかの実装では、メッセージングアプリケーション103aは、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)を含むハードウェアを使用して実装されてよい。いくつかの実装では、メッセージングアプリケーション103aは、ハードウェアおよびソフトウェアの組み合わせを使用して実装されてよい。
データベース199は、アニメートされたオブジェクト、メッセージングストリーム等を記憶してよい。例えば、データベース199は、第1ユーザと第2ユーザとの間のメッセージを記憶してよい。データベース199はまた、ユーザ125に関連するソーシャルネットワークデータ、ユーザ125についてのユーザ嗜好等を記憶してよい。
ユーザ装置115は、メモリおよびハードウェアプロセッサを含むコンピューティング装置であってよい。例えば、ユーザ装置は、ネットワーク105にアクセスすることが可能なデスクトップコンピュータ、モバイル装置、タブレットコンピュータ、モバイル電話、ウェアラブル装置、ヘッドマウントディスプレイ、モバイルeメール装置、携帯ゲーム装置、携帯音楽プレーヤ、リーダ装置、または別の電子装置を含んでよい。
図示された実装では、ユーザ装置115aは、信号線108を介してネットワーク105に接続されており、ユーザ装置115nは、信号線110を介してネットワーク105に接続されている。信号線108および110は、イーサネット(登録商標)、同軸ケーブル、光ファイバーケーブル等の有線接続、またはWi−Fi(登録商標)、Bluetooth(登録商標)、もしくは他の無線技術等の無線接続であってよい。ユーザ装置115a、115nは、それぞれユーザ125a、125nによってアクセスされる。図1のユーザ装置115a、115nは、例として用いられている。図1は2つのユーザ装置115a、115nを図示しているが、本開示は、1つまたは複数のユーザ装置115を有するシステム構成に適用される。
いくつかの実装では、ユーザ装置115は、ユーザ125によって着用されるウェアラブル装置に含まれるユーザ装置であってよい。例えば、ユーザ装置115は、クリップ(例えばリストバンド)の一部、装身具の一部、または眼鏡の一部として含まれる。別の例では、ユーザ装置115は、スマートウォッチであってよい。ユーザ125は、アニメートされたオブジェクトを、ユーザ125が着用する装置のディスプレイ上のメッセージングアプリケーション103から閲覧することができる。例えば、ユーザ125は、アニメートされたオブジェクトを、スマートウォッチまたはスマートリストバンドのディスプレイ上で閲覧してよい。
いくつかの実装では、メッセージングアプリケーション103bは、ユーザ装置115aに記憶されてよい。メッセージングアプリケーション103は、ユーザ装置115aに記憶されたシンクライアント・メッセージングアプリケーション103b、およびメッセージングサーバ101に記憶されたメッセージングアプリケーション103aを含んでよい。例えば、ユーザ装置115aに記憶されたメッセージングアプリケーション103bは、アニメートされたオブジェクトを含むメッセージングストリームを表示してよい。ユーザ装置115aは、雪だるまを表すアニメートされたオブジェクト上に雪を降らせるためにユーザ装置115aを振る等の、第1ユーザからのユーザアクションを識別してよい。ユーザ装置115aは、メッセージングストリームおよびユーザアクションに関する情報を、メッセージングサーバ101に記憶されたメッセージングアプリケーション103aに送信してよく、メッセージングサーバ101は、デスクトップコンピュータからメッセージングアプリケーション103aにアクセスする第2ユーザに対して、該情報を提供する。
第2サーバ120は、プロセッサ、メモリ、およびネットワーク通信機能を含んでよい。第2サーバ120は、信号線109を介してネットワーク105にアクセスしてよい。第2サーバ120は、メッセージングストリームに関する情報を、メッセージングアプリケーション103から受信し、またメッセージングアプリケーション103に提供してよい。例えば、第2サーバ120は、銀行に関連付けられてよく、また第2サーバ120は、銀行情報を使用して支払いをするために、メッセージングアプリケーション103と通信を行ってよい。ユーザ125は、現金の袋を表すアニメートされたオブジェクトをクリックすることにより、メッセージングアプリケーション103に指示をして、支払いをするよう第2サーバ120を認可してよい。取引が完了すると、第2サーバ120は、メッセージングアプリケーション103に対して、取引が完了した旨の通知を送信してよい。メッセージングアプリケーション103は、アニメートされたオブジェクトを変更して、現金が現金袋から第2サーバ120に関連付けられた銀行に移動する様子を示してよい。別の例では、第2サーバ120は、例えば料理の注文、面会のスケジューリング、予約、航空券の予約等の機能をユーザ125に対して果たすボットを含んでよい。さらに別の例では、第2サーバ120は、例えば、ユーザのミーティングに関する情報をユーザの同意に基づき送信するカレンダーアプリケーション等の、メッセージングアプリケーション103に対して情報を提供する別個のアプリケーションを含んでよい。
図示された実装では、システム100の要素は、ネットワーク105を介して通信可能に接続されている。ネットワーク105は、従来型、有線または無線でよく、また星形構成、トークンリング構成、または他の構成を含む複数の異なる構成を有してよい。さらに、ネットワーク105は、LAN(ローカルエリアネットワーク)、WAN(ワイドエリアネットワーク、例えばインターネット)、および/または他の、複数の装置が通信可能な相互接続されたデータ経路を含んでよい。いくつかの実装では、ネットワーク105は、ピアツーピアネットワークでよい。ネットワーク105はまた、複数の異なる通信プロトコルでデータを送信する遠距離通信ネットワークに接続されるか、該遠距離通信ネットワークの一部を含んでよい。いくつかの実装では、ネットワーク105は、SMS(ショートメッセージングサービス)、MMS(マルチメディアメッセージングサービス)、HTTP(ハイパーテキスト転送プロトコル)、直接データ接続、eメール等を介すことを含むデータを送受信するBluetooth(登録商標)通信ネットワーク、Wi−Fi(登録商標)、またはセルラ通信ネットワークを含む。図1はユーザ装置115およびメッセージングサーバ101に接続された単一のネットワーク105を示しているが、実際には1つまたは複数のネットワーク105がこれらの要素に接続されてよい。
本明細書で検討されるシステムおよび方法がユーザに関する個人情報(例えば、ユーザデータ、ユーザのソーシャルネットワークに関する情報、ユーザの位置、ユーザの生体情報、ユーザの活動および人口統計的情報、メッセージングサーバはビデオを記憶および分析する)を収集または使用し得る状況では、ユーザには、情報が収集されてよいかどうか、個人情報が記憶されてよいかどうか、個人情報が使用されてよいかどうか、ビデオが分析されてよいかどうか、およびユーザに関する情報がどのように収集、記憶、使用されるか、を制御する機会が与えられる。つまり、本明細書で検討されるシステムおよび方法は、ユーザの個人情報を、該当するユーザのからの明示的な認可を受信したときのみ、収集、記憶、および/または使用する。例えば、ユーザには、プログラムまたはフィーチャが、その特定のユーザまたはプログラムもしくはフィーチャに関連する他のユーザに関するユーザ情報を収集してよいかを制御する権限が与えられる。個人情報が収集される各ユーザには、そのユーザに関連した情報収集の制御を可能にする1つまたは複数のオプションが提供され、それにより、情報が収集されてよいかどうか、およびその情報のどの部分が収集されるかに関する許可または認可を与える。例えば、ユーザには、1つまたは複数のそのような制御オプションが、通信ネットワークを通じて提供されてよい。加えて、あるデータは、個人を特定可能な情報が削除されるように、記憶または使用される前に1つまたは複数の方法で扱われてよい。一例として、ユーザの識別情報は、例えば匿名化される等で、扱われてよいため、個人を特定可能な情報はビデオから判定できない。別の例としては、ユーザの地理的位置は、ユーザの特定の位置が判定できないように、より大きな地域に一般化されてよい。
例示的なコンピューティング装置
図2は、合成画像を生成する例示的なコンピューティング装置200のブロック図を示している。コンピューティング装置200は、メッセージングサーバ101またはユーザ装置115であってよい。コンピューティング装置200は、プロセッサ235、メモリ237、通信ユニット239、ディスプレイ241、スピーカ243、センサ245、および記憶装置247を含んでよい。追加的な要素が存在してよく、またはコンピューティング装置200の種類によってはいくつかの上記の要素が省略されてよい。例えば、コンピューティング装置200がメッセージングサーバ101の場合、コンピューティング装置200は、ディスプレイ241、スピーカ243、およびセンサ245を含まなくてよい。メッセージングアプリケーション103は、メモリ237に記憶されてよい。コンピューティング装置200がウェアラブル装置である実装では、コンピューティング装置200は、記憶装置247を含まなくてよい。いくつかの実装では、コンピューティング装置200は、バッテリ等の本明細書に挙げられていない他の要素を含んでよい。コンピューティング装置200の要素は、バス220によって通信可能に接続されてよい。
例示的なコンピューティング装置
図2は、合成画像を生成する例示的なコンピューティング装置200のブロック図を示している。コンピューティング装置200は、メッセージングサーバ101またはユーザ装置115であってよい。コンピューティング装置200は、プロセッサ235、メモリ237、通信ユニット239、ディスプレイ241、スピーカ243、センサ245、および記憶装置247を含んでよい。追加的な要素が存在してよく、またはコンピューティング装置200の種類によってはいくつかの上記の要素が省略されてよい。例えば、コンピューティング装置200がメッセージングサーバ101の場合、コンピューティング装置200は、ディスプレイ241、スピーカ243、およびセンサ245を含まなくてよい。メッセージングアプリケーション103は、メモリ237に記憶されてよい。コンピューティング装置200がウェアラブル装置である実装では、コンピューティング装置200は、記憶装置247を含まなくてよい。いくつかの実装では、コンピューティング装置200は、バッテリ等の本明細書に挙げられていない他の要素を含んでよい。コンピューティング装置200の要素は、バス220によって通信可能に接続されてよい。
プロセッサ235は、演算論理ユニット、マイクロプロセッサ、演算を行いディスプレイ装置に命令を提供する汎用コントローラまたは別のプロセッサアレイを含む。プロセッサ235はデータを処理し、またCISC(複合命令セットコンピュータ)アーキテクチャ、RISC(縮小命令セットコンピュータ)アーキテクチャ、または命令セットの組み合わせを実装するアーキテクチャを含む様々なコンピューティングアーキテクチャを含んでよい。図2は単一のプロセッサ235を含むが、複数のプロセッサ235が含まれてよい。他のプロセッサ、オペレーティングシステム、センサ、ディスプレイ、および物理的な構成はコンピューティング装置200の一部であってよい。プロセッサ235は、他の要素と通信をするバス220に信号線222を介して接続されている。
メモリ237は、プロセッサ235および/またはデータによって実行され得る命令を記憶する。命令は、本明細書に記載される技術を実行するコードを含んでよい。メモリ237は、DRAM(ダイナミックランダムアクセスメモリ)装置、スタティックRAM,または別のメモリ装置であってよい。いくつかの実装では、メモリ237はまた、SRAM装置またはフラッシュメモリ等の不揮発性メモリ、または同様の、ハードディスクドライブ、CD−ROM(コンパクトディスクリードオンリーメモリ)装置、DVD−ROM装置、DVD−RAM装置、DVD−RW装置、フラッシュメモリ装置を含む永久記憶装置および媒体、またはより永続的に情報を記憶する別の大容量記憶装置を含む。メモリ237は、以下により詳細に記載されるメッセージングアプリケーション103を実行するよう動作可能なコードおよびルーチンを含む。メモリ237は、他の要素と通信をするバス220に信号線224を介して接続されている。
通信ユニット239は、メッセージングアプリケーション103が記憶され得る場所に応じて、ユーザ装置115およびメッセージングサーバ101のうちの1つ以上とデータを送受信する。いくつかの実装では、通信ユニット239は、ネットワーク105または別の通信チャンネルへの直接的な物理接続用のポートを含む。例えば、通信ユニット239は、USB(ユニバーサルシリアルバス)、SD(セキュアデジタル)、CAT−5(カテゴリー5ケーブル)、または、メッセージングアプリケーション103が記憶され得る場所に応じて、ユーザ装置115またはメッセージングサーバ101との有線通信用の同様のポートを含む。いくつかの実装では、通信ユニット239は、IEEE802.11、IEEE802.16、Bluetooth(登録商標)、または別の適切な無線通信方法を含む1つまたは複数の無線通信方法を使用して、ユーザ装置115、メッセージングサーバ101、または他の通信チャンネルとデータを交換する無線送受信機を含む。通信ユニット239は、他の要素と通信をするバス220に信号線226を介して接続されている。
いくつかの実装では、通信ユニット239は、SMS(ショートメッセージングサービス)、MMS(マルチメディアメッセージングサービス)、HTTP(ハイパーテキスト転送プロトコル)、直接データ接続、eメール、または別の適切な種類の電子通信を介すことを含むセルラ通信ネットワークを通じてデータを送受信するセルラ通信送受信機を含む。いくつかの実装では、通信ユニット239は、有線ポートおよび無線送受信機を含む。通信ユニット239はまた、UDP(ユーザデータグラムプロトコル)、TCP/IP、HTTP、HTTPS(HTTPセキュア)、SMTP(簡易メール転送プロトコル)、SPDY、QUIC(quick UDP internet connections)等を含むがこれらに限定されない標準ネットワークプロトコルを使用する、ファイルおよび/またはメディアオブジェクトを配信するためのネットワーク105に対する他の従来の接続を提供する。
ディスプレイ241は、メッセージングアプリケーション103から受信したグラフィカルデータを表示するよう動作可能なハードウェアを含んでよい。例えば、ディスプレイ241は、オーバーレイおよび結果の合成画像を表示するグラフィックスを描画してよい。ディスプレイ241は、他の要素と通信をするバス220に信号線228を介して接続される。
スピーカ243は、音を出すよう動作可能なハードウェアを含んでよい。例えば、ユーザがアクションを実行することに応じて、アクションモジュール206は、スピーカ243に指示をして音を出させてよい。スピーカは、他の要素と通信をするバス220に信号線230を介して接続される。
センサ245は、ユーザ装置115の変化を検出するよう動作可能なハードウェアを含んでよい。例えば、センサ245は、コンピューティング装置200の動きを測定するモーションセンサを含んでよい。例えば、センサ245は、x、y、およびz軸に沿って加速力および回転力を検出する加速度計およびジャイロスコープを含んでよい。センサ245はまた、ユーザ装置115の物理的な位置を測定する方位センサおよび磁力計等の位置検出器を含んでよい。センサ245はまた、ユーザがコンピューティング装置200に息を吹きかけた場合に気流の変化を検出するマイク等の、音および/または圧力の変化を検出するハードウェアを含んでよい。センサ245は、他の要素と通信をするバス220に信号線232を介して接続される。センサ245は、コンピューティング装置200のタッチスクリーン上の接触を検出してよい。例えば、センサ245は、タッチスクリーンをタッチしているユーザの指およびユーザの指の動きを検出してよい。
記憶装置247は、本明細書に記載される機能を提供するデータを記憶する非一時的なコンピュータ可読記憶媒体でよい。コンピューティング装置200がメッセージングサーバ101である実装では、記憶装置247は、図1のデータベース199を含んでよい。記憶装置247は、DRAM装置、SRAM装置、フラッシュメモリ、または別のメモリ装置であってよい。いくつかの実装では、記憶装置247はまた、不揮発性メモリ、または同様の、ハードディスクドライブ、CD−ROM装置、DVD−ROM装置、DVD−RAM装置、DVD−RW装置、フラッシュメモリ装置を含む永久記憶装置および媒体、または永続的に情報を記憶する別の大容量記憶装置を含む。記憶装置247は、他の要素と通信をするバス220に信号線234を介して接続される。
メッセージングアプリケーション103は、メッセージングモジュール202、アニメーションモジュール204、アクションモジュール206、およびユーザインタフェースモジュール208を含んでよい。
メッセージングモジュール202は、メッセージングストリームを生成する。いくつかの実装では、メッセージングモジュール202は、メッセージングストリームを生成するためにプロセッサ235によって実行可能な命令のセットを含む。いくつかの実装では、メッセージングモジュール202は、コンピューティング装置200のメモリ237に記憶されており、プロセッサ235によってアクセス可能かつ実行可能であってよい。
いくつかの実装では、メッセージングモジュール202は、データをユーザ装置115、メッセージングサーバ101、および/または第2サーバ120に送信することによって、例えばユーザおよびチャットボットから送受信されたデータを含むメッセージングストリームを生成する。メッセージングストリームは、1つまたは複数のメッセージを含んでよく、該メッセージは、送信者、受信者、ならびにテキスト、アニメートされたオブジェクト、画像、ビデオ、およびメッセージメタデータを含むメッセージ内容等の一定の特性を有する。メッセージメタデータは、タイムスタンプ、発信装置の識別子、有効期限、保持期間、適用される様々なフォーマットおよびエフェクト等を含んでよい。いくつかの実装では、メッセージングストリームは、適用された様々なフォーマットおよびエフェクトを有するユーザインタフェース内に時系列順で表示されるメッセージを含む表示されたメッセージングストリーム含む。
メッセージングストリームは、例えば、インスタントメッセージングアプリケーション、SMS(ショートメッセージサービス)、eメールアプリケーション、EMS(拡張メッセージサービス)、MMS(マルチメディアメッセージサービス)、プッシュメッセージング(例えばHDML、WAPプッシュ等)、アプリケーション対アプリケーションのメッセージング等の一部の、異なるメッセージングプラットフォームの一部として使用されてよい。メッセージは限定された期間だけ利用可能、期間を定めず保管される等であってよい。メッセージは暗号化されてよい。いくつかの実装では、メッセージングモジュール202は、アニメートされたオブジェクトから独立しかつアニメートされたオブジェクトにアクセスできないメッセージを生成する。いくつかの実装では、メッセージは、アニメートされたオブジェクトに利用可能であり、例えばアニメートされたオブジェクトがメッセージ中の内容に反応するために現れる場合など、アニメートされたオブジェクトの表示を変更するために使用される。
いくつかの実装では、メッセージングモジュール202は、ユーザインタフェースモジュール208に指示し、メッセージングストリームを含むユーザインタフェースを生成させる。ユーザインタフェースは、テキスト、ビデオ、画像、絵文字等を入力するためのフィールドを含んでよい。メッセージングモジュール202は、ユーザ間のメッセージを受信してユーザインタフェースモジュール208に指示し、メッセージングストリームにおいてメッセージを表示させる。例えば、ユーザ125aは、ユーザインタフェースを介して「おいカール!」というテキストを入力する。ユーザ装置115aのメッセージングモジュール202は、このメッセージをユーザ125nに送信し、メッセージはユーザ装置115n上に表示される。いくつかの実装では、メッセージは、ユーザ装置115aからメッセージングサーバ101に送信され、メッセージングサーバ101はそのメッセージをユーザ装置115nに送信する。
アニメーションモジュール204は、アニメートされたオブジェクトを生成する。いくつかの実装では、アニメーションモジュール204は、アニメートされたオブジェクトを生成するためにプロセッサ235によって実行可能な命令のセットを含む。いくつかの実装では、アニメーションモジュール204は、コンピューティング装置200のメモリ237に記憶されており、プロセッサ235によってアクセス可能かつ実行可能であってよい。
いくつかの実装では、アニメーションモジュール204は、アニメートされたオブジェクトのグループを生成する。アニメートされたオブジェクトは、カートゥーン、人(有名人、アバター、一般人等)、動物(例えば熊)、無生物オブジェクト(例えばクッキー)のカリカチュア、抽象的な動くオブジェクト(例えば目と口を有する渦巻き模様)等を含んでよい。
アニメーションモジュール204は、ユーザインタフェースモジュール208に指示し、アニメートされたグループをユーザインタフェースにおいて提供させてよい。アニメーションモジュール204は、アニメートされたオブジェクトのグループを種類によって編成して、ユーザインタフェースモジュール208に指示し、ユーザがアニメートされたオブジェクトを選択し得る、編成済みのアニメートされたオブジェクトのグループを表示させてよい。
いくつかの実装では、アニメーションモジュール204は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトをカスタマイズするオプションを表示させてよい。例えば、ユーザインタフェースは、アニメートされたオブジェクトの色または大きさを選択するオプションを含んでよい。いくつかの実装では、アニメートされたオブジェクトをカスタマイズするオプションは、アニメートされたオブジェクトの種類に特有であってよい。例えば、ユーザインタフェースは、目を有するアニメートされたオブジェクトの目の色を選択するオプションを含んでよい。いくつかの実装では、ユーザインタフェースは、情報の量および/またはアニメートされたオブジェクトに利用可能なアクションを制限するオプションを含んでよい。例えば、ユーザインタフェースは、頷きまたは発声等のある動作を無効にするオプションを含んでよい。別の例では、ユーザインタフェースは、ユーザがコンピューティング装置200を振る等の明示的なユーザ入力に応じるアニメーションを維持する一方、プライバシーに関する懸念に基づき、メッセージ中の単語に基づき反応するコンテキストベースのアニメーションを無効にする等のある種のアクションを無効にするオプションを含んでよい。
いくつかの実装では、アニメーションモジュール204は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトの選択に使用されるコンピューティング装置200の種類によって異なる、アニメートされたオブジェクトのグループを提供させてよい。例えば、コンピューティング装置200がスマートウォッチの場合、グループは、スマートウォッチ上の表示に適切であり得るアニメートされたオブジェクトの一部を含んでよい。いくつかの実装では、アニメートされたオブジェクトのグループは、異なる装置に使用される異なるバージョンを含んでよい。アニメートされたオブジェクトは、デスクトップコンピュータ用の複雑なバージョン、モバイル装置用の簡易バージョン、およびスマートウォッチ用のより簡易なバージョンを含んでよい。例えば、デスクトップ上のアニメートされたオブジェクトは、背景シーンを有する人のカートゥーンを含んでよく、モバイル装置上のアニメートされたオブジェクトは、人のカートゥーンを含んでよく、およびスマートウォッチ上のアニメートされたオブジェクトは、人の顔のカートゥーンを含んでよい。
いくつかの実装では、アニメーションモジュール204は、コンピューティング装置200に指示し、コンピューティング装置200の種類に基づき、アニメートされたオブジェクトの異なる属性を提供させてよい。例えば、単一のアニメートされたオブジェクトに関して、アニメーションモジュール204は、スマートウォッチに対応するコンピューティング装置200に指示し、バイブレーションおよび/または音を提供させてよく、モバイル装置に対応するコンピューティング装置200に指示し、視覚表示を提供させてよく、およびバーチャルリアリティゴーグルに対応するコンピューティング装置200に指示し、三次元描画のユーザインタフェースを提供させてよい。三次元描画は、アニメートされたオブジェクトを異なる深度でユーザインタフェースに配置することを含んでよい。
アニメーションモジュール204は、アニメートされたオブジェクトの選択をユーザから受信する。アニメーションモジュール204は、アニメートされたオブジェクトを生成し、ユーザインタフェースモジュール208に指示し、そのアニメートされたオブジェクトをメッセージングストリームにおいて表示させる。ユーザインタフェースモジュール208は、アニメートされたオブジェクトをメッセージングストリームの異なる部分に表示してよい。例えば、ユーザインタフェースモジュール208は、アニメートされたオブジェクトをユーザインタフェースの上部、ユーザインタフェースの下部、またはユーザインタフェースの中間に表示してよい。別の例では、アニメートされたオブジェクトがメッセージングストリームの部分に固定されたままで、ユーザインタフェースモジュール208は、1つまたは複数のメッセージをメッセージングストリーム内に表示してよい。さらに別の例では、アニメートされたオブジェクトが選択される前に提供されたコンテンツの後かつアニメートされたオブジェクトが選択された後に提供されたコンテンツの前に、アニメートされたオブジェクトが位置付けられるように、ユーザインタフェースモジュール208は、アニメートされたオブジェクトを、第1ユーザがアニメートされたオブジェクトを選択した時間に従って表示してよい。さらに別の例では、ユーザインタフェースモジュール208は、アニメートされたオブジェクトをランダムな位置に表示してよい。ユーザインタフェースモジュール208はまた、アニメートされたオブジェクトの位置を、以下に詳細に記載されるようにユーザによって行われたアクションに基づき変更してよい。
ユーザインタフェースモジュール208は、アニメートされたオブジェクトを、同一のメッセージングストリームを閲覧している各人用のユーザインタフェース内に表示する。例えば、メッセージングストリームは、自身のためにノートを取る単一のユーザに閲覧されてよく、メッセージングストリームは、第1ユーザおよび第2ユーザに閲覧されてよく、またはメッセージングストリームは、ユーザのグループに閲覧されてもよい。いくつかの実装では、ユーザインタフェースモジュール208は、異なるユーザに関連付けられた特性に基づき、アニメートされたオブジェクトを異なる位置に配置する。例えば、第1ユーザは、第1ユーザがアニメートされたオブジェクトをスクリーンの右下で見たいと希望するユーザ入力を提供してよい。別の例では、アニメートされたオブジェクトは、アニメートされたオブジェクトと対話をするグループのユーザに対しては、メッセージングストリームの中心に位置付けられてよく、およびアニメートされたオブジェクトと対話をしてこなかったユーザに対しては、メッセージングストリームの左上に位置付けられてよい。いくつかの実装では、メッセージングストリームにおけるアニメートされたオブジェクトの位置、および/またはアニメートされたオブジェクトが表示されていた時間、および/またはアニメートされたオブジェクトに関連付けられたユーザアクションが行われてからどのくらいの期間かによって、アニメートされたオブジェクトは異なって表示される。
いくつかの実装では、アニメートされたオブジェクトは、各ユーザに関連付けられたメタデータに基づき、同一のメッセージングストリームを閲覧している複数のユーザに対して異なって見えてよい。メタデータは、ユーザ装置に関連付けられた時刻、ユーザ装置に関連付けられた位置、ユーザ装置に関連付けられた時間帯、ユーザに関連付けられたユーザ嗜好等を含んでよい。アニメーションモジュール204は、センサ245から情報を取得して、メタデータからの情報を判定してよい。例えば、アニメーションモジュール204は、ユーザがアニメーションモジュール204によるそのような判定に同意(contented)している場合、GPS(全地球測位システム)情報を提供するセンサ245に基づき、ユーザの位置を判定してよい。アニメーションモジュール204は、アニメートされたオブジェクトをメタデータに基づき変更してよい。例えば、アニメートされたオブジェクトが人物のアニメーションであって、ユーザが温暖な天気の地域に位置している場合、その人物は半ズボンをはいてよく、ユーザが寒い天気の地域に位置している場合、その人物は上着を着てよい。アニメーションモジュール204は、ユーザの時刻に基づき人物のアニメーションを異なる服装または異なる動作と共に表示してよい。例えば、アニメーションモジュール204は、パジャマ姿の人物のアニメーションを表示してよく、ユーザの時刻が夜の場合、アニメーションは眠りについてよい。いくつかの実装では、ユーザの同意を得て、アニメーションモジュール204は、アニメートされたオブジェクトをユーザデータに基づき変更してよい。例えば、アニメーションモジュール204は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトを、ユーザがコンピューティング装置200にアラームを設定した場合に鳴るアラームと共に表示させてよい。アニメートされたオブジェクトは、ユーザがコンピューティング装置200に設定したタイマに関連付けられたカウントダウンを表示してよい。アニメートされたオブジェクトは、第2サーバ120に関連付けられた情報に基づくカレンダー入力に基づき、今後のカレンダーイベントを表示してよい。
いくつかの実装では、アニメーションモジュール204は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトのセットを、第1のアニメートされたオブジェクトとの関係に基づき第2ユーザに対して提供させる。例えば、第1のアニメートされたオブジェクトが「もうすぐ帰るよ」等のメッセージを伝える場合、アニメートされたオブジェクトのセットは、メッセージに対する応答を含んでよい。ユーザインタフェースモジュール208は、第1のアニメートされたオブジェクトを、第2のアニメートされたオブジェクトに置き換えてよく、または第2のアニメートされたオブジェクトは、第1のアニメートされたオブジェクトと同一のメッセージングストリームに表示されてよい。いくつかの実装では、第1のアニメートされたオブジェクトおよび第2のアニメートされたオブジェクトは、互いに対話してよい。
アクションモジュール206は、アニメートされたオブジェクトをユーザアクションに基づき変更する。いくつかの実装では、アクションモジュール206は、アニメートされたオブジェクトを変更するためにプロセッサ235によって実行可能な命令のセットを含む。例えば、アクションモジュール206は、アニメートされたオブジェクトを、ユーザアクションに反応するようプログラムしてよい(例えば、アニメートされたオブジェクトは、記憶されたコードまたは記録済みのアニメーションを含んでよい)。いくつかの実装では、アクションモジュール206は、コンピューティング装置200のメモリ237に記憶されており、プロセッサ235によってアクセス可能かつ実行可能であってよい。
アクションモジュール206は、アニメートされたオブジェクトに関連する第1ユーザから、第1アクションを受信する。アクションモジュール206は、行われたアクションの種類を判定し、またユーザインタフェースモジュール208に指示をして、アニメートされたオブジェクトの表示をアクションに基づき変更させる。例えば、第1ユーザがアニメートされたオブジェクトをタップした場合、アクションモジュール206は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトから出現するハートを表示させる。いくつかの実装では、同一のメッセージングストリームを閲覧するユーザは、アニメートされたオブジェクトから出現するハートを見る。アクションモジュール206は、アニメートされたオブジェクトに関連する第2ユーザから、第2アクションを受信する。例えば、第2ユーザは、スワイプ動作を行い、アクションモジュール206は該動作を検出する。アクションモジュール206は、ユーザインタフェースモジュール208に指示し、第2アクションに基づき表示を変更させる。上記の例に続いて、アクションモジュール206は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトを、アニメートされたオブジェクトの口でハートを捉えるものとして表示させる。以下の図3A乃至3Jは、アクションモジュール206にアクションを判定させ、およびユーザインタフェースモジュール208にアニメートされたオブジェクトの表示をアクションに基づき変更させる異なるユーザアクションの例を提示する。
アクションは、タップ、スワイプ、音の発生、圧力の変更、ポインティングデバイス(例えば矢印を動かすマウス)の移動、コンピューティング装置200の移動、画像のキャプチャ、コンテクストを有するメッセージの提供、メッセージ中に単語を有するメッセージの提供、音声コンテンツの提供、ユーザインタフェースによって提供されたオプションの選択、別のアニメートされたオブジェクトの選択等を含んでよい。
図3Aを参照すると、例示的なユーザインタフェース300は、いくつかの実装による、アニメートされたクッキーを含むメッセージングストリームとして図示される。この例では、メッセージングストリームは、メッセージングストリームに参加しているユーザのリスト301を含んでよい。第1ユーザは、メッセージングストリームにおける第1ユーザアイコン302に関連付けられてよい。第1ユーザは、アニメートされたクッキー303を、アニメートされたオブジェクトとして選択してよい。ユーザインタフェースモジュール208は、アニメートされたクッキー303を吹き出し304内に表示してよい。
図3Bは、いくつかの実装による、第1ユーザによって制御されたポインティングデバイスによって制御されたカーソル311を追う目を持つ、アニメートされたクッキー303を含むメッセージングストリームの例示的なユーザインタフェース310を図示する。この例では、ユーザインタフェースモジュール208は、カーソル311を円で図示するが、例えば矢印、長方形等、他の変形例が可能である。アクションモジュール206は、ユーザインタフェースにおいてアニメートされたクッキー303の位置の上方でポインティングデバイスが移動したことを判定する。このことは、図3Bではアニメートされたクッキー303の上方のカーソル311で図示されている。アクションモジュール206は、ユーザインタフェースモジュール208に指示し、アニメートされたクッキー303の表示を変更させる。例えば、アニメートされたクッキー303は、カーソル311がアニメートされたクッキー303の上方を移動するのに従って、動いてカーソル311の移動に追随するアニメートされた目を表示するよう更新される。
アニメートされたクッキー303は、カーソル311と同じ移動速度でカーソル311の位置を追ってよい。例えば、カーソル311が素早く上下に移動する場合、アニメートされたクッキー303は、カーソル311と同様に素早く見上げ、見下ろすアニメートされた目を含んでよい。いくつかの実装では、カーソル311を特定の速度で移動させることにより、アニメートされたオブジェクトを反応させることが可能である。この例では、カーソル311をアニメートされたクッキー303の周りで複数回移動させることにより、アニメートされたクッキー303を、例えば、アニメートされたクッキー303の周囲に漂う星を描画することによって、目が回ったように見せてよい。
図3Cは、いくつかの実装による、複数のユーザに閲覧可能なアニメートされたクッキー303を含むメッセージングストリームの例示的なユーザインタフェース320を図示する。この例では、第2ユーザは、メッセージングストリームにおける第2ユーザアイコン321に関連付けられている。アニメートされたクッキー303は吹き出し304の一部のため、同じ位置に留まる。
図3Dは、いくつかの実装による、第2ユーザによって制御されたポインティングデバイス331を追う目を持つ、アニメートされたクッキー303を含むメッセージングストリームの例示的なユーザインタフェース330を図示する。この例では、アクションモジュール206は、カーソル311の位置を判定し、ユーザインタフェースモジュール208は、アニメートされたクッキー303の表示を、カーソル311が位置している左上を見るよう変更する。
第2ユーザは、アニメートされたクッキー移動するため、カーソル311をアニメートされたクッキー303に移動する。この例では、ユーザインタフェースモジュール208はまた、第2ユーザがアニメートされたクッキー303を移動していることをユーザに対して通知するための説明テキストを、第2ユーザアイコン321の下方に含む。
図3Eは、いくつかの実装による、移動されることに反応するアニメートされたクッキー303を含むメッセージングストリームの例示的なユーザインタフェース340を図示する。この例では、第2ユーザがアニメートされたクッキー303を移動するのに従って、ユーザインタフェースモジュール208は、アニメートされたクッキー303を、くしゃっとした目とすぼんだ笑みを浮かべた口を持つよう変更することによって、あたかもカーソル311がアニメートされたクッキー303をくすぐっているように見えるよう、アニメートされたクッキー303の表示を変更する。第2ユーザは、アニメートされたクッキー303を、第1ユーザに関連付けられた吹き出しの外に移動させたため、ユーザインタフェースモジュール208は、アニメートされたクッキー303をアクティブステッカーとして呼び出すことで、第1ユーザに関連付けられ、第1ユーザがアニメートされたクッキーを作成したことを示す第3アイコン341を作成する。第2ユーザは、アニメートされたクッキー303をメッセージングストリーム内のどこにでも移動させてよい。いくつかの実装では、アニメートされたクッキーは、ユーザが配置するどの場所であっても固定のまま留まる。
図3Fは、いくつかの実装による、配置されることに反応するアニメートされたクッキー303を含むメッセージングストリームの例示的なユーザインタフェース350を図示する。ユーザインタフェースモジュール208は、アニメートされたクッキー303を、あたかもポインティングデバイスによってくすぐられているように笑い続けているものとして表示する。ユーザインタフェースモジュール208はまた、第2ユーザアイコン321の下方のテキストを変更し、第2ユーザがアニメートされたクッキー303を配置したことを他のユーザに対して通知する。
図3Gは、いくつかの実装による、メッセージングストリーム内に表示されたテキストを閲覧するように動く目を持つ、アニメートされたクッキー303を含むメッセージングストリームの例示的なユーザインタフェース360を図示する。アクションモジュール206は、第1ユーザがメッセージングストリーム内にテキストを入力したことを判定する。ユーザインタフェースモジュール208は、アニメートされたクッキー303を、あたかもアニメートされたクッキー303がテキストを読んでいるかのように下方を見るために目を動かすよう変更する。いくつかの実装では、アニメートされたクッキー303は、テキストの内容にアクセスしなくてよいが、代わりに単にテキストの外観に反応する。いくつかの実装では、アニメートされたクッキー303は、ユーザの同意に基づきテキストへのアクセスを有する。このフィーチャは、例えば、ユーザがアクションモジュール206に許可を与えず、ユーザによるテキスト入力またはメッセージの受信を検出させない場合に無効にされてよい。
図3Hは、いくつかの実装による、メッセージングストリーム内の固定位置に留まる、アニメートされたクッキー303を含むメッセージングストリームの例示的なユーザインタフェース370を図示する。より多くのメッセージがメッセージングストリーム内に追加されるに従って、メッセージは上方にスクロールする。アニメートされたクッキー303は固定位置に配置されているため、アニメートされたクッキー303はメッセージングストリームの中心部内に留まる。
図3Iは、いくつかの実装による、メッセージングストリームに参加しているユーザが、メッセージングストリームにおいて交換されるメッセージにアクセスすることに関して同意を与える場合に、メッセージ381中の単語に反応するアニメートされたクッキー303を含むメッセージングストリームの例示的なユーザインタフェース380を図示する。この例では、第1ユーザは、「ああ!もう行かなきゃ。。。後でチャットしよう」と述べるメッセージを投稿する。メッセージへのアクセスに関するユーザの同意に基づき、アクションモジュール206は、「もう行かなきゃ。。。後でチャットしよう」という言葉が、第1ユーザがチャットを終了しようとしていることを示していると判定する。アクションモジュール206は、機械学習を使用すること、メッセージ中の単語を互いに異なるコンテクストに関連付けられた単語のリストと比較すること等により、アニメートされたクッキー303の反応をメッセージ381に基づき決定してよい。例えば、そのような決定は、1つまたは複数の単語を、例えば事前のトレーニングデータ、以前のメッセージの蓄積等に基づき、チャットの終了に関連していると知られる単語と比較することによりなされてよい。ユーザインタフェースモジュール208は、第1ユーザのメッセージに基づき眠り始めるよう(例えば下がった目を描画することにより)、アニメートされたクッキー303の表示を変更する。
図3Jは、いくつかの実装による、メッセージ内の単語に反応し続けるアニメートされたクッキー303を含むメッセージングストリームの例示的なユーザインタフェース390を図示する。アクションモジュール206は、メッセージングストリームにおけるメッセージにアクセスすることに関する同意が第2ユーザによって与えられている場合に、第2ユーザに関連付けられた「分かった!じゃあね」と述べる言葉に基づき、第2ユーザもまたメッセージングストリームを去ろうとしていると判定する。単語の意味を判定するアクションモジュール206に基づき、ユーザインタフェースモジュール208は、眠りにつくよう(例えば「zzz」と言うアニメートされたクッキー303を表示することにより)、アニメートされたクッキー303の表示を変更する。
いくつかの実装では、ユーザからのアクションは、ユーザがコンピューティング装置200に息を吹きかけることを含む。例えば、ユーザはモバイル装置に息を吹きかける、またはヘッドセットを装着中に息を吹いてよい。センサ245は、気流の変化を検出して気流の変化に関する情報をアクションモジュール206に送るマイクを含んでよい。アクションモジュール206は、気流の変化の度合いを判定してよい。アクションモジュール206は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトを気流の変化の度合いに基づき移動させる。例えば、アニメートされたオブジェクトがティッシュの箱であってよく、コンピューティング装置200に息を吹きかけることにより、ティッシュをティッシュの箱から出てこさせる。ユーザがコンピューティング装置200に軽く息を吹きかけた場合、ティッシュの箱のティッシュのうちの少数を箱から出させる。ユーザがコンピューティング装置200に強く息を吹きかけた場合、ティッシュの箱のティッシュのうちのいくつかを箱から出させる。別の例では、アニメートされたオブジェクトはカートゥーン狐等のキャラクタであり、コンピューティング装置200に息を吹きかけることにより、狐にメッセージングストリームのウィンドウの側面にしがみつき、持ちこたえさせる。さらに別の例では、アニメートされたオブジェクトは泡であり、コンピューティング装置200に息を吹きかけることにより、第1ユーザがコンピューティング装置200に息を吹きかける程度に応じて、泡に大きさを増加させる。
いくつかの実装では、ユーザからのアクションは、コンピューティング装置200を移動することを含む。アクションモジュール206は、センサ245(例えば加速度計またはジャイロスコープ)からの情報を受信し、移動の度合いを判定してよい。アクションモジュール206は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトを追加的な変化と共に描画させてよい。例えば、ユーザがユーザのスマートウォッチまたは他のモバイル装置を振ることにより、アクションモジュール206にユーザインタフェースモジュール208を指示させ、空から雪が降る、ナットとボルトが緩む、キャラクタの髪が乱れる、キャラクタがユーザに向かって握りこぶしを作る等、アイテムが動くよう描画させる。別の例では、ユーザがコンピューティング装置200をユーザの耳元に移動させた場合、アクションモジュール206は、ユーザがコンピューティング装置200をユーザの耳元に移動させたことを示すセンサ245からの情報を受信して、スピーカ243に音を出させるよう指示してよい。いくつかの例では、アニメートされたオブジェクトは、ユーザがコンピューティング装置200をユーザの左耳に移動した場合の甲高い鳴き声、ユーザがコンピューティング装置200をユーザの右耳に移動した場合の吠える声等、どのようにコンピューティング装置200が移動したかによって、異なる音を出す。
図4Aを参照すると、いくつかの実装による、アニメートされた熊405を含むメッセージングストリームのユーザインタフェース400が図示される。第1ユーザはアニメートされた熊405を選択し、アニメートされた熊405をメッセージ下方のメッセージングストリームの中心部に配置してよい。ユーザの同意に基づき、アクションモジュール206は、「あのピクニックの場所には熊がいるかもね」と述べるメッセージをスティーブが投稿したことを識別してよい。アクションモジュール206は、ユーザインタフェースモジュール208に指示し、アニメートされた熊405の目を、アニメートされた熊405がテキストを読んでいる様子を与えるために前後に動くようアニメートすることによって、熊の表示を変更させてよい。
図4Bは、いくつかの実装による、ユーザがユーザアクションを行った後の、アニメートされた熊430を含むメッセージングストリームの例示的なユーザインタフェース425を図示する。例えば、第2ユーザはユーザ装置115の上下を逆さにしてよい。アクションモジュール206は、センサ245からの情報を受信し、ユーザ装置115の移動の角度が180度であることを判定する。アクションモジュール206は、ユーザインタフェースモジュール208に指示し、アニメートされた熊430を上下が逆になったものとして示すようアニメートされた熊430の表示を変更させる。
別の例では、ユーザの同意に基づき、アクションモジュール206は、カレンがスティーブに「戦って追い払うぞ!」と応答したことを識別してよい。アクションモジュール206は、戦いはアニメートされた熊430に関連付けられた指示であると判定し、ユーザインタフェースモジュール206に指示し、初めのうちは戦うがその後に上下逆さにひっくり返るアニメートされた熊430を示すようアニメートされた熊430の表示を変更させる。
いくつかの実装では、ユーザからのアクションは、メッセージングストリーム内の移動を含む。移動は、ユーザがモバイル装置のタッチスクリーンにタッチすること、またはマウス等のポインティングデバイスの移動であってよい。アニメートされたオブジェクトは、目を持つキャラクタ(例えばスマイリーフェイス)であってよい。アクションモジュール206は、センサ245(例えばタッチスクリーン)から移動に関する情報を受信し、移動の方向を判定してよい。アクションモジュール206は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトの目を第1ユーザからの移動の方向に対応するように動かす。別の例では、移動はアニメートされたオブジェクトを引き伸ばしてよい。
図5Aを参照すると、いくつかの実装による、アニメートされた泡を含むメッセージングストリームの例示的なユーザインタフェース500が図示される。第1ユーザは、コンピューティング装置200に関連付けられたポインティングデバイスを使用し、第1の矢502を第1方向に引く。第2ユーザは、別のコンピューティング装置200に関連付けられたポインティングデバイスを使用し、第2の矢503を第2方向に引く。第1の矢502および第2の矢503の両方が、泡501を異なる方向に引く。アクションモジュール206は、第1アクションおよび第2アクションを、綱引きにおいて反対方向に引くことにより泡501を引くものとして識別する。
図5Bは、いくつかの実装による、2人のユーザがユーザアクションを行った後の、アニメートされた泡を含むメッセージングストリームの例示的なユーザインタフェース525を図示する。アクションモジュール206は、各ユーザが第1の矢502および第2の矢503を用いてどのくらい泡を引くかを判定する。いくつかの実装では、アクションモジュール206は、アニメーションルールを適用し、第1ユーザまたは第2ユーザがユーザインタフェースにおいて最初に泡を閾値画素数だけ引いたかを判定することによって、綱引きの勝者を判定する。どちらのユーザが泡を境界の外に閾値画素距離だけ引き伸ばしたかを判定すること等、他の方法により勝者を判定することも可能である。
いくつかの実装では、メッセージングストリームにおける参加ユーザがメッセージのこのような使用に同意した場合に、アクションモジュール206は、メッセージ中の単語またはメッセージングストリームのコンテクストを識別する。アクションモジュール206は、メッセージ中の単語を、異なる感情(例えば、嬉しい、悲しい、腹立たしい等)、異なる状態(例えば、チャットを終了しようとしている)等の異なる意味に関連付けられた単語のリストと比較してよい。アクションモジュール206は、ユーザに関連付けられた意味をメッセージに基づき予測するために、機械学習を使用してよく、該機械学習は、アクションモジュール206に利用可能な全てのメッセージ、またはユーザの同意を条件に、特定のユーザに関連付けられたメッセージに基づいてよい。メッセージングストリームのコンテクストは、ユーザパターン、時刻、コンピューティング装置200の位置等に基づいてよく、またこのようなデータへのアクセスに関する特定のユーザの同意に基づく場合のみ、判定される。例えば、ユーザが通常は平日の終わりにメッセージングストリームを終了する場合である。その結果、アクションモジュール206は、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトの表示をコンテクストに基づき変更させてよい。
いくつかの実装では、アクションモジュール206は、ユーザの同意に応じて、ユーザからの音声コンテンツを識別してよい。アクションモジュール206は、音声をテキストに変換して、音声コンテンツのインデントを識別してよい。例えば、アクションモジュール206は、抽象的なアニメートされたオブジェクトに対する「飛び回れ」を含む口頭での指示を与えるユーザを識別してよい。口頭のコンテンツに基づき、アクションモジュール206はユーザインタフェースに指示し、上下に動くように示すよう、抽象的なアニメートされたオブジェクトの表示を変更させる。
いくつかの実装では、第1ユーザは、ユーザにサービスを提供するチャットボット(例えば自動化されたチャットプログラム)でよい。アニメートされたオブジェクトは、チャットボットとユーザとの間で交換される1つまたは複数のメッセージに関連してよい。例えば、ユーザは、メッセージを入力することでチャットボットに指示し、予約、購入等をさせてよい。アクションモジュール206は、ユーザの同意に基づき、ユーザインタフェースモジュール208に指示し、アニメートされたオブジェクトをメッセージに基づき変更させてよい。例えば、ユーザがチャットボットに指示をして予約をさせる場合、アニメートされたオブジェクトは、予約をすることに関連付けられたグラフィックスを含む。
図6を参照すると、いくつかの実装による、アニメートされた送金オブジェクト601を含むメッセージングストリームの例示的なユーザインタフェース600が図示される。この例では、ユーザであるサラは、クレジットカード請求書の支払いをするようバンクボットに指示をすることで、彼女のためにアクションを行うチャットボットの使用に同意する。ユーザは、「@バンクボット 私のクレジットカード請求書の支払いをして」と述べるメッセージ602を投稿する。バンクボットは、「確認。支払いを計上。」と述べるメッセージ603で応答をする。アクションモジュール206がユーザのメッセージにアクセスすることに関するユーザの同意に基づき、アクションモジュール206は、ユーザの口座からクレジットカード会社に送金するようユーザがチャットボットに指示をしたことを判定する。アクションモジュール206は、ユーザインタフェースモジュール208に指示し、現金が現金袋からクレジットカードに移動する様子を示すアニメートされた送金オブジェクト601を表示させる。
いくつかの実装では、上記の様々な例が組み合わされてよい。例えば、メッセージングストリームは、複数のユーザおよびチャットボットを含んでよい。アクションモジュール206は、コンピューティング装置200上でユーザの移動を検出し、ユーザインタフェースモジュール208に指示して、アニメートされたオブジェクトの表示を、チャットボットに関連するメッセージおよびユーザの移動に基づき変更してよい。
図7Aを参照すると、いくつかの実装による、アニメートされたテイクアウトボックスの例示的なユーザインタフェース700が図示される。この例では、キラとサムが、テイスティータイから料理の配達を注文することについて、メッセージ701を交換する。ユーザはまた、チャットボットがメッセージにアクセスしてユーザを手助けすることに同意する。料理の注文をするチャットボットは、注文をして、料理は40分で到着することをユーザに通知する。第1ユーザは、テイクアウトボックスとしてアニメートされたオブジェクト702を選択して、ユーザインタフェースモジュール208は、そのテイクアウトボックスとしてアニメートされたオブジェクト702をメッセージングストリームにおいて表示する。第2ユーザは、テイクアウトボックスとしてアニメートされたオブジェクト702に指703でタッチする。アクションモジュール206は、アニメートされたオブジェクトにタッチする第2ユーザの指703の移動を検出する。
図7Bは、いくつかの実装による、ユーザがユーザアクションを行った後の、アニメートされたテイクアウトボックスの例示的なユーザインタフェース725を図示する。図7Aにおいてテイクアウトボックスとしてアニメートされたオブジェクト702に第2ユーザがタッチしたことに基づき、アクションモジュール206は起こったアクションの種類を判定し、ユーザインタフェースモジュール208に指示して、開いたテイクアウトボックスとしてアニメートされたオブジェクト726を表示するために、テイクアウトボックスとしてアニメートされたオブジェクトを変更させる。
いくつかの実装では、アクションは、第2ユーザが第2のアニメートされたオブジェクトを選択することを含んでよい。第2のアニメートされたオブジェクトは、第1のアニメートされたオブジェクトとの関係に基づく、アニメートされたオブジェクトの一部であってよい。第2のアニメートされたオブジェクトは、全てのアニメートされたオブジェクトのグループから選択されてよい。いくつかの実装では、ユーザインタフェースモジュール208は、第2のアニメートされたオブジェクトと対話する第1のアニメートされたオブジェクトを示すことで表示を変更する。例えば、第1のアニメートされたオブジェクトは、ボクシンググローブを付けた狐であり、第2のアニメートされたオブジェクトは、ボクシンググローブを付けたカンガルーでよい。ユーザインタフェースモジュール208は、戦い合う2つのアニメートされたオブジェクトを表示してよい。いくつかの実装では、第1ユーザおよび第2ユーザが2つのアニメートされたオブジェクトを使用してボクシングの試合を行えるよう、第1ユーザは第1のアニメートされたオブジェクトを制御してよく、また第2ユーザは第2のアニメートされたオブジェクトを制御してよい。
複数のアニメートされたオブジェクトがメッセージングストリームにおいて表示されるいくつかの実装では、アニメートされたオブジェクトは、メッセージングストリームにどのように追加されたかに従って、異なる反応をする。2つのアニメートされたオブジェクトは、互いまで近いアニメートされたオブジェクトが、互いまで遠いアニメートされたオブジェクトよりも多く互いに応答し合うように、互いまでの近さおよび時間の長さに従って、異なる反応をしてよい。例えば、2人のアニメートされた人物が隣同士にいる場合は、お互いに見つめ合い、触れ合う。2人のアニメートされた人物が、メッセージングストリームの両側にいる場合は、2分毎に手を振り合うが、それ以外では対話しない。
ユーザインタフェースモジュール208は、ユーザインタフェースを生成する。いくつかの実装では、ユーザインタフェースモジュール208は、ユーザインタフェースを生成するためにプロセッサ235によって実行可能な命令のセットを含む。いくつかの実装では、ユーザインタフェースモジュール208は、コンピューティング装置200のメモリ237に記憶され、プロセッサ235によってアクセス可能かつ実行可能であってよい。
いくつかの実装では、ユーザインタフェースモジュール208は、アニメーションモジュール204から指示を受信し、メッセージングストリームを含むユーザインタフェースを生成する。ユーザインタフェースは、第1ユーザがそこから選択するアニメートされたオブジェクトのグループを含んでよい。ユーザインタフェースモジュール208は、アニメートされたオブジェクトのうちの1つの選択を第1ユーザから受信してよい。ユーザインタフェースモジュール208は、アニメートされたオブジェクトをメッセージングストリームにおいて表示する。
ユーザインタフェースモジュール208は、アクションモジュール206から指示を受信し、アニメートされたオブジェクトの表示を、第1ユーザからの第1アクションに基づき変更する。例えば、ユーザインタフェースモジュール208は、ビー玉を表すアニメートされたオブジェクトを変更する指示を受信し、第1ユーザに関連付けられたコンピューティング装置の移動に基づき、メッセージングストリームの周囲を転がるビー玉を示す。ユーザインタフェースモジュール208は、アクションモジュール206から指示を受信し、アニメートされたオブジェクトの表示を、第2ユーザからの第2アクションに基づき変更する。例えば、ユーザインタフェースモジュール208は、第2ユーザに関連付けられたコンピューティング装置200を第2ユーザがタッチすることに基づきビー玉がメッセージングストリームにおいて弾むように示す指示を受信して、ビー玉がメッセージングストリーム内で弾むことをシミュレートする。
いくつかの実装では、ユーザインタフェースモジュール208は、アニメートされたオブジェクトの外観を変更する対話型のフィーチャを含むユーザインタフェースを提供する。例えば、ユーザインタフェースモジュール208は、作図用のスクラッチパッドを与えるユーザインタフェースを提供する。スクラッチパッドは、鉛筆、ペイントブラシ、カラーオプション等様々な作図用のツールを有するツールキットを含んでよい。別の例では、ユーザインタフェースモジュール208は、音楽、ビープ音、トーン音等を作成用の対話型キーボードを含むユーザインタフェースを提供する。ユーザがキーボード上のキーにタッチすると、アクションモジュール206は、そのタッチを検出し、スピーカ243に指示して、ビープ音、トーン音等を出させる。さらに別の例では、ユーザインタフェースモジュール208は、ユーザが対話型のグラフィックスの外観を変更するオプションを有する、チャート、タイムライン等の対話型グラフィックスを含むユーザインタフェースを提供する。
図8Aは、いくつかの実装による、アニメートされた飛行機を含むメッセージングストリームの例示的なユーザインタフェース800を図示する。この例では、第1ユーザは、飛行機801を表すアニメートされたオブジェクトを選択し、そのオブジェクト、第1ユーザが飛行機に乗ろうとしているというメッセージを第2ユーザに対して表す。第1ユーザは、スマートウォッチのスクリーンを横切ってスワイプして、ユーザインタフェースモジュール208に、スクリーン内を横切る飛行機801を示すよう飛行機801の表示を変更させる。アニメーションモジュール204は、アニメートされたオブジェクトのセットを、飛行機801との関係に基づき第2ユーザに対して提供する。例えば、アニメートされたオブジェクトのセットは、手を振ること、親指を立てるいいね!のサイン、およびキスをしている2人の人物であってよい。第2ユーザは、キスをしている2人の人物を表すアニメートされたオブジェクトを選択する。
図8Bは、いくつかの実装による、アニメートされた飛行機に関連するユーザアクションに応じて表示される、アニメートされたカップル826を含むメッセージングストリームの例示的なユーザインタフェース825を図示する。この例では、ユーザアクションは、第2ユーザによる、キスをしている2人の人物を表すアニメートされたオブジェクトの選択である。
例示的な方法
図9は、アニメートされたオブジェクトを含むメッセージングストリームを生成する例示的な方法900のフローチャートを図示する。方法900は、メッセージングアプリケーション103によって実行される。メッセージングアプリケーション103は、ユーザ装置115、メッセージングサーバ101、またはユーザ装置115の一部およびメッセージングサーバ101の一部等のコンピューティング装置200に記憶されている。
例示的な方法
図9は、アニメートされたオブジェクトを含むメッセージングストリームを生成する例示的な方法900のフローチャートを図示する。方法900は、メッセージングアプリケーション103によって実行される。メッセージングアプリケーション103は、ユーザ装置115、メッセージングサーバ101、またはユーザ装置115の一部およびメッセージングサーバ101の一部等のコンピューティング装置200に記憶されている。
ブロック902で、第1ユーザと第2ユーザとの間で1つまたは複数のメッセージが交換されるメッセージングストリームが生成される。例えば、第1ユーザおよび第2ユーザは、インスタントメッセージングプラットフォームを使用して、テキスト、SMS等を介し、メッセージをお互いに対して送信し合う。ブロック904で、メッセージングストリームに対するアニメートされたオブジェクトの選択が第1ユーザから受信される。例えば、第1ユーザは、第1ユーザの装置に表示されるアニメートされたオブジェクトのグループから、アニメートされたオブジェクトを選択する。例えば、アニメートされたオブジェクトは、アニメートされたバージョンのフラミンゴである。ユーザは、アニメートされたオブジェクトを、アニメートされたオブジェクトの色、アニメートされたオブジェクトの目付き等を選択することにより、カスタマイズしてよい。ブロック906で、アニメートされたオブジェクトはメッセージングストリームにおいて提供される。例えば、ユーザインタフェースモジュール208は、アニメートされたオブジェクトを、ユーザインタフェースの中心部等のデフォルト位置に表示する。
ブロック908で、アニメートされたオブジェクトに関連する第1ユーザから第1アクションが受信される。例えば、アクションモジュール206は、コンピューティング装置200のマイク等のセンサ245に息を吹き込む第1ユーザを検出する。ブロック910で、アニメートされたオブジェクトの表示は第1アクションに基づき変更される。例えば、第1ユーザがコンピューティング装置200に息を吹き込むことに基づき、ユーザインタフェースモジュール208は、フラミンゴが風に吹かれて羽が飛び散っている様子を示すように、アニメートされたオブジェクトの表示を変更する。
ブロック912で、アニメートされたオブジェクトに関連する第2ユーザから第2アクションが受信される。例えば、第2ユーザは、第2ユーザのコンピューティング装置200を振る。ブロック914で、アニメートされたオブジェクトの表示は第2アクションに基づき変更される。例えば、第2ユーザのコンピューティング装置200が振られることに対応した動きでフラミンゴが上下に弾む様子を示すよう表示が変更される。
上記の記載で、説明の目的で、本明細書についての完全な理解を与えるために複数の特定の詳細が提示された。しかしながら、これらの特定の詳細無しで開示が実施可能であることは、当業者にとって明らかである。いくつかの例では、記載が不明瞭になることを避けるため、構成および装置がブロック図形式で示されている。例えば、実装は、ユーザインタフェースおよび特定のハードウェアを主に参照して上記に記載され得る。しかしながら、実装は、データおよびコマンドを受信可能な任意の種類のコンピューティング装置と、サービスを提供する任意の周辺機器とに適用可能である。
本明細書における「いくつかの実装」または「いくつかの例」への参照は、実装または例に関連して記載された特定のフィーチャ、構造、特徴が、記載の1つ以上の実装に含まれて得ることを意味する。本明細書における様々な箇所での「いくつかの実装」の句の出現は、必ずしも全て同一の実装に言及しているものではない。
上記の詳細な説明のいくつかの部分は、コンピュータメモリ内のデータビットに対する動作のアルゴリズムおよびのシンボル的表現の点で、提供される。これらのアルゴリズム的な記載および表現は、データ処理技術の当業者によって、最も効果的にその研究の実体を他の当業者に伝えるよう使用される手段である。本明細書において、アルゴリズムは、一般に、所望する結果に至る自己矛盾のない一連のステップとして考慮されている。このステップは、物理量の物理的な操作を必要とするものである。通常、必ずしも必要とはされないが、これらの物理量は、記憶、転送、組み合わせ、比較、および別の方法で操作可能な電気的または磁気的データの形式を取る。これらのデータを、主に一般的な使用のためにビット、値、要素、シンボル、キャラクタ、用語、数等と称することが、しばしば便利であるとされてきた。
しかしながら、これら全ておよび類似の用語は、適切な物理量に関連付けられ、これらの物理量に適用される単に好都合なラベルであると理解するべきである。以下の検討から明らかなように、具体的に別の方法で述べられていない限り、記載を通じて、「処理」、「コンピューティング」、「計算」、「決定」、または「表示」等を含む用語を利用する検討は、コンピュータシステムのレジスタおよびメモリ内で物理的(電子的)な量として提示されるデータを操作し、およびそのデータをコンピュータシステムのメモリもしくはレジスタ、または他のそのような情報記憶装置、情報送信装置、または情報表示装置内で物理量として同様に提示される他のデータに変更する、コンピュータシステムまたは類似の電子コンピューティング装置の動作および処理を指すことが理解されるべきである。
本明細書の実施はまた、上記の方法の1つまたは複数のステップを実行するプロセッサに関してよい。該プロセッサは、コンピュータに記憶されたコンピュータプログラムによって選択的に作動または再構成される専用のプロセッサであってよい。そのようなコンピュータプログラムは、光学ディスク、ROM、CD−ROM、磁気ディスク、RAM、EPROM、EEPROM、磁気もしくは光学カード、不揮発性メモリを有するUSBキーを含むフラッシュメモリ、または電子命令を記憶するのに適切な任意の種類の媒体であって、各々がコンピュータシステムバスに結合した任意の種類の媒体を含む任意の種類のディスクを含むがこれに限定されない、非一時的なコンピュータ可読記憶媒体に記憶されてよい。
本明細書は、複数の完全にハードウェアの実装、複数の完全にソフトウェアの実装、またはハードウェアとソフトウェア要素の両方を含む複数の実装の形式を取ってよい。いくつかの実装では、本明細書は、ファームウェア、常駐するソフトウェア、マイクロコード等を含むがこれに限定されないソフトウェアに実装される。
さらに、記載は、コンピュータによるまたはコンピュータに関連する使用のためのプログラムコードを提供するコンピュータ使用可能媒体またはコンピュータ可読媒体からアクセス可能なコンピュータプログラム製品、または任意の命令実行システムの形式を取ってよい。この記載のため、コンピュータ使用可能媒体またはコンピュータ可読媒体は、命令実行システム、装置、または機器によるまたはそれに関連する使用のためのプログラムを含み、記憶し、伝送し、または搬送し得る任意の装置であってよい。
プログラムコードを記憶または実行するのに適切なデータ処理システムは、システムバスを通じてメモリ要素に直接的または間接的に接続された1つ以上のプロセッサを含み得る。メモリ要素は、プログラムコードの実際の実行中に使用されるローカルメモリ、バルクストレージ、および実行中にコードがバルクストレージから取得されなければならない回数を減少させるために少なくとも一部のプログラムコードの一時的な記憶を提供するキャッシュメモリを含んでよい。
上記で検討されたシステムが個人情報を収集または使用する状況では、システムはユーザに対して、プログラムまたはフィーチャがユーザ情報(例えば、ユーザのソーシャルネットワークに関する情報、ソーシャルアクションもしくはアクティビティ、職業、ユーザの嗜好、またはユーザの現在位置)を収集するかどうかに関して、またはユーザにより関連し得るサーバからコンテンツを受信するかおよび/もしくはどのように受信するかどうかに関して制御する機会を提供する。加えて、あるデータは、記憶または使用される前に1つまたは複数の方法で処理されて、個人を特定可能な情報が取り除かれてもよい。例えば、ユーザに対して個人を特定可能な情報が確定されないようにユーザの識別情報は処理されてもよく、または位置情報が取得されるユーザの地理的位置は、一般化がされて(都市、郵便番号、または州レベル等)、ユーザの特有の位置が決定できなくてもよい。したがって、ユーザは、ユーザに関して情報がどのように収集され、サーバによって使用されるかについての制御を有してよい。
Claims (20)
- コンピュータが実行する方法であって、前記方法は、
第1ユーザと第2ユーザとの間で1つまたは複数のメッセージが交換されるメッセージングストリームを生成する工程と、
前記メッセージングストリームに対するアニメートされたオブジェクトの選択を、前記第1ユーザから受信する工程と、
前記アニメートされたオブジェクトを前記メッセージングストリームにおいて提供する、提供工程と、
前記アニメートされたオブジェクトに関連する前記第1ユーザからの第1アクションを受信する、第1アクション受信工程と、
前記アニメートされたオブジェクトの表示を、前記第1アクションに基づき変更する、第1アクション基準オブジェクト表示変更工程と、
前記アニメートされたオブジェクトに関連する前記第2ユーザからの第2アクションを受信する、第2アクション受信工程と、
前記アニメートされたオブジェクトの前記表示を、前記第2アクションに基づき変更する工程と、を備える方法。 - 前記第1アクション受信工程は、コンピューティング装置に関連付けられたマイク付近の気流の変化を検出することを含む請求項1に記載の方法。
- 前記第1アクション受信工程は、タッチスクリーン上の指の移動を検出することまたはポインティングデバイスの移動を検出することを含む請求項1に記載の方法。
- 前記第1アクション受信工程は、コンピューティング装置の移動を、前記コンピューティング装置に関連付けられたセンサから受信された情報に基づき検出することを含む請求項1に記載の方法。
- 移動の方向を判定する工程と前記ユーズ装置が移動した場所を判定する工程とのうちの少なくとも一方をさらに備え、前記第1アクション基準オブジェクト表示変更工程は、前記アニメートされたオブジェクトの前記表示を、判定された移動の方向と前記コンピューティング装置が移動したと判定された場所とのうちの少なくとも一方に基づき、変更することを含む請求項4に記載の方法。
- 前記第1アクション受信工程は、第1ユーザからメッセージを受信し、前記メッセージングストリームからコンテクストを判定することを含み、
前記第1アクション基準オブジェクト表示変更工程は、前記アニメートされたオブジェクトの前記表示を、前記メッセージングストリームからの前記コンテクストに基づき、変更することを含む請求項1に記載の方法。 - 前記第1アクションは、前記アニメートされたオブジェクトを第1方向に引くことであり、前記第2アクションは、前記アニメートされたオブジェクトを第2方向に引くことである請求項1に記載の方法。
- 前記第1ユーザおよび前記第2ユーザは地理的に離れており、前記提供工程は、(a)前記アニメートされたオブジェクトを、前記第1ユーザの第1コンピューティング装置上の前記メッセージングストリームにおいて、および前記第2ユーザの第2コンピューティング装置上の前記メッセージングストリームにおいて、提供することと、(b)前記第1コンピューティング装置および前記第2コンピューティング装置のうちの1つ以上において、アニメートされたオブジェクトを表示のために、前記第1ユーザまたは前記第2ユーザのそれぞれに関連付けられたメタデータに基づき変更することと、を含む請求項1に記載の方法。
- 前記メタデータは、前記第1ユーザの前記第1コンピューティング装置および前記第2ユーザの前記第2コンピューティング装置のうちの1つ以上に関連付けられた時刻、位置、時間帯、ユーザ嗜好のうちの1つ以上を含む請求項8に記載の方法。
- 前記第1ユーザおよび前記第2ユーザのうちの1人以上の前記コンピューティング装置に関連付けられた位置を、全地球測位システム情報を提供するセンサに基づき判定する工程をさらに備える請求項9に記載の方法。
- 前記アニメートされたオブジェクトが前記メッセージングストリームのうちの部分に固定されたままで、前記1つまたは複数のメッセージを前記メッセージングストリーム内に表示する工程をさらに備える請求項1に記載の方法。
- 前記第1ユーザはチャットボットであり、前記アニメートされたオブジェクトは、前記第1ユーザと前記第2ユーザとの間で交換される前記1つまたは複数のメッセージに関連する請求項1に記載の方法。
- 前記アニメートされたオブジェクトの前記表示は、前記1つまたは複数のメッセージ中の単語、音声コンテンツ、および前記メッセージングストリームのコンテクストのうちの1つ以上に基づき変更される請求項1に記載の方法。
- 前記第1ユーザにオプションとして提供するオブジェクトのセットを、前記メッセージングストリームが表示されるコンピューティング装置の種類に基づき識別する工程であって、前記アニメートされたオブジェクトは前記オブジェクトのセットの一部である工程をさらに備える請求項1に記載の方法。
- 前記第1ユーザが前記アニメートされたオブジェクトを前記メッセージングストリームに対して選択するために、アニメートされたオブジェクトのグループを提供する工程をさらに備え、前記アニメートされたオブジェクトのグループのうちの前記アニメートされたオブジェクトが、(a)前記アニメートされたオブジェクトを選択するために使用されるコンピューティング装置の種類によって異なることと、(b)前記アニメートされたオブジェクトを選択するために使用されるコンピューティング装置に基づき異なる属性を有することと、のうちの1つ以上を含む請求項1に記載の方法。
- 1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに処理を実行させる命令が記憶された非一時的なコンピュータ可読媒体であって、前記処理は、
第1ユーザと第2ユーザとの間で1つまたは複数のメッセージが交換されるメッセージングストリームを生成する工程と、
前記メッセージングストリームに対するアニメートされたオブジェクトの選択を、前記第1ユーザから受信する工程と、
前記アニメートされたオブジェクトのバージョンを、前記アニメートされたオブジェクトが表示されるコンピューティング装置の種類に基づき表示させる工程と、
前記アニメートされたオブジェクトに関連する前記第2ユーザからのアクションを受信する、第2ユーザアクション受信工程と、
前記アクションを受信することに応じて、前記アニメートされたオブジェクトの前記表示を変更する工程と、を備える非一時的なコンピュータ可読媒体。 - 前記選択は第1選択であり、前記アニメートされたオブジェクトはアニメートされた第1オブジェクトであり、
前記第2ユーザにアニメートされたオブジェクトのセットを、前記第1オブジェクトとの関係に基づき提供する工程と、
前記アニメートされたオブジェクトのセットから、アニメートされた第2オブジェクトの第2選択を受信する工程と、
前記第2選択の前記受信に応じて、前記第2オブジェクトを前記メッセージングストリームにおいて提供する工程と、をさらに備える請求項16に記載のコンピュータ記憶媒体。 - 前記アニメートされたオブジェクトが表示される前記コンピューティング装置の種類に基づき表示される、前記アニメートされたオブジェクトの前記バージョンは、デスクトップコンピュータ用の複雑なバージョン、モバイル装置用の簡易バージョン、およびスマートウォッチ用のより簡易なバージョンを含む請求項16に記載のコンピュータ記憶媒体。
- 前記第2ユーザアクション受信工程は、コンピューティング装置に関連付けられたマイク付近の気流の変化を検出することを含む請求項16に記載のコンピュータ記憶媒体。
- システムであって、前記システムは、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによって実行される命令を記憶するメモリと、を備え、前記命令は、
第1ユーザと第2ユーザとの間で1つまたは複数のメッセージが交換されるメッセージングストリームを生成することと、
前記メッセージングストリームに対するアニメートされたオブジェクトの選択を、前記第1ユーザから受信することと、
前記アニメートされたオブジェクトを前記メッセージングストリームにおいて提供することと、
前記アニメートされたオブジェクトに関連する前記第1ユーザからの第1アクションを受信することと、
前記アニメートされたオブジェクトの表示を、前記第1アクションに基づき変更することと、
前記アニメートされたオブジェクトに関連する前記第2ユーザからの第2アクションを受信することと、
前記アニメートされたオブジェクトの前記表示を、前記第2アクションに基づき変更することと、を含むシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/398,497 | 2017-01-04 | ||
US15/398,497 US20180188905A1 (en) | 2017-01-04 | 2017-01-04 | Generating messaging streams with animated objects |
PCT/US2017/057527 WO2018128663A1 (en) | 2017-01-04 | 2017-10-20 | Generating messaging streams with animated objects |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019537117A true JP2019537117A (ja) | 2019-12-19 |
Family
ID=60263047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019520091A Withdrawn JP2019537117A (ja) | 2017-01-04 | 2017-10-20 | アニメートされたオブジェクトを有するメッセージングストリームの生成 |
Country Status (5)
Country | Link |
---|---|
US (2) | US20180188905A1 (ja) |
JP (1) | JP2019537117A (ja) |
KR (1) | KR20190053207A (ja) |
CN (1) | CN110114789A (ja) |
WO (1) | WO2018128663A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170236318A1 (en) * | 2016-02-15 | 2017-08-17 | Microsoft Technology Licensing, Llc | Animated Digital Ink |
USD803238S1 (en) * | 2016-06-12 | 2017-11-21 | Apple Inc. | Display screen or portion thereof with graphical user interface |
US20180188905A1 (en) * | 2017-01-04 | 2018-07-05 | Google Inc. | Generating messaging streams with animated objects |
US10367776B2 (en) * | 2017-04-07 | 2019-07-30 | International Business Machines Corporation | Response status management in a social networking environment |
US10853717B2 (en) * | 2017-04-11 | 2020-12-01 | Microsoft Technology Licensing, Llc | Creating a conversational chat bot of a specific person |
US10599289B1 (en) * | 2017-11-13 | 2020-03-24 | Snap Inc. | Interface to display animated icon |
US10726603B1 (en) | 2018-02-28 | 2020-07-28 | Snap Inc. | Animated expressive icon |
USD912076S1 (en) * | 2018-10-16 | 2021-03-02 | Facebook, Inc. | Display screen with graphical user interface |
USD881922S1 (en) * | 2018-10-18 | 2020-04-21 | Facebook, Inc. | Display panel of a programmed computer system with a graphical user interface |
USD881923S1 (en) * | 2018-10-18 | 2020-04-21 | Facebook, Inc. | Display panel of a programmed computer system with a graphical user interface |
USD881921S1 (en) * | 2018-10-18 | 2020-04-21 | Facebook, Inc. | Display panel of a programmed computer system with a graphical user interface |
JP6869216B2 (ja) * | 2018-11-07 | 2021-05-12 | スカパーJsat株式会社 | 拡張現実端末 |
CA3031479A1 (en) * | 2019-01-25 | 2020-07-25 | Jonathan Gagne | Computer animation methods and systems |
USD910056S1 (en) | 2019-07-12 | 2021-02-09 | Google Llc | Display screen with graphical user interface |
US11308110B2 (en) | 2019-08-15 | 2022-04-19 | Rovi Guides, Inc. | Systems and methods for pushing content |
US10943380B1 (en) * | 2019-08-15 | 2021-03-09 | Rovi Guides, Inc. | Systems and methods for pushing content |
JP7442091B2 (ja) | 2020-04-30 | 2024-03-04 | グリー株式会社 | 動画配信装置、動画配信方法及び動画配信プログラム |
KR20210135683A (ko) * | 2020-05-06 | 2021-11-16 | 라인플러스 주식회사 | 인터넷 전화 기반 통화 중 리액션을 표시하는 방법, 시스템, 및 컴퓨터 프로그램 |
KR102180576B1 (ko) * | 2020-05-18 | 2020-11-18 | 주식회사 일루니 | 사용자의 플레잉에 기초하여 재프로그래밍되는 인터랙티브 콘텐츠 제공 방법 및 장치 |
CN113709020B (zh) * | 2020-05-20 | 2024-02-06 | 腾讯科技(深圳)有限公司 | 消息发送方法、消息接收方法、装置、设备及介质 |
CN117980875A (zh) * | 2022-04-26 | 2024-05-03 | 住友电气工业株式会社 | 动画操作方法、动画操作程序以及动画操作系统 |
US12101282B1 (en) * | 2023-03-08 | 2024-09-24 | Truist Bank | Digital financial management having chat support platform to facilitate chat window customization by user command |
Family Cites Families (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2180899A1 (en) * | 1995-07-12 | 1997-01-13 | Yasuaki Honda | Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore |
US6219045B1 (en) * | 1995-11-13 | 2001-04-17 | Worlds, Inc. | Scalable virtual world chat client-server system |
US8508469B1 (en) * | 1995-12-01 | 2013-08-13 | Immersion Corporation | Networked applications including haptic feedback |
US5880731A (en) * | 1995-12-14 | 1999-03-09 | Microsoft Corporation | Use of avatars with automatic gesturing and bounded interaction in on-line chat session |
US6907571B2 (en) * | 2000-03-01 | 2005-06-14 | Benjamin Slotznick | Adjunct use of instant messenger software to enable communications to or between chatterbots or other software agents |
KR100363952B1 (ko) * | 2000-08-08 | 2002-12-12 | 학교법인 인하학원 | 휴대형 정보기기의 다중 매체 전송 및 재생 방법 |
US7925703B2 (en) * | 2000-12-26 | 2011-04-12 | Numedeon, Inc. | Graphical interactive interface for immersive online communities |
US20070168863A1 (en) * | 2003-03-03 | 2007-07-19 | Aol Llc | Interacting avatars in an instant messaging communication session |
US20070113181A1 (en) * | 2003-03-03 | 2007-05-17 | Blattner Patrick D | Using avatars to communicate real-time information |
US20060212818A1 (en) * | 2003-07-31 | 2006-09-21 | Doug-Heon Lee | Method for providing multimedia message |
US7342587B2 (en) * | 2004-10-12 | 2008-03-11 | Imvu, Inc. | Computer-implemented system and method for home page customization and e-commerce support |
US20070180402A1 (en) * | 2006-02-02 | 2007-08-02 | Richard Bassemir | Method for managing dynamic chat objects |
JP4281925B2 (ja) * | 2006-06-19 | 2009-06-17 | 株式会社スクウェア・エニックス | ネットワークシステム |
US9050528B2 (en) * | 2006-07-14 | 2015-06-09 | Ailive Inc. | Systems and methods for utilizing personalized motion control in virtual environment |
WO2008048848A2 (en) * | 2006-10-13 | 2008-04-24 | Nms Communications Corporation | Dynamic video messaging |
US20080109741A1 (en) * | 2006-11-02 | 2008-05-08 | Ripl Corp. | User-generated content with instant-messaging functionality |
CA2707545A1 (en) * | 2006-12-06 | 2008-06-12 | Prism Technologies Inc. | System, method, and apparatus for data-driven interactive wayfinding and associated services |
US8683353B2 (en) * | 2006-12-12 | 2014-03-25 | Motorola Mobility Llc | Method and system for distributed collaborative communications |
US8239487B1 (en) * | 2007-05-30 | 2012-08-07 | Rocketon, Inc. | Method and apparatus for promoting desired on-line activities using on-line games |
US20080309618A1 (en) * | 2007-06-12 | 2008-12-18 | Kazuyuki Okada | Methods and systems for controlling an input device, for generating collision data, and for controlling a camera angle |
US8930463B2 (en) * | 2007-07-09 | 2015-01-06 | Yahoo! Inc. | Super-emoticons |
US20130073707A1 (en) * | 2011-09-16 | 2013-03-21 | Social Communications Company | Capabilities based management of virtual areas |
US20090128567A1 (en) * | 2007-11-15 | 2009-05-21 | Brian Mark Shuster | Multi-instance, multi-user animation with coordinated chat |
US20090158170A1 (en) * | 2007-12-14 | 2009-06-18 | Rajesh Narayanan | Automatic profile-based avatar generation |
US8612888B2 (en) * | 2008-04-01 | 2013-12-17 | Litl, Llc | Method and apparatus for managing digital media content |
US9003315B2 (en) * | 2008-04-01 | 2015-04-07 | Litl Llc | System and method for streamlining user interaction with electronic content |
US8531447B2 (en) * | 2008-04-03 | 2013-09-10 | Cisco Technology, Inc. | Reactive virtual environment |
US20090327899A1 (en) * | 2008-06-25 | 2009-12-31 | Steven Bress | Automated Creation of Virtual Worlds for Multimedia Presentations and Gatherings |
US8471843B2 (en) * | 2008-07-07 | 2013-06-25 | International Business Machines Corporation | Geometric and texture modifications of objects in a virtual universe based on real world user characteristics |
US10019061B2 (en) * | 2008-07-15 | 2018-07-10 | Immersion Corporation | Systems and methods for haptic message transmission |
US20100083139A1 (en) * | 2008-09-26 | 2010-04-01 | International Business Machines Corporation | Virtual universe avatar companion |
US8683354B2 (en) * | 2008-10-16 | 2014-03-25 | At&T Intellectual Property I, L.P. | System and method for distributing an avatar |
US8464167B2 (en) * | 2008-12-01 | 2013-06-11 | Palo Alto Research Center Incorporated | System and method for synchronized authoring and access of chat and graphics |
US20100153858A1 (en) * | 2008-12-11 | 2010-06-17 | Paul Gausman | Uniform virtual environments |
WO2010078614A1 (en) * | 2009-01-08 | 2010-07-15 | Relevancenow Pty Limited | Chatbots |
US20110021109A1 (en) * | 2009-07-21 | 2011-01-27 | Borei Corporation | Toy and companion avatar on portable electronic device |
KR101686913B1 (ko) * | 2009-08-13 | 2016-12-16 | 삼성전자주식회사 | 전자기기에서 이벤트 서비스 제공 방법 및 장치 |
US8458602B2 (en) * | 2009-08-31 | 2013-06-04 | Ganz | System and method for limiting the number of characters displayed in a common area |
US8924261B2 (en) * | 2009-10-30 | 2014-12-30 | Etsy, Inc. | Method for performing interactive online shopping |
EP2354897A1 (en) * | 2010-02-02 | 2011-08-10 | Deutsche Telekom AG | Around device interaction for controlling an electronic device, for controlling a computer game and for user verification |
US8838586B2 (en) * | 2010-03-05 | 2014-09-16 | Apple Inc. | Relevancy ranking for map-related search |
TWI439960B (zh) * | 2010-04-07 | 2014-06-01 | Apple Inc | 虛擬使用者編輯環境 |
US9678569B2 (en) * | 2010-04-23 | 2017-06-13 | Immersion Corporation | Systems and methods for providing haptic effects |
US20110265018A1 (en) * | 2010-04-23 | 2011-10-27 | Ganz | Emotion and mood control of virtual characters in a virtual world |
US9634855B2 (en) * | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US8296151B2 (en) * | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US9525752B2 (en) * | 2010-10-22 | 2016-12-20 | Litl Llc | Method and apparatus for providing contextual services |
US8989786B2 (en) * | 2011-04-21 | 2015-03-24 | Walking Thumbs, Llc | System and method for graphical expression during text messaging communications |
US9645733B2 (en) * | 2011-12-06 | 2017-05-09 | Google Inc. | Mechanism for switching between document viewing windows |
US20140122619A1 (en) * | 2012-10-26 | 2014-05-01 | Xiaojiang Duan | Chatbot system and method with interactive chat log |
US9330544B2 (en) * | 2012-11-20 | 2016-05-03 | Immersion Corporation | System and method for simulated physical interactions with haptic effects |
US9705829B2 (en) * | 2012-12-07 | 2017-07-11 | Linkedin Corporation | Communication systems and methods |
JP2014194747A (ja) * | 2013-02-28 | 2014-10-09 | Canon Inc | 情報処理装置、情報処理方法及びコンピュータプログラム |
US20140300612A1 (en) * | 2013-04-03 | 2014-10-09 | Tencent Technology (Shenzhen) Company Limited | Methods for avatar configuration and realization, client terminal, server, and system |
EP3008932A4 (en) * | 2013-06-12 | 2017-02-22 | Walking Thumbs PTE, LTD. | System and method for action-based input text messaging communication |
US20140372923A1 (en) * | 2013-06-14 | 2014-12-18 | Microsoft Corporation | High Performance Touch Drag and Drop |
US9440143B2 (en) * | 2013-07-02 | 2016-09-13 | Kabam, Inc. | System and method for determining in-game capabilities based on device information |
US9766773B2 (en) * | 2013-07-31 | 2017-09-19 | Disney Enterprises, Inc. | Dynamic player activity environment response |
US20150058140A1 (en) * | 2013-08-21 | 2015-02-26 | Electronic Arts, Inc. | Systems and methods for in-application offers |
KR102161764B1 (ko) * | 2013-10-31 | 2020-10-05 | 삼성전자주식회사 | 카툰 이미지를 이용한 메신저 대화창 표시 방법 및 컴퓨터 판독 가능한 기록 매체 |
US9454840B2 (en) * | 2013-12-13 | 2016-09-27 | Blake Caldwell | System and method for interactive animations for enhanced and personalized video communications |
IN2014DE00332A (ja) * | 2014-02-05 | 2015-08-07 | Nitin Vats | |
US20170124770A1 (en) * | 2014-03-15 | 2017-05-04 | Nitin Vats | Self-demonstrating object features and/or operations in interactive 3d-model of real object for understanding object's functionality |
US20170080346A1 (en) * | 2014-05-01 | 2017-03-23 | Mohamad Abbas | Methods and systems relating to personalized evolving avatars |
US20150332534A1 (en) * | 2014-05-15 | 2015-11-19 | Narvii Inc. | Systems and methods implementing user interface objects |
US9648062B2 (en) * | 2014-06-12 | 2017-05-09 | Apple Inc. | Systems and methods for multitasking on an electronic device with a touch-sensitive display |
US20160005320A1 (en) * | 2014-07-02 | 2016-01-07 | Christopher deCharms | Technologies for brain exercise training |
CA2898949A1 (en) * | 2014-08-14 | 2016-02-14 | Bassam Sibai | Selling an item in an interactive marketplace over a computer network |
CN105991394A (zh) * | 2015-01-28 | 2016-10-05 | 阿里巴巴集团控股有限公司 | 群聊方法及装置 |
CN104615747B (zh) * | 2015-02-11 | 2017-05-17 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、客户端及服务器 |
KR101620050B1 (ko) * | 2015-03-03 | 2016-05-12 | 주식회사 카카오 | 인스턴트 메시지 서비스를 통한 시나리오 이모티콘 표시 방법 및 이를 위한 사용자 단말 |
WO2016197074A1 (en) * | 2015-06-04 | 2016-12-08 | Victorious, Inc. | Emotive ballistics |
KR20170017289A (ko) * | 2015-08-06 | 2017-02-15 | 삼성전자주식회사 | 콘텐츠를 송수신하는 전자 장치 및 방법 |
US11477139B2 (en) * | 2016-02-25 | 2022-10-18 | Meta Platforms, Inc. | Techniques for messaging bot rich communication |
US20170246545A1 (en) * | 2016-02-28 | 2017-08-31 | Sqor, Inc. | Sports app with chat and pushed event information |
US10831802B2 (en) * | 2016-04-11 | 2020-11-10 | Facebook, Inc. | Techniques to respond to user requests using natural-language machine learning based on example conversations |
US20170345079A1 (en) * | 2016-05-31 | 2017-11-30 | Accenture Global Solutions Limited | Network of smart appliances |
US11108708B2 (en) * | 2016-06-06 | 2021-08-31 | Global Tel*Link Corporation | Personalized chatbots for inmates |
US10855632B2 (en) * | 2016-07-19 | 2020-12-01 | Snap Inc. | Displaying customized electronic messaging graphics |
US10514822B2 (en) * | 2016-08-24 | 2019-12-24 | Motorola Solutions, Inc. | Systems and methods for text entry for multi-user text-based communication |
US10089793B2 (en) * | 2016-09-02 | 2018-10-02 | Russell Holmes | Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements |
US10929917B2 (en) * | 2016-12-16 | 2021-02-23 | Paypal, Inc. | Accessing chat sessions via chat bots for cart generation |
US10796295B2 (en) * | 2016-12-22 | 2020-10-06 | Facebook, Inc. | Processing payment transactions using artificial intelligence messaging services |
US10853716B2 (en) * | 2016-12-27 | 2020-12-01 | Microsoft Technology Licensing, Llc | Systems and methods for a mathematical chat bot |
US20180188905A1 (en) * | 2017-01-04 | 2018-07-05 | Google Inc. | Generating messaging streams with animated objects |
-
2017
- 2017-01-04 US US15/398,497 patent/US20180188905A1/en not_active Abandoned
- 2017-10-20 CN CN201780061845.3A patent/CN110114789A/zh active Pending
- 2017-10-20 WO PCT/US2017/057527 patent/WO2018128663A1/en active Application Filing
- 2017-10-20 JP JP2019520091A patent/JP2019537117A/ja not_active Withdrawn
- 2017-10-20 KR KR1020197009598A patent/KR20190053207A/ko not_active Application Discontinuation
-
2019
- 2019-12-03 US US16/702,432 patent/US11003322B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20190053207A (ko) | 2019-05-17 |
US20180188905A1 (en) | 2018-07-05 |
US20200104017A1 (en) | 2020-04-02 |
US11003322B2 (en) | 2021-05-11 |
CN110114789A (zh) | 2019-08-09 |
WO2018128663A1 (en) | 2018-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11003322B2 (en) | Generating messaging streams with animated objects | |
US10169897B1 (en) | Systems and methods for character composition | |
CN109716264A (zh) | 显示自定义的电子消息图形 | |
CN110168586A (zh) | 情境生成和对定制的媒体内容的选择 | |
CN110023985A (zh) | 在电子消息中生成并显示定制头像 | |
CN110168476A (zh) | 增强现实对象操纵 | |
US11960784B2 (en) | Shared augmented reality unboxing experience | |
US20220198603A1 (en) | Recentering ar/vr content on an eyewear device | |
CN116648687B (zh) | 具有触觉反馈响应的电子通信界面 | |
US11782577B2 (en) | Media content player on an eyewear device | |
WO2022140734A1 (en) | Recentering ar/vr content on an eyewear device | |
WO2022036372A1 (en) | User interface for pose driven virtual effects | |
KR20230156953A (ko) | 실시간에서의 실제 크기 안경류 경험 | |
CN116710885A (zh) | 具有触觉反馈响应的通信界面 | |
CN116685941A (zh) | 具有触觉反馈增强的媒体内容项 | |
CN117120960A (zh) | 具有触觉反馈响应和音频反馈响应的界面 | |
KR20230019968A (ko) | 메시지 인터페이스 확장 시스템 | |
KR20230157494A (ko) | 실시간에서의 실제 크기 안경류 | |
CN118401912A (zh) | 增强现实开箱体验 | |
JP7300925B2 (ja) | キャラクタを使ったライブ通信システム | |
WO2024044138A1 (en) | Avatar call on an eyewear device | |
WO2024035763A1 (en) | External controller for an eyewear device | |
US20240071000A1 (en) | External computer vision for an eyewear device | |
CN116670632A (zh) | 眼镜设备上的媒体内容播放器 | |
CN116635771A (zh) | 眼镜设备上的对话界面 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190412 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20191218 |