WO2017215449A1 - 展示要素生成方法、展示要素生成装置、展示要素和通讯软件 - Google Patents

展示要素生成方法、展示要素生成装置、展示要素和通讯软件 Download PDF

Info

Publication number
WO2017215449A1
WO2017215449A1 PCT/CN2017/086820 CN2017086820W WO2017215449A1 WO 2017215449 A1 WO2017215449 A1 WO 2017215449A1 CN 2017086820 W CN2017086820 W CN 2017086820W WO 2017215449 A1 WO2017215449 A1 WO 2017215449A1
Authority
WO
WIPO (PCT)
Prior art keywords
display element
emoticon
pattern
display
generating
Prior art date
Application number
PCT/CN2017/086820
Other languages
English (en)
French (fr)
Inventor
刘佳音
吴建雷
Original Assignee
阿里巴巴集团控股有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 阿里巴巴集团控股有限公司 filed Critical 阿里巴巴集团控股有限公司
Publication of WO2017215449A1 publication Critical patent/WO2017215449A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information

Definitions

  • the present application relates to the field of computer technology, and in particular, to a method and an apparatus for generating a display element in a communication software, a display element generated by using the method or the device, and communication software using the display element.
  • the display elements are pre-stored in the communication software.
  • a user wants to use a presentation element he or she can only select one of the plurality of presentation elements pre-stored in the communication software to use.
  • a user wishes to use an emoticon only one of a plurality of emoticons pre-stored in the communication software can be used.
  • the present invention provides a method for generating a display element in a communication software, a display element generated using the method, and communication software using the display element, which can achieve more than existing display by using existing display elements.
  • the new display elements of the feature greatly expand the display elements available to the user.
  • the embodiment of the present application provides a method for generating a display element used in a communication software, including:
  • the determining the at least two display elements includes: determining the first display element and the second display element;
  • Generating target display elements according to the at least two display elements including:
  • the first display element is a first emoticon
  • the second display element is a second emoticon
  • the third display element is a third emoticon.
  • Determining the first display element comprising: determining that the emoticon that the user has long pressed is the first emoticon;
  • Determining the second display element comprises: determining an emoticon to which the user drags the first emoticon to the second emoticon.
  • the third display element is generated according to the first display element and the second display element, and includes any one of the following steps:
  • the third emoticon is formed by moving the first emoticon pattern or the second emoticon pattern along a predetermined trajectory and merging the second emoticon pattern or the first emoticon pattern;
  • the third emoticon is formed by moving, scaling, rotating, flipping or stretching the first emoticon pattern or the second emoticon pattern, and combining the second emoticon pattern or the first emoticon pattern;
  • the third emoticon pattern is formed by the first emoticon pattern covering the second emoticon pattern portion or by the second emoticon pattern covering the first emoticon pattern portion.
  • the third display element is generated according to the first display element and the second display element, and includes at least one of the following generation methods:
  • the rule list includes a rule for generating a third display element according to the first display element and the second display element;
  • the editing window provides at least one of the following editing methods:
  • the first display element is a first emoticon
  • the second display element is a second audio file
  • the third display element is a first emoticon with a second audio file sound.
  • the display element is located in the display element display area.
  • the display elements include a pattern and audio.
  • the embodiment of the present application further provides a display element generating apparatus used in communication software, and the apparatus includes:
  • the target display element generating means is configured to generate a target display element according to the at least two display elements, the target display element being different from any one of the at least two display elements.
  • the determining the at least two display elements includes: determining the first display element and the second display element;
  • Generating target display elements according to the at least two display elements including:
  • the first display element is a first emoticon
  • the second display element is a second emoticon
  • the third display element is a third emoticon.
  • the first display element is determined, including:
  • Identify the second display element including:
  • the first display element is a first emoticon
  • the second display element is a second audio file
  • the third display element is a first emoticon with a second audio file sound.
  • the embodiment of the present application further provides a display element generated by any one of the foregoing methods or devices.
  • the embodiment of the present application further provides a communication software, which uses the foregoing display elements.
  • the invention By combining the existing display elements, a large number of new display elements can be generated, which provides users with more optional display elements, which expands the user's choice range, so that users can better choose the right one.
  • the display elements are used for communication.
  • the invention is simple and convenient to operate, and the user can implement the invention with only a finger touch.
  • Figure 1 is a flow chart of a first embodiment of the present application
  • FIG. 2 is a schematic diagram of a user session operation interface of the first embodiment
  • FIG. 3 is a schematic diagram of selecting a first emoticon pattern
  • FIG. 4 is a schematic diagram of selecting a second emoticon
  • FIG. 5 is a schematic diagram of generating a third emoticon pattern in combination with the first emoticon pattern and the second emoticon pattern;
  • 6A is a schematic diagram of another example combining a first emoticon pattern and a second emoticon pattern
  • FIG. 6B is a schematic diagram of a third emoticon pattern generated after the combination of FIG. 6A;
  • FIG. 7 is a schematic diagram of generating a third display element in combination with the first emoticon and the second audio file
  • FIG. 8 is a schematic diagram of selecting a new emoticon and a fourth audio file generated by combining the first emoticon pattern and the second emoticon pattern;
  • Figure 9 is a schematic view of a long press of the new emoticon in Figure 8 and exhaling the bullet box;
  • FIG. 10 is a schematic diagram of a third presentation element formed by combining the new emoticon pattern and the fourth audio file in FIG. 8;
  • FIG. 11 is a schematic diagram of a third display element generated in FIG.
  • FIG. 1 is a flow chart of the method of the embodiment
  • FIG. 2 is a schematic diagram of a session operation interface of the communication software used in the embodiment.
  • the session operation interface includes a communication message display area located at the upper part, and is located in a communication message input area below the communication message display area.
  • a number of emoticons will be presented in the area under the "communication message input area" of the figure
  • an area similar to the emoticon is displayed. It is called the display element display area.
  • An example of a specific session operation interface is shown in Figure 3. The user can select a display element in the display element display area as the first display element.
  • an emoticon is selected as the first display element, and is recorded as the first emoticon.
  • the user can double click to select or click to select, long press to select, and so on.
  • a manner of long pressing an emoticon to select the first emoticon is adopted.
  • the first emoticon selected by the user is an expression of "smile and cry”.
  • the patterns in the display element display area may be some common patterns or interesting patterns, or patterns or pattern packages and expression packs that are imported from the outside by software. Obviously, the user can also select these patterns as if they were selected emoticons, and any subsequent operations for emoticons can be used for these patterns as well. Thus, the patterns in the display element display area can be considered as emoticons.
  • the display element display area may also have other display elements such as audio files and video files.
  • the display elements may also have other display elements such as audio files and video files.
  • the expressions, portraits, and objects sent by the other party may also be used as display elements, and the display elements are located outside the display area of the display elements.
  • the pattern other than the display element display area can be regarded as an emoticon.
  • the user continues to select the second emoticon.
  • the user long presses the first emoticon and drags it onto the second emoticon, thus determining the second emoticon.
  • the second expression selected by the user is an expression of "stool”.
  • the MoveEnd event is fired when manually removed from the screen. At this point, set isMoving to NO, and set the expression moveTarget to be moved to null.
  • an editing interface can be triggered to be presented, as shown in FIG.
  • This editing interface can edit the first emoticon and the second emoticon to generate a new emoticon in response to a user's input operation.
  • This newly generated emoticon is called the third emoticon.
  • the editing methods provided by the editing interface are mainly as follows:
  • the emoticon moves, click on the outer border of the emoticon, there will be a highlight to indicate that the emoticon is selected, and the single-finger dragging can complete the movement;
  • the expression pattern stretches, the two fingers stretch the expression pattern
  • the editing interface may not only provide the above-mentioned editing methods, but also provide a dynamic screen editing method such as a gradation, a rotation around itself, and other methods that are easily conceived by those skilled in the art, and may also have an expression that is sent and edited.
  • a dynamic screen editing method such as a gradation, a rotation around itself, and other methods that are easily conceived by those skilled in the art, and may also have an expression that is sent and edited.
  • Methods having such editing methods or functions are also within the scope of this application.
  • the user places the second emoticon pattern directly above the first emoticon pattern to form a third emoticon pattern (step S2).
  • the third emoticon pattern is as shown in FIG. face".
  • the third emoticon picture is different from the first emoticon or the second emoticon.
  • the first emoticon or the second emoticon is overlaid on the second emoticon or the first emoticon portion to generate a third emoticon.
  • the present invention may use only one of the above various methods to generate a third emoticon pattern, or may use a plurality of methods to generate a third emoticon pattern, for example, the first emoticon pattern may be moved to the second emoticon pattern. On the left side, and flipping the second emoticon, the obtained pattern is sent as a third emoticon and sent; for example, the first emoticon may be flipped over and cover the upper half of the second emoticon, and the obtained pattern is used as the third emoticon And send.
  • These methods are equally within the scope of this application.
  • the user can create and use a new number of display elements far exceeding the original display elements through limited display elements. For example, if the communication software provides N display elements, then the combination of the two can generate N*(N-1) new display elements, the number far exceeds the original N. If you consider different combinations, such as left and right combination and upper and lower combinations will generate different new display elements, this number can continue to expand several times. Thus, the method greatly expands the display elements that users can use, making communication more interesting and expressive.
  • the present invention also breaks the prejudice of the prior art.
  • the display elements can only be selected from the existing display elements, and by the method in the present invention, new display elements that are not the original display elements can also be used.
  • the method is easy to operate, and the user only needs to touch the screen to implement.
  • An editing window is used in Embodiment 1 in response to an input operation of the user to edit the first emoticon pattern and the second emoticon pattern and obtain a third emoticon pattern.
  • the editing window is not used to perform editing in response to the user's input operation, but another manner is used to determine the rule for obtaining the third emoticon from the first emoticon pattern and the second emoticon pattern.
  • the third emoticon is directly set to be a pattern in which the first emoticon is located on the left side of the second emoticon and is in close contact.
  • the third emoticon is automatically generated, and the “night moon” of the first emoticon is closely attached to the left side of the “sleep” of the second emoticon, forming a “moonlight sleep” emoticon, as shown in FIG. 6B.
  • the emoticon of "Moonlight Night Sleep” is sent as a third expression.
  • the third emoticon is formed by moving the first emoticon pattern or the second emoticon pattern along a predetermined trajectory and merging the second emoticon pattern or the first emoticon pattern;
  • the third emoticon is formed by moving, scaling, rotating, flipping or stretching the first emoticon pattern or the second emoticon pattern, and combining the second emoticon pattern or the first emoticon pattern;
  • the third emoticon pattern is formed by the first emoticon pattern covering the second emoticon pattern portion, or the second emoticon pattern covering the first emoticon pattern portion.
  • the third emoticon may be generated using only one of the above various rules, or a plurality of rules may be used in combination to generate a third emoticon, for example, the third emoticon is the first emoticon around the The second emoticon is circled while the second emoticon itself is flipped up and down; for example, the third emoticon is that the first emoticon itself is constantly rotating and covering the upper half of the second emoticon; For example, the first emoticon is a "smiley face", the second emoticon is a "cry face”, and the third emoticon is a pattern changed from "smiley face” to "cry face", that is, a The expression of "smile first and then cry”. These methods are equally within the scope of this application.
  • the selected first emoticon pattern and the second emoticon pattern are both static patterns
  • the method is not only applicable to static patterns, but also applies to dynamic patterns.
  • the generated third pattern is also not limited to the static pattern, and may be a dynamic pattern as well.
  • the user may first specify a rule for obtaining the third emoticon pattern by using the first emoticon pattern and the second emoticon pattern, and then selecting the first emoticon pattern and the second emoticon pattern; or first selecting the first emoticon pattern and a second emoticon, and then specifying a rule for obtaining the third emoticon by the first emoticon and the second emoticon; and first selecting the first emoticon, and then specifying the first emoticon and the second emoticon to obtain the first
  • the rules of the three emoticons are then specified in the second emoticon.
  • the method for the user to specify the rule for obtaining the third emoticon by the first emoticon pattern and the second emoticon pattern may be that the user selects from a list of rules provided by the communication software, including “the first emoticon is located at the first Second emoticon left", "first emoticon is located in the second emoticon
  • a variety of merge rules, such as the right side of the case, the change of the first emoticon gradient into the second emoticon, etc., may also be specified by gestures, such as shaking left and right to represent left and right merge, shaking up and down to represent upper and lower merge, etc.; It is a specialized command language to specify the merge rules.
  • Example 1 An emoticon example is used in Example 1 and Example 2 to illustrate the method. In addition to patterns, this method can also be used for other display elements such as audio and video files.
  • the user first selects the first display element as a "smiley face” emoticon; then selects the second display element as an audio file, and the content of the audio file is "no problem" of the voice.
  • the user combines the first display element "smiley face” with the "no problem” of the second display element voice to generate a third display element, which is a smiley face expression accompanied by "no problem" of the voice.
  • the user can also combine the "cry face” emoticon with the "no problem” voice to generate a "no problem” "cry face” expression with a voice, or a “cry face” emoticon and Other audio files are merged.
  • the content of an audio file is not necessarily a voice, but also a music, an animal sound, and the like.
  • Embodiment 1-3 two display elements are used to generate a third display element, and the third display element is used as a target display element. It is also possible to generate target display elements by using three or more display elements, and the generated method can also use the methods enumerated in the above embodiments.
  • the first display element is first selected as a “smile and cry” emoticon; then the second display element is selected as a “stool” emoticon. Then select the fourth display element, which is an audio file whose content is "no problem" of the voice. The user first merges the first display element "smile and cry” with the second display element "stool” to generate an expression pattern of "the laughing face of the head of the stool", as shown in FIG. Since it has been explained in Embodiment 1 how the two emoticons are combined to generate a new emoticon, the merging method will not be repeated here in detail.
  • the newly generated "smile of the head of the stool” expression is located in the communication message display area, not in the display element display area. Press and hold the newly generated “smile on the head of the stool", call out the bullet box, and select the "Merge” button, as shown in Figure 9. At this time, the newly generated “smile of the head of the stool” expression can be dragged and dragged to the fourth display element audio file and merged, as shown in FIG. After merging, a facial expression of "smiley face of the head of the stool” accompanied by the voice “no problem” is generated. The expression pattern of the "head and face stool” is accompanied by the voice “no problem" as the target display element, as shown in FIG.
  • the user can also use more display elements as the material for generating the display elements, and the generated method can also comprehensively apply the various methods in the embodiment and the foregoing embodiments, and all fall within the protection scope of the present application.
  • the generated method can also comprehensively apply the various methods in the embodiment and the foregoing embodiments, and all fall within the protection scope of the present application.
  • the embodiment of the present invention also proposes a display element generating device used in communication software.
  • the device includes:
  • the target display element generating means is configured to generate a target display element according to the at least two display elements, the target display element being different from any one of the at least two display elements.
  • Determining, by the display element determining means, at least two display elements provided by the communication software, and generating, by the target display element generating means, different from the at least two display elements according to the at least two display elements provided by the communication software A target display element.
  • a newly generated target display element different from the original display element is obtained, which expands the range of display elements that the user can use.
  • a display element determining device configured to determine the first display element and the second display element
  • the target display element generating means is configured to generate a third display element according to the first display element and the second display element, the third display element being different from any one of the first display element and the second display element.
  • Using two display elements to generate a target display element is relatively easy to operate, and can also generate a large number of target display elements, which in general can also meet the needs of users.
  • the first display element determined by the display element determining device is a first emoticon
  • the determined second display element is a second emoticon
  • the third display element generated by the target display element generating device is a third emoticon.
  • Emoticons are one of the most frequently used display elements, and using different emoticons to generate new emoticons can expand the number of available emoticons.
  • the display element determining device determines that the emoticon that the user has long pressed is the first emoticon, and determines that the emoticon that the user drags the first emoticon to the second emoticon.
  • the first display element determined by the display element determining device is a first emoticon
  • the determined second display element is The second audio file
  • the third display element generated by the target display element generating means is a first emoticon with a second audio file sound.
  • embodiments of the present invention can be provided as a method, system, or computer program product. Accordingly, the present invention may take the form of an entirely hardware embodiment, an entirely software embodiment, or a combination of software and hardware. Moreover, the invention can take the form of a computer program product embodied on one or more computer-usable storage media (including but not limited to disk storage, CD-ROM, optical storage, etc.) including computer usable program code.
  • computer-usable storage media including but not limited to disk storage, CD-ROM, optical storage, etc.
  • the computer program instructions can also be stored in a computer readable memory that can direct a computer or other programmable data processing device to operate in a particular manner, such that the instructions stored in the computer readable memory produce an article of manufacture comprising the instruction device.
  • the apparatus implements the functions specified in one or more blocks of a flow or a flow and/or block diagram of the flowchart.
  • These computer program instructions can also be loaded onto a computer or other programmable data processing device such that a series of operational steps are performed on a computer or other programmable device to produce computer-implemented processing for execution on a computer or other programmable device.
  • the instructions provide steps for implementing the functions specified in one or more of the flow or in a block or blocks of a flow diagram.
  • a computing device includes one or more processors (CPUs), input operations/output interfaces, network interfaces, and memory.
  • processors CPUs
  • input operations/output interfaces network interfaces
  • memory volatile and non-volatile memory
  • the memory may include non-persistent memory, random access memory (RAM), and/or non-volatile memory in a computer readable medium, such as read only memory (ROM) or flash memory.
  • RAM random access memory
  • ROM read only memory
  • Memory is an example of a computer readable medium.
  • Computer readable media includes both permanent and non-persistent, removable and non-removable media.
  • Information storage can be implemented by any method or technology.
  • the information can be computer readable instructions, data structures, modules of programs, or other data.
  • Examples of computer storage media include, but are not limited to, phase change memory (PRAM), static random access memory (SRAM), dynamic random access memory (DRAM), other types of random access memory (RAM), read only memory (ROM), electrically erasable programmable read only memory (EEPROM), flash memory, or other Memory technology, CD-ROM, digital versatile disc (DVD) or other optical storage, magnetic cassette, magnetic tape storage or other magnetic storage device or any other non-transportable medium, available for Stores information that can be accessed by the computing device.
  • PRAM phase change memory
  • SRAM static random access memory
  • DRAM dynamic random access memory
  • RAM random access memory
  • ROM read only memory
  • EEPROM electrically erasable programmable read only memory
  • flash memory or other Memory technology
  • CD-ROM digital versatile
  • embodiments of the present application can be provided as a method, system, or computer program product.
  • the present application can take the form of an entirely hardware embodiment, an entirely software embodiment or an embodiment in combination of software and hardware.
  • the application can take the form of a computer program product embodied on one or more computer-usable storage media (including but not limited to disk storage, CD-ROM, optical storage, etc.) including computer usable program code.

Abstract

本申请公开了一种通讯软件中展示要素的生成方法和装置、使用该方法生成的展示要素以及使用该展示要素的通讯软件。该生成方法包括确定至少两个展示要素,所述至少两个展示要素由所述通讯软件提供;根据所述至少两个展示要素,生成目标展示要素,所述目标展示要素不同于所述至少两个展示要素中任一个。通过本申请可以将通讯软件中的两个或多个展示要素合并以获得新的展示要素,从而极大的扩展了通讯软件中可使用的展示要素。

Description

展示要素生成方法、展示要素生成装置、展示要素和通讯软件
本申请要求2016年06月12日递交的申请号为201610407155.6、发明名称为“展示要素生成方法、展示要素生成装置、展示要素和通讯软件”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及计算机技术领域,尤其涉及一种通讯软件中展示要素的生成方法和装置、使用该方法或装置生成的展示要素以及使用该展示要素的通讯软件。
背景技术
在现代化的生活中,人们越来越频繁的使用各种通讯软件来进行相互交流,常用的通讯软件有QQ、微信、MSN、Foxmail、Outlook等。人们在使用通讯软件进行相互交流时,往往会使用各种展示要素,例如表情图案、音频、视频等。通过使用展示要素,相互交流更加活泼,可读性更高,也可以更好地表达使用者的情绪和思想。
在现有技术中,展示要素是预先存储在通讯软件中的。用户希望使用展示要素时,只能从通讯软件中预先存储的多个展示要素中选出一个来使用。例如,用户希望使用表情图案时,只能从通讯软件中预先存储的多个表情图案中选一个来使用。除了表情图案之外,用户有时也会发送通讯软件自带的其他图案,或是发送一些声音,视频等。
然而,无论是这些通讯软件中预先存储的表情图案,还是那些自带的其他展示要素,其数量均有限,内容固定,往往不能满足用户的需要。
发明内容
有鉴于此,本发明提供了一种通讯软件中展示要素的生成方法、使用该方法生成的展示要素以及使用该展示要素的通讯软件,其能够实现利用现有的展示要素获得多于现有展示要素的新的展示要素,从而极大的扩展了用户可用的展示要素。
本申请实施例提供一种使用于通讯软件中的展示要素生成方法,包括:
确定至少两个展示要素,所述至少两个展示要素由所述通讯软件提供;
根据所述至少两个展示要素,生成目标展示要素,所述目标展示要素不同于所述至少两个展示要素中任一个。
优选的,
所述确定至少两个展示要素包括:确定第一展示要素和第二展示要素;
所述根据所述至少两个展示要素,生成目标展示要素,包括:
根据所述第一展示要素和第二展示要素,生成第三展示要素,所述第三展示要素不同于所述第一展示要素和第二展示要素中任一个。
优选的,所述第一展示要素为第一表情图案,所述第二展示要素为第二表情图案,所述第三展示要素为第三表情图案。
优选的,
确定第一展示要素,包括:确定用户长按的表情图案为第一表情图案;
确定第二展示要素,包括:确定用户将第一表情图案拖拽至的表情图案为第二表情图案。
优选的,根据所述第一展示要素和第二展示要素,生成第三展示要素,包括以下步骤中的任意一个步骤:
将所述第一表情图案置于所述第二表情图案的左边、右边、上边或下边,生成第三表情图案;
生成所述第一表情图案渐变为所述第二表情图案的动态图案,或生成所述第二表情图案渐变为所述第一表情图案的动态图案,将生成的动态图案作为第三表情图案;
所述第三表情图案由所述第一表情图案或第二表情图案沿预定轨迹运动并合并第二表情图案或第一表情图案所形成;
所述第三表情图案由所述第一表情图案或所述第二表情图案移动、缩放、旋转、翻转或拉伸,并合并第二表情图案或第一表情图案所形成;
所述第三表情图案由所述第一表情图案覆盖所述第二表情图案部分,或由所述第二表情图案覆盖所述第一表情图案部分所形成。
优选的,根据所述第一展示要素和第二展示要素,生成第三展示要素,包括以下生成方法中的至少一种:
使用编辑窗口编辑所述第一表情图案和所述第二表情图案以生成所述第三表情图案;
根据由所述用户的手势确定的根据第一展示要素和第二展示要素生成第三展示要素的规则、第一展示要素和第二展示要素生成第三展示要素;
根据用户在规则列表中选择的规则、第一展示要素和第二展示要素生成第三展示要素,所述规则列表包含根据第一展示要素和第二展示要素生成第三展示要素的规则;
根据用户输入的命令语言确定根据第一展示要素和第二展示要素生成第三展示要素的规则,根据所述规则、第一展示要素和第二展示要素生成第三展示要素。
优选的,所述编辑窗口提供以下编辑方法中的至少一种:
单指点击选取表情图案的编辑方法;
单指拖拽移动表情图案的编辑方法;
双指缩放表情图案的编辑方法;
双指拉伸表情图案的编辑方法;
点中表情图案外边框旋转按钮旋转表情图案的编辑方法;
点中表情图案外边框翻转按钮翻转表情图案的编辑方法。
优选的,所述第一展示要素为第一表情图案,所述第二展示要素为第二音频文件,所述第三展示要素为带有第二音频文件声音的第一表情图案。
优选的,所述展示要素位于展示要素展示区内。
优选的,所述展示要素包括图案和音频。
本申请实施例还提供一种使用于通讯软件中的展示要素生成装置,该装置包括:
展示要素确定装置,用于确定至少两个展示要素,所述至少两个展示要素由所述通讯软件提供;
目标展示要素生成装置,用于根据所述至少两个展示要素,生成目标展示要素,所述目标展示要素不同于所述至少两个展示要素中任一个。
优选的,
所述确定至少两个展示要素包括:确定第一展示要素和第二展示要素;
所述根据所述至少两个展示要素,生成目标展示要素,包括:
根据所述第一展示要素和第二展示要素,生成第三展示要素,所述第三展示要素不同于所述第一展示要素和第二展示要素中任一个。
优选的,所述第一展示要素为第一表情图案,所述第二展示要素为第二表情图案,所述第三展示要素为第三表情图案。
优选的,确定第一展示要素,包括:
确定用户长按的表情图案为第一表情图案;
确定第二展示要素,包括:
确定用户将第一表情图案拖拽至的表情图案为第二表情图案。
优选的,所述第一展示要素为第一表情图案,所述第二展示要素为第二音频文件, 所述第三展示要素为带有第二音频文件声音的第一表情图案。
本申请实施例还提供一种展示要素,所述展示要素由前述方法或装置中任一条生成。
本申请实施例还提供一种通讯软件,所述通讯软件使用前述的展示要素。
本申请实施例采用的上述至少一个技术方案能够达到以下有益效果:
通过将现有的展示要素结合起来,可以生成大量的新的展示要素,从而给使用者提供了更多可选择的展示要素,扩展了用户的选择范围,从而,用户可以更好地选择合适自己的展示要素来用于通讯。同时,本发明操作简单方便,用户只需手指轻触就可以实施本发明。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请第一实施例流程图;
图2为第一实施例用户会话操作界面示意图;
图3为选中第一表情图案示意图;
图4为选中第二表情图案示意图;
图5为结合第一表情图案和第二表情图案,生成第三表情图案示意图;
图6A为另一例结合第一表情图案和第二表情图案示意图;
图6B为图6A结合后生成的第三表情图案示意图;
图7为结合第一表情图案和第二音频文件,生成第三展示要素示意图;
图8为选中由第一表情图案和第二表情图案结合生成的新表情图案和第四音频文件示意图;
图9为长按图8中的新表情图案并呼出弹框的示意图;
图10为图8中的新表情图案与第四音频文件合并生成第三展示要素示意图;
图11为图10中生成的第三展示要素示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在 没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本申请各实施例提供的技术方案。
实施例1
图1是本实施例方法的流程图,图2是一种本实施例使用的通讯软件的会话操作界面示意图。该会话操作界面包括位于上部的通讯消息展示区,位于通讯消息展示区之下的通讯消息输入区。当点击该图“通讯消息输入区”旁的表情图标时,将在“通讯消息输入区”下方的区域内呈现出许多表情图案,在本申请的实施例中,类似这种展现表情图案的区域称为展示要素展示区。一个具体的会话操作界面示例如图3所示。用户可以在展示要素展示区中选中一个展示要素,记为第一展示要素。本实施例中,选择一个表情图案作为第一展示要素,记为第一表情图案。有许多确定第一表情图案的方法,例如,用户可以双击选定或单击选定,长按选定,等等。本实施例中,采用长按一个表情图案以选中第一表情图案的方式。在图3中,用户选择的第一表情图案是“笑哭”的表情。
值得注意的是,展示要素展示区里的图案可以是一些常用图案或趣味图案,或者是软件从外部导入的图案或图案包、表情包。显然,用户也可以像选择表情图案一样选择这些图案,后续的任何用于表情图案的操作也可以同样的用于这些图案。由此可见,展示要素展示区里的图案都可以被认为是表情图案。
实际上,展示要素展示区内除可以展现图案外,还可以有音频文件,视频文件等其他展示要素。另一方面,也可以有展示要素位于展示要素展示区外,例如,对方发送的表情图案、人像、物象等也可以作为展示要素,而这一展示要素是位于展示要素展示区外的。
由以上陈述可知,除了展示要素展示区里的图案之外,展示要素展示区之外的图案一样也可以被认为是表情图案。
如图4所示,在已经确定第一表情图案的情况下,用户继续选择第二表情图案。用户长按第一表情图案不放,将其拖拽至第二表情图案上,这样就确定了第二表情图案。在图4中,用户选择的第二表情是“大便”的表情图案。通过以上步骤,就确定了至少两个表情图案(步骤S1)。
在现有的通讯软件技术中,比如QQ或者微信中,表情是不能拖动的。为了让表情变得可以拖动,需要将选中的表情脱离原有的展示要素展示区,在一个单独的视图中进行操作,这个视图在表情列表的视图之上。拖动表情在以下事件中完成:
按下表情即触发MoveStart事件,视图中被按下表情进入拖动状态(isMoving= YES),并设置当前被按下的表情即为要移动的表情(moveTarget=icon1);
手指在屏幕上移动时即不断触发Move事件。在此事件中,如果isMoving==YES则将moveTarget所指向的对象的坐标(x,y)的位置随手指位置变化而变化;否则,不做任何响应;
手动从屏幕移开时触发MoveEnd事件。此时将isMoving设置为NO,并设置要移动的表情moveTarget为null。
通过设置以上事件,就可以将表情变得可以拖动。
除了本实施例中长按第一表情不放将其拖拽至第二表情上以确定第二表情的方法,还有许多确定第二表情的方法,例如双击第二表情,按住第一表情不放并且按住第二表情等。这些方式都同样的落入本申请保护范围内。
将第一表情拖拽至第二表情上时,可以触发呈现一个编辑界面,如图4所示。这一编辑界面可以响应于用户的输入操作,编辑第一表情图案和第二表情图案以生成新的表情图案。称这一新生成的表情图案为第三表情图案。
编辑界面提供的编辑方法主要有:
1、表情图案选取,单指点击表情图案以选取表情图案;
2、表情图案移动,点击表情图案外边框会有高亮表示表情图案选中,此时单指拖拽即可完成移动;
3、表情图案缩放,双指缩放表情图案;
4、表情图案拉伸,双指拉伸表情图案;
5、表情图案旋转,通过点中外边框旋转按钮进行旋转;
6、表情图案翻转,通过点中外边框翻转按钮进行翻转;
7、返回,放弃操作返回表情列表。
值得注意的是,编辑界面可以不只提供上述这些编辑方法,也可以提供渐变、围绕自身不停旋转等动态画面编辑方法和其他本领域技术人员容易想到的方法,还可以有发送编辑完成的表情的功能。拥有这些编辑方法或功能的方法一样落入本申请保护范围内。
在本实施例中,用户将第二表情图案置于第一表情图案正上方,形成了第三表情图案(步骤S2),第三表情图案如图5所示,是一个“头顶大便的笑哭脸”。显然,该第三表情图片不同于第一表情图案或第二表情图案。
除了本实施例中将第二表情图案置于第一表情图案正上方形成第三表情图案的做法之外,还可以有许多形成第三表情图案的方法。例如:
将第一表情图案或第二表情图案移动、缩放、旋转、翻转、拉伸,并合并第二表情图案或第一表情图案,生成第三表情图案;
将第一表情图案或第二表情图案覆盖第二表情图案或第一表情图案部分,生成第三表情图案。
本发明可以只使用上述各种方法中的一种来生成第三表情图案,也可以综合使用其中的几种方法来生成第三表情图案,例如可以将第一表情图案移动至第二表情图案的左边,并且翻转第二表情图案,将得到的图案作为第三表情图案并发送;又例如可以将第一表情图案翻转并覆盖第二表情图案的上半部分,将得到的图案作为第三表情图案并发送。这些方法一样的落入本申请的保护范围之内。
用户在得到第三表情图案之后,可以将其发送,也可以选择不将其发送,而是保存起来,以备后续使用。这样的方法一样的落入本申请的保护范围之内。
通过使用本实施例中提出的方法,用户可以通过有限的展示要素,创造并使用出数目远超原有展示要素的新的展示要素。例如,假设通讯软件提供了N件展示要素,则两两相互组合就可以生成N*(N-1)件新的展示要素,数目远超过原有的N。如考虑到不同的组合方式,例如左右组合和上下组合会生成不同的新的展示要素,这个数字还可以继续扩大好几倍。从而,本方法极大的扩展了用户可以使用的展示要素,让通讯变得更加有趣,也更具有表现力。
另外,本发明还打破了现有技术的偏见。现有技术中,展示要素只能从已有的展示要素中选取,而通过本发明中的方法,还可以使用并非原有展示要素的新的展示元素。而且,本方法操作简便,用户只需要轻触屏幕即可实施。
实施例2
实施例1中使用了一个编辑窗口来响应于用户的输入操作以编辑第一表情图案和第二表情图案并获得第三表情图案。在本实施例中,不使用编辑窗口来响应于用户的输入操作进行编辑,而是使用别的方式来确定由第一表情图案和第二表情图案来获得第三表情图案的规则。例如,直接设定第三表情图案为第一表情图案位于第二表情图案左侧且紧贴的图案。
如图6A所示,首先长按选取第一表情,为一个“夜晚的月亮”,再拖拽选取第二表情,为一个“睡眠”。这时自动生成第三表情图案,为第一表情图案的“夜晚的月亮”紧贴在第二表情图案的“睡眠”左侧,形成了一个“月夜睡眠”的表情图案,如图6B所示。将该“月夜睡眠”的表情图案作为第三表情发送。
除了本实施例中指定的第三表情生成规则,还可以指定许多其他的表情生成规则,例如:
规则一:将所述第一表情图案置于所述第二表情图案的左边、右边、上边或下边,生成第三表情图案;
规则二:生成所述第一表情图案渐变为所述第二表情图案的动态图案,或生成所述第二表情图案渐变为所述第一表情图案的动态图案,将生成的动态图案作为第三表情图案;
规则三:所述第三表情图案由所述第一表情图案或第二表情图案沿预定轨迹运动并合并第二表情图案或第一表情图案所形成;
规则四:所述第三表情图案由所述第一表情图案或所述第二表情图案移动、缩放、旋转、翻转或拉伸,并合并第二表情图案或第一表情图案所形成;
规则五:所述第三表情图案由所述第一表情图案覆盖所述第二表情图案部分,或由所述第二表情图案覆盖所述第一表情图案部分所形成。
可以只使用上述各种规则中的一种来生成第三表情图案,也可以综合使用其中的几种规则来生成第三表情图案,例如第三表情图案为所述第一表情图案绕着所述第二表情图案转圈,同时第二表情图案自身在不停的上下翻转;又例如第三表情图案为所述第一表情图案自身在不停的旋转并覆盖第二表情图案的上半部分;又例如第一表情图案是一张“笑脸”,第二表情图案是一张“哭脸”,而第三表情图案是一张由“笑脸”渐变的变化为“哭脸”的图案,即一张“先笑后哭”的表情图案。这些方法一样的落入本申请的保护范围之内。
值得注意的是,虽然实施例1和实施例2中,选中的第一表情图案和第二表情图案都是静态图案,然而本方法并不止适用于静态图案,一样也适用于动态图案,本方法所生成的第三图案也并不只限于静态图案,一样也可以是动态图案。
在本实施例中,用户可以先指定由第一表情图案和第二表情图案来获得第三表情图案的规则,然后选取第一表情图案和第二表情图案;也可以先选取第一表情图案和第二表情图案,然后指定由第一表情图案和第二表情图案来获得第三表情图案的规则;还可以先选取第一表情图案,然后指定由第一表情图案和第二表情图案来获得第三表情图案的规则,然后再指定第二表情图案。用户指定由第一表情图案和第二表情图案来获得第三表情图案的规则的方法可以是用户从一张规则列表中选取,该规则列表由通讯软件提供,包含了“第一表情图案位于第二表情图案左方”、“第一表情图案位于第二表情图 案右方”、“第一表情图案渐变的变化成第二表情图案”等多种合并规则;也可以是采用手势来指定,例如左右摇晃代表左右合并,上下摇晃代表上下合并,等;还可以是专门的命令语言来指定合并规则。这些方法都落入本申请的保护范围之内。
实施例3
实施例1和实施例2中使用了表情图案举例来说明本方法。除了图案之外,本方法也可用于其他展示要素,如声频和视频文件等。
如图7所示,用户首先选择第一展示要素,为一“笑脸”表情图案;然后选择第二展示要素,为一段音频文件,该音频文件的内容是语音的“没问题”。用户将第一展示要素“笑脸”和第二展示要素语音的“没问题”合并,生成第三展示要素,该第三展示要素是一个笑脸的表情,同时伴有语音的“没问题”。
同样的,用户也可以将“哭脸”的表情图案和“没问题”的语音合并,生成伴有语音的“没问题”的“哭脸”表情,或是将“哭脸”的表情图案和其他的音频文件合并。音频文件的内容也不一定是语音,也可以是音乐,动物声,等。这些方法都落入本申请的保护范围之内。
实施例4
实施例1-3中使用两个展示要素来生成第三展示要素,并将第三展示要素作为目标展示要素。也可以用三个或更多的展示要素来生成目标展示要素,生成的方法也可以综合使用上述实施例中列举的方法。
本实施例中,首先选择第一展示要素,为一“笑哭”表情图案;然后选择第二展示要素,为一“大便”表情图案。然后选择第四展示要素,为一段音频文件,该音频文件的内容是语音的“没问题”。用户首先将第一展示要素“笑哭”和第二展示要素“大便”合并,生成一个“头顶大便的笑哭脸”的表情图案,如图8所示。由于在实施例1中已经阐述过如何将两表情图案合并生成一新的表情图案,故此处不再重复详细阐述该合并方法。
与前述实施例不同的是,此新生成的“头顶大便的笑哭脸”的表情图案位于通讯消息展示区内,而不是位于展示要素展示区内。长按该新生成的“头顶大便的笑哭脸”的表情图案,呼出弹框,选中“合并”按钮,如图9所示。此时可拖拽该新生成的“头顶大便的笑哭脸”的表情图案,将其拖拽至第四展示要素音频文件并合并,如图10所示。合并后生成一伴有语音“没问题”的“头顶大便的笑哭脸”的表情图案。将该伴有语音“没问题”的“头顶大便的笑哭脸”的表情图案作为目标展示要素,如图11所示。
显然,用户还可以依据需要使用更多的展示要素作为生成展示要素的素材,生成的方法也可以综合运用本实施例和前述实施例中的各种方法,并且都落入本申请的保护范围之内。
实施例5
基于上述详细分析,本发明实施方式还提出了一种使用于通讯软件中的展示要素生成装置。该装置包括:
展示要素确定装置,用于确定至少两个展示要素,所述至少两个展示要素由所述通讯软件提供;
目标展示要素生成装置,用于根据所述至少两个展示要素,生成目标展示要素,所述目标展示要素不同于所述至少两个展示要素中任一个。
使用展示要素确定装置确定由通讯软件提供的至少两个展示要素,并根据所述由通讯软件提供的至少两个展示要素,使用目标展示要素生成装置生成不同于所述至少两个展示要素中任一个的目标展示要素。从而,就获得了不同于原有展示要素的新生成的目标展示要素,扩大了用户可以使用的展示要素的范围。
在一个实施方式中:
展示要素确定装置,用于确定第一展示要素和第二展示要素;
目标展示要素生成装置,用于根据第一展示要素和第二展示要素,生成第三展示要素,所述第三展示要素不同于所述第一展示要素和第二展示要素中任一个。
使用两个展示要素来生成目标展示要素在操作上会比较简便,并且也能产生大量的目标展示要素,在一般情况下也可以满足用户的需求。
在一个实施方式中:
展示要素确定装置确定的第一展示要素为第一表情图案,所确定的第二展示要素为第二表情图案,目标展示要素生成装置所生成的第三展示要素为第三表情图案。
表情图案是使用频率最高的展示要素之一,使用不同的表情图案来生成新的表情图案可以扩展可用的表情图案的数量。
在一个实施方式中:
展示要素确定装置确定用户长按的表情图案为第一表情图案,确定用户将第一表情图案拖拽至的表情图案为第二表情图案。
在一个实施方式中:
展示要素确定装置确定的第一展示要素为第一表情图案,所确定的第二展示要素为 第二音频文件,目标展示要素生成装置所生成的第三展示要素为带有第二音频文件声音的第一表情图案。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入操作/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器 (SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且包括没有明确列出的其他要素,或者是包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (16)

  1. 一种使用于通讯软件中的展示要素生成方法,其特征在于,该方法包括:
    确定至少两个展示要素,所述至少两个展示要素由所述通讯软件提供;
    根据所述至少两个展示要素,生成目标展示要素,所述目标展示要素不同于所述至少两个展示要素中任一个。
  2. 如权利要求1所述的方法,其特征在于,
    所述确定至少两个展示要素包括:确定第一展示要素和第二展示要素;
    所述根据所述至少两个展示要素,生成目标展示要素,包括:
    根据所述第一展示要素和第二展示要素,生成第三展示要素,所述第三展示要素不同于所述第一展示要素和第二展示要素中任一个。
  3. 如权利要求2所述的方法,其特征在于,所述第一展示要素为第一表情图案,所述第二展示要素为第二表情图案,所述第三展示要素为第三表情图案。
  4. 如权利要求3所述的方法,其特征在于,
    确定第一展示要素,包括:确定用户长按的表情图案为第一表情图案;
    确定第二展示要素,包括:确定用户将第一表情图案拖拽至的表情图案为第二表情图案。
  5. 如权利要求3或4所述的方法,其特征在于,根据所述第一展示要素和第二展示要素,生成第三展示要素,包括以下步骤中的任意一个步骤:
    将所述第一表情图案置于所述第二表情图案的左边、右边、上边或下边,生成第三表情图案;
    生成所述第一表情图案渐变为所述第二表情图案的动态图案,或生成所述第二表情图案渐变为所述第一表情图案的动态图案,将生成的动态图案作为第三表情图案;
    所述第三表情图案由所述第一表情图案或第二表情图案沿预定轨迹运动并合并第二表情图案或第一表情图案所形成;
    所述第三表情图案由所述第一表情图案或所述第二表情图案移动、缩放、旋转、翻转或拉伸,并合并第二表情图案或第一表情图案所形成;
    所述第三表情图案由所述第一表情图案覆盖所述第二表情图案部分,或由所述第二表情图案覆盖所述第一表情图案部分所形成。
  6. 如权利要求3或4所述的方法,其特征在于,根据所述第一展示要素和第二展示要素,生成第三展示要素,包括以下生成方法中的至少一种:
    使用编辑窗口编辑所述第一表情图案和所述第二表情图案以生成所述第三表情图案;
    根据由用户的手势确定的根据第一展示要素和第二展示要素生成第三展示要素的规则、第一展示要素和第二展示要素生成第三展示要素;
    根据用户在规则列表中选择的规则、第一展示要素和第二展示要素生成第三展示要素,所述规则列表包含根据第一展示要素和第二展示要素生成第三展示要素的规则;
    根据用户输入的命令语言确定根据第一展示要素和第二展示要素生成第三展示要素的规则,根据所述规则、第一展示要素和第二展示要素生成第三展示要素。
  7. 如权利要求6所述的方法,其特征在于,所述编辑窗口提供以下编辑方法中的至少一种:
    单指点击选取表情图案的编辑方法;
    单指拖拽移动表情图案的编辑方法;
    双指缩放表情图案的编辑方法;
    双指拉伸表情图案的编辑方法;
    点中表情图案外边框旋转按钮旋转表情图案的编辑方法;
    点中表情图案外边框翻转按钮翻转表情图案的编辑方法。
  8. 如权利要求2所述的方法,其特征在于,所述第一展示要素为第一表情图案,所述第二展示要素为第二音频文件,所述第三展示要素为带有第二音频文件声音的第一表情图案。
  9. 如权利要求1所述的方法,其特征在于,所述展示要素位于所述通讯软件展示要素展示区内。
  10. 一种使用于通讯软件中的展示要素生成装置,其特征在于,该装置包括:
    展示要素确定装置,用于确定至少两个展示要素,所述至少两个展示要素由所述通讯软件提供;
    目标展示要素生成装置,用于根据所述至少两个展示要素,生成目标展示要素,所述目标展示要素不同于所述至少两个展示要素中任一个。
  11. 如权利要求10所述的装置,其特征在于,
    所述确定至少两个展示要素包括:确定第一展示要素和第二展示要素;
    所述根据所述至少两个展示要素,生成目标展示要素,包括:
    根据所述第一展示要素和第二展示要素,生成第三展示要素,所述第三展示要素不 同于所述第一展示要素和第二展示要素中任一个。
  12. 如权利要求11所述的装置,其特征在于,所述第一展示要素为第一表情图案,所述第二展示要素为第二表情图案,所述第三展示要素为第三表情图案。
  13. 如权利要求12所述的装置,其特征在于,确定第一展示要素,包括:
    确定用户长按的表情图案为第一表情图案;
    确定第二展示要素,包括:
    确定用户将第一表情图案拖拽至的表情图案为第二表情图案。
  14. 如权利要求11所述的装置,其特征在于,所述第一展示要素为第一表情图案,所述第二展示要素为第二音频文件,所述第三展示要素为带有第二音频文件声音的第一表情图案。
  15. 一种展示要素,其特征在于,所述展示要素为根据权利要求1-14中任一项方法或装置生成的目标展示要素。
  16. 一种通讯软件,其特征在于,所述通讯软件使用如权利要求15所述的展示要素。
PCT/CN2017/086820 2016-06-12 2017-06-01 展示要素生成方法、展示要素生成装置、展示要素和通讯软件 WO2017215449A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610407155.6A CN106888153A (zh) 2016-06-12 2016-06-12 展示要素生成方法、展示要素生成装置、展示要素和通讯软件
CN201610407155.6 2016-06-12

Publications (1)

Publication Number Publication Date
WO2017215449A1 true WO2017215449A1 (zh) 2017-12-21

Family

ID=59175929

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/086820 WO2017215449A1 (zh) 2016-06-12 2017-06-01 展示要素生成方法、展示要素生成装置、展示要素和通讯软件

Country Status (3)

Country Link
CN (1) CN106888153A (zh)
TW (1) TWI658395B (zh)
WO (1) WO2017215449A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113438150A (zh) * 2021-07-20 2021-09-24 网易(杭州)网络有限公司 一种表情发送方法和装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107479784B (zh) * 2017-07-31 2022-01-25 腾讯科技(深圳)有限公司 表情展示方法、装置及计算机可读存储介质
CN108600089B (zh) * 2018-04-20 2020-06-30 维沃移动通信有限公司 一种表情图像的显示方法及终端设备
CN111324273A (zh) * 2018-12-13 2020-06-23 鸿合科技股份有限公司 一种媒体显示实现方法及装置
CN110618770B (zh) * 2019-09-10 2020-12-25 北京达佳互联信息技术有限公司 一种对象的输入控制方法、装置、设备及介质
CN111966804A (zh) * 2020-08-11 2020-11-20 深圳传音控股股份有限公司 一种表情处理方法、终端及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101072207A (zh) * 2007-06-22 2007-11-14 腾讯科技(深圳)有限公司 即时通讯工具中的交流方法及即时通讯工具
CN101420393A (zh) * 2008-12-10 2009-04-29 腾讯科技(深圳)有限公司 基于即时通信实现表情编辑的方法及基于即时通信的终端
CN102904799A (zh) * 2012-10-12 2013-01-30 上海量明科技发展有限公司 即时通信中图标触发流媒体数据录制的方法及客户端
CN104079468A (zh) * 2013-03-25 2014-10-01 腾讯科技(深圳)有限公司 动画传输方法和系统
US20150222617A1 (en) * 2014-02-05 2015-08-06 Facebook, Inc. Controlling Access to Ideograms

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101072207A (zh) * 2007-06-22 2007-11-14 腾讯科技(深圳)有限公司 即时通讯工具中的交流方法及即时通讯工具
CN101420393A (zh) * 2008-12-10 2009-04-29 腾讯科技(深圳)有限公司 基于即时通信实现表情编辑的方法及基于即时通信的终端
CN102904799A (zh) * 2012-10-12 2013-01-30 上海量明科技发展有限公司 即时通信中图标触发流媒体数据录制的方法及客户端
CN104079468A (zh) * 2013-03-25 2014-10-01 腾讯科技(深圳)有限公司 动画传输方法和系统
US20150222617A1 (en) * 2014-02-05 2015-08-06 Facebook, Inc. Controlling Access to Ideograms

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113438150A (zh) * 2021-07-20 2021-09-24 网易(杭州)网络有限公司 一种表情发送方法和装置
CN113438150B (zh) * 2021-07-20 2022-11-08 网易(杭州)网络有限公司 一种表情发送方法和装置

Also Published As

Publication number Publication date
CN106888153A (zh) 2017-06-23
TWI658395B (zh) 2019-05-01
TW201804308A (zh) 2018-02-01

Similar Documents

Publication Publication Date Title
WO2017215449A1 (zh) 展示要素生成方法、展示要素生成装置、展示要素和通讯软件
JP6991283B2 (ja) アバター作成ユーザインターフェース
US11921978B2 (en) Devices, methods, and graphical user interfaces for navigating, displaying, and editing media items with multiple display modes
KR102283613B1 (ko) 아바타 생성 사용자 인터페이스
AU2021200655B9 (en) Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
DK180130B1 (da) Multi-participant live communication user interface
US11042266B2 (en) Media browsing user interface with intelligently selected representative media items
JP6538223B2 (ja) メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
JP6609361B2 (ja) 複数参加者ライブ通信ユーザインターフェース
JP2022008989A (ja) メディア及びロケーションのキャプチャ及び伝送のためのメッセージユーザインタフェース
CN104487928B (zh) 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
JP2019215874A (ja) 文脈的関連メディアコンテンツを検索するためのユーザインタフェース
US9372701B2 (en) Management of digital information via a buoyant interface moving in three-dimensional space
TW201600980A (zh) 管理具有時間線的日曆事件
JP2022520094A (ja) インタフェース表示方法及びその装置、端末並びにコンピュータプログラム
JP7076000B2 (ja) スクロール及び選択の高速化
CN106681584A (zh) 一种优化应用显示的方法及终端
AU2023201250B2 (en) Avatar navigation, library, editing and creation user interface
CN107077347B (zh) 视图管理架构
US20160011735A1 (en) Dynamic action selection for touch screens
CN112925458B (zh) 信息处理方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17812560

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17812560

Country of ref document: EP

Kind code of ref document: A1