CN113168282A - 用于生成增强现实表情符号的电子装置及其方法 - Google Patents

用于生成增强现实表情符号的电子装置及其方法 Download PDF

Info

Publication number
CN113168282A
CN113168282A CN201980080435.2A CN201980080435A CN113168282A CN 113168282 A CN113168282 A CN 113168282A CN 201980080435 A CN201980080435 A CN 201980080435A CN 113168282 A CN113168282 A CN 113168282A
Authority
CN
China
Prior art keywords
emoticon
electronic device
displaying
stroke input
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980080435.2A
Other languages
English (en)
Inventor
辛相旻
权五允
尹德均
李智雨
林然旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN113168282A publication Critical patent/CN113168282A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

某些实施例包括一种电子装置,所述电子装置包括外壳、通过外壳的一部分可见的触摸屏显示器、被设置在外壳内并与触摸屏显示器可操作地连接的至少一个处理器;以及被设置在外壳内并与处理器可操作地连接的存储器,其中,存储器存储指令,当指令被执行时,使得所述至少一个处理器执行多个操作,所述多个操作包括:通过触摸屏显示器,在能够接收至少一个第一笔划输入的窗口上显示第一增强现实(AR)表情符号;在窗口上显示第一AR表情符号的同时,接收至少一个第一笔划输入;以及至少部分地基于所述至少一个第一笔划输入的位置和形状,显示第二AR表情符号。

Description

用于生成增强现实表情符号的电子装置及其方法
技术领域
本公开涉及一种用于生成增强现实(AR)表情符号的电子装置及其方法。
背景技术
书面交流缺乏人际交流的多个方面。在人际交流中,完全相同的单词可传达不同的含义,这取决于各种其他因素。例如,当说话者生气时,相同的单词可以具有与当用户高兴时不同的含义。对于讽刺,所传达的含义与所使用的词语完全相反。对于诸如文本的书面交流,读者不会受益于观察作者的态度和语境以辨别作者可能传达的各种含义中的哪一个。
上述信息仅作为背景技术信息呈现,以帮助理解本公开。关于上述内容中的任何一个是否可以作为关于本公开的现有技术适用,没有做出任何确定,也没有做出断言。
发明内容
技术问题
为了表达用户的情绪,电子装置可以将指示特定姿势的AR表情符号(或AR表情符号的图像)发送到外部电子装置。为了发送指示姿势的AR表情符号,电子装置可以通过显示器显示指示若干预定的不同姿势的AR表情符号的列表。显示器可以接收从所显示的列表中选择一个AR表情符号的用户输入。随着指示姿势的AR表情符号的种类的数量增加以表达用户的更多情绪,要通过显示器显示的AR表情符号的数量也增加。这可能增加选择用户想要的AR表情符号所需的时间。此外,存储更多的AR表情符号消耗更多的存储器。
本公开的各方面可以至少解决上述问题和/或缺点,并且至少提供下面描述的优点。因此,本公开的一个方面是提供一种用于根据在显示器上接收的笔划输入来生成指示姿势的AR表情符号的电子装置和方法。
问题的解决方案
根据本公开的一个方面,一种电子装置包括:外壳;触摸屏显示器,通过外壳的一部分可见;至少一个处理器,被设置在外壳内部并与触摸屏显示器可操作地连接;以及存储器,被设置在外壳内并与处理器可操作地连接,其中,存储器存储指令,当执行指令时,使得所述至少一个处理器执行多个操作,所述多个操作包括:通过触摸屏显示器,在能够接收至少一个第一笔划输入的窗口上显示第一增强现实(AR)表情符号,在窗口上显示第一AR表情符号的同时,接收至少一个第一笔划输入,以及至少部分地基于所述至少一个第一笔划输入的位置和形状,显示第二AR表情符号。
根据本公开的另一方面,一种电子装置的方法包括:在被配置为接收至少一个第一笔划输入的窗口上显示第一AR表情符号;在窗口上接收所述至少一个第一笔划输入;以及至少部分地基于所述至少一个第一笔划输入的位置和形状,显示第二AR表情符号。
根据本公开的另一方面,一种电子装置包括:外壳;触摸屏显示器,通过外壳的一部分可见;无线通信电路,被设置在所述外壳内,并且被配置为与外部服务器通信;至少一个处理器,被设置在所述外壳内并且与显示器和无线通信电路可操作地连接;以及存储器,被设置在外壳内并与所述至少一个处理器可操作地连接,其中,存储器存储指令,当指令被执行时,使得至少一个处理器执行包括以下操作的多个操作:通过显示器,在能够接收至少一个第一笔划输入的窗口上显示不指示姿势的第一增强现实(AR)表情符号;在窗口上显示第一AR表情符号的同时,接收所述至少一个第一笔划输入;通过无线通信电路发送关于所述至少一个第一笔划输入的信息到外部服务器;通过无线通信电路从外部服务器接收关于第二AR表情符号的信息,其中,第二AR表情符号指示与所述至少一个第一笔划输入对应的姿势;至少部分地基于关于所接收的第二AR表情符号的信息,通过显示器显示第二AR表情符号;在显示第二AR表情符号的同时,接收用于发送第二AR表情符号的第一用户输入;响应于所接收的第一用户输入,生成包括第二AR表情符号的第一图像文件;并且通过无线通信电路发送生成的第一图像文件到外部电子装置。通过以下结合附图公开了本公开的某些实施例的详细描述,本公开的其他方面、优点和显著特征对于本领域技术人员将变得显而易见。
本发明的有益效果
根据本公开的实施例,电子装置可以根据笔划输入生成指示姿势的AR表情符号,从而减少用户选择AR表情符号所需的时间并提供用户的唯一的AR图像。
根据本公开的实施例,电子装置可以与外部服务器共享关于AR表情符号的信息,从而提高电子装置的存储器效率。
此外,可以提供通过本公开直接地或间接地被理解的各种效果。
附图说明
通过以下结合附图的描述,本公开的某些实施例的上述和其他方面、特征和优点将更加明显,其中:
图1示出了根据某些实施例的网络环境中的电子装置的框图;
图2是根据某些实施例的包括数字笔的电子装置的透视图;
图3示出了根据某些实施例的数字笔的框图;
图4是根据某些实施例的数字笔的分解透视图;
图5是根据某些实施例的电子装置的框图;
图6示出了根据某些实施例的电子装置基于第一笔划输入生成指示姿势的AR表情符号的操作;
图7示出了根据某些实施例的合成贴纸图像和背景图像的AR表情符号;
图8示出了根据某些实施例的电子装置基于第一笔划输入生成AR表情符号的操作;
图9示出了根据某些实施例的电子装置确定合成的AR表情符号的类型的操作;
图10示出了基于第一笔划输入的指示姿势的AR表情符号的另一示例;
图11示出了根据某些实施例的电子装置基于第一笔划输入发送包括AR表情符号的图像文件的操作流程图;
图12示出了根据某些实施例的电子装置执行与发送消息相关联的功能的操作;
图13示出了根据某些实施例的电子装置提供与所接收的第一笔划输入对应的输出笔划淡出的效果的操作;
图14示出了根据某些实施例的电子装置将与第二笔划输入对应的字符和AR表情符号一起显示的操作;以及
图15示出了展示根据某些实施例的在电子装置和外部服务器之间发送关于AR表情符号信息的信号流的流程图。
关于附图的描述,类似的组件可以用类似的附图标记来标记。
具体实施方式
电子装置可以通过使用相机来识别用户的外表(例如,他/她的面部、他/她的身体或用户佩戴的配件中的至少一个),并且可以基于所识别的用户的外表来生成三维AR表情符号。电子装置可以通过AR表情符号向用户提供个性化表情图示。
在下文中,将参考附图描述本公开的某些实施例。然而,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以对本文描述的某些实施例进行各种修改、等同和/或替代。
图1是示出了根据某些实施例的网络环境100中的电子装置101的框图。参考图1,网络环境100中的电子装置101可以经由第一网络198(例如,短距离无线通信网络)与电子装置102通信,或者经由第二网络199(例如,远距离无线通信网络)与电子装置104或服务器108通信。根据实施例,电子装置101可以经由服务器108与电子装置104通信。根据实施例,电子装置101可以包括处理器120、存储器130、输入装置150、声音输出装置155、显示装置160、音频模块170、传感器模块176、接口177、触觉模块179、相机模块180、电源管理模块188、电池189、通信模块190、用户识别模块(SIM)196或天线模块197。在一些实施例中,可以从电子装置101中省略组件中的至少一个(例如,显示装置160或相机模块180),或者可以在电子装置101中添加一个或更多个其他组件。在一些实施例中,一些组件可以被实现为单个集成电路。例如,传感器模块176(例如,指纹传感器、虹膜传感器或照度传感器)可以被实现为嵌入在显示装置160(例如,显示器)中。
处理器120可以执行例如软件(例如,程序140)以控制与处理器120耦接的电子装置101的至少一个其他组件(例如,硬件或软件组件),并且可以执行各种数据处理或计算。根据一个实施例,作为数据处理或计算的至少一部分,处理器120可以将从另一组件(例如,传感器模块176或通信模块190)接收的命令或数据加载到易失性存储器132中,处理存储在易失性存储器132中的命令或数据,并将结果数据存储在非易失性存储器134中。根据实施例,处理器120可以包括主处理器121(例如,中央处理单元(CPU)或应用处理器(AP))以及可独立于主处理器121操作或与主处理器121一起操作的辅助处理器123(例如,图形处理单元(GPU)、图像信号处理器(ISP)、传感器集线器处理器或通信处理器(CP))。另外地或替代地,辅助处理器123可以被调整为比主处理器121消耗更少的功率,或者专用于特定的功能。辅助处理器123可以被实现为与主处理器121分离或作为主处理器121的一部分。应当理解,术语“处理器120”可以包括单个处理器或一起起作用的多个处理器120。
辅助处理器123可以在主处理器121处于非活动(例如,睡眠)状态时代替主处理器121控制与电子装置101的组件中的至少一个组件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些,或者在主处理器121处于活动状态(例如,执行应用)时与主处理器121一起控制。根据实施例,辅助处理器123(例如,图像信号处理器或通信处理器)可以被实现为在功能上与辅助处理器123相关的另一组件(例如,相机模块180或通信模块190)的一部分。
存储器130可以存储由电子装置101的至少一个组件(例如,处理器120或传感器模块176)使用的各种数据。各种数据可以包括例如软件(例如,程序140)和用于与其相关的命令的输入数据或输出数据。存储器130可以包括易失性存储器132或非易失性存储器134。
程序140可以作为软件存储在存储器130中,并且可以包括例如操作系统(OS)142、中间件144或应用146。
输入装置150可以从电子装置101的外部(例如,用户)接收要由电子装置101的其他组件(例如,处理器120)使用的命令或数据。输入装置150可以包括例如麦克风、鼠标、键盘或数字笔(例如,手写笔)。
声音输出装置155可以将声音信号输出到电子装置101的外部。声音输出装置155可以包括例如扬声器或接收器。扬声器可以用于一般目的,诸如播放多媒体或播放记录,并且接收器可以用于呼入。根据实施例,接收器可以被实现为与扬声器分离或作为扬声器的一部分。
显示装置160可以在视觉上提供信息到电子装置101的外部(例如,用户)。显示装置160可以包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施例,显示装置160可以包括适于检测触摸的触摸电路,或者适于测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块170可以将声音转换为电信号,反之亦然。根据实施例,音频模块170可以经由输入装置150获得声音,或者经由声音输出装置155或与电子装置101直接(例如,有线地)或无线地耦接的外部电子装置(例如,电子装置102)的耳机输出声音。
传感器模块176可以检测电子装置101的操作状态(例如,电源或温度)或电子装置101外部的环境状态(例如,用户的状态),然后生成与检测到的状态对应的电信号或数据值。根据实施例,传感器模块176可以包括例如姿势传感器、陀螺仪传感器、大气压传感器、磁传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物测定传感器、温度传感器、湿度传感器或照度传感器。
接口177可以支持用于电子装置101直接(例如,有线地)或无线地与外部电子装置(例如,电子装置102)耦接的一个或更多个指定协议。根据实施例,接口177可以包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接终端178可以包括连接器,电子装置101可以经由该连接器与外部电子装置(例如,电子装置102)物理连接。根据实施例,连接终端178可以包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块179可以将电信号转换成可以由用户经由他的触感或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块179可以包括例如马达、压电元件或电刺激器。
相机模块180可以捕获静态图像或运动图像。根据实施例,相机模块180可以包括一个或更多个镜头、图像传感器、图像信号处理器或闪光灯。
电源管理模块188可管理供应给电子装置101的电源。根据一个实施例,电源管理模块188可以被实现为例如电源管理集成电路(PMIC)的至少一部分。
电池189可以向电子装置101的至少一个组件供电。根据实施例,电池189可以包括例如不可再充电的原电池、可再充电的蓄电池或燃料电池。
通信模块190可以支持在电子装置101与外部电子装置(例如,电子装置102、电子装置104或服务器108)之间建立直接(例如,有线)通信信道或无线通信信道,并且经由所建立的通信信道执行通信。通信模块190可以包括可独立于处理器120(例如,应用处理器(AP))操作并且支持直接(例如,有线)通信或无线通信的一个或更多个通信处理器。根据实施例,通信模块190可以包括无线通信模块192(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的对应的一个通信模块可以经由第一网络198(例如,短程通信网络,诸如诸如蓝牙TM、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络199(例如,远距离通信网络,诸如蜂窝网络、互联网或计算机网络(例如,LAN或广域网(WAN)))与外部电子装置通信。这些各种类型的通信模块可以被实现为单个组件(例如,单个芯片),或者可以被实现为彼此分离的多个组件(例如,多个芯片)。无线通信模块192可以使用存储在用户识别模块196中的用户信息(例如,国际移动用户身份(IMSI))来识别和认证通信网络(诸如第一网络198或第二网络199)中的电子装置101。
天线模块197可以向电子装置101的外部(例如,外部电子装置)发送信号或功率或者从电子装置101的外部(例如,外部电子装置)接收信号或功率。根据实施例,天线模块197可以包括天线,该天线包括包括形成在基板(例如,PCB)中或基板上的导电材料或导电图案构成的辐射元件。根据实施例,天线模块197可以包括多个天线。在这种情况下,可以例如由通信模块190(例如,无线通信模块192)从多个天线中选择适合于在诸如第一网络198或第二网络199的通信网络中使用的通信方案的至少一个天线。然后可以经由所选择的至少一个天线在通信模块190和外部电子装置之间发送或接收信号或功率。根据实施例,除了辐射元件之外的另一组件(例如,射频集成电路(RFIC))可以额外被形成为天线模块197的一部分。
上述组件中的至少一些可以相互耦接并且经由外围通信方案(例如,总线、通用输入和输出(GPIO)、串行外围接口(SPI)或移动工业处理器接口(MIPI))在它们之间传送信号(例如,命令或数据)。
根据实施例,可以经由与第二网络199耦接的服务器108在电子装置101和外部电子装置104之间发送或接收命令或数据。电子装置102和104中的每一个可以是与电子装置101相同类型或不同类型的装置。根据实施例,可以在外部电子装置102、104或108中的一个或跟多个处执行要在电子装置101处执行的所有或一些操作。例如,在电子装置101应该自动执行功能或服务的情况下,或者响应于来自用户或另一装置的请求,电子装置101可以请求一个或跟多个外部电子装置执行功能或服务的至少一部分,而不是执行功能或服务,或者除了执行功能或服务之外,还可以请求一个或更多个外部电子装置执行功能或服务的至少一部分。接收请求的一个或更多个外部电子装置可以执行所请求的功能或服务的至少一部分,或者与请求相关的附加功能或附加服务,并将执行的结果传送到电子装置101。电子装置101可以在对结果进行进一步处理或不进行进一步处理的情况下提供结果,作为对该请求的回复的至少一部分。为此,例如,可以使用云计算、分布式计算或客户端-服务器计算技术。
用户可以使用电子装置101以各种方式与其他人通信,包括诸如SMS/MMS文本的书面消息、使用诸如Facebook或WhatsApp的应用程序的越顶消息、以及电子邮件等。为了更好地传达用户的消息,书面消息可以包括由电子装置101至少部分地基于显示器上的笔划输入而生成的表情符号。在某些实施例中,笔划输入可以由数字笔或手写笔进行。图2示出了容纳数字笔的电子装置101。图3和4描述了数字笔。
具有数字笔的电子装置
图2是根据某些实施例的包括数字笔201的电子装置101的透视图。
参考图2,根据实施例的电子装置101可以包括图1所示的配置,并且可以包括能够插入数字笔201(例如,手写笔)的结构。电子装置101可以包括外壳110,并且可以在外壳110的一部分(例如,侧表面110C的一部分)处包括孔111。根据实施例,电子装置101可以包括与孔111连接的接收空间112,并且数字笔201可被插入到接收空间112中。根据所示的实施例,数字笔201可以在其一个端部包括能够被按压的按钮201a,使得数字笔201容易从电子装置101的接收空间112被拉出。当按下按钮201a时,被构造为链接到按钮201a的排斥机制(例如,至少一个弹簧)起作用,并且数字笔201可以从接收空间112分离出。
在某些实施例中,可以在电子装置的显示器160上来回移动数字笔201的尖端,导致数字笔201的尖端接触的地方出现与周围像素不同的特定颜色的像素的分界。在某些实施例中,可以用数字笔201提供笔划输入,如稍后将描述的。
数字笔
图3示出了根据某些实施例的数字笔201的框图。
参照图3,根据实施例的数字笔201可以包括处理器220、存储器230、谐振电路287、充电电路288、电池289、通信电路290、天线297和/或触发电路298。在一些实施例中,在数字笔201中,可以在印刷电路板(PCB)上实现或者可以以芯片的形式实现处理器220、谐振电路287的至少一部分和/或通信电路290的至少一部分。处理器220、谐振电路287和/或通信电路290可以与存储器230、充电电路288、电池289、天线297或触发电路298电连接。可以仅用谐振电路和按钮来实现根据实施例的数字笔201。
根据实施例,处理器220可以包括被配置为执行定制硬件模块或软件(例如,应用程序)的通用处理器。处理器220可以包括硬件组件(功能)或软件组件(程序),其包括数字笔201中包括的以下中的至少一个:各种传感器、数据测量模块、输入/输出接口、管理数字笔201的状态或环境的模块或通信模块。处理器220可以包括硬件、软件或固件中的一个或其两个或更多个的组合。根据实施例,处理器220可以接收与电磁信号对应的接近信号,该电磁信号是通过谐振电路287从电子装置的数字化仪(例如,显示装置160的至少一部分)生成的。当接近信号被识别时,处理器220可以控制谐振电路287,使得发送电磁共振(EMR)输入信号到电子装置101。
根据实施例,存储器230可以存储与数字笔201的操作相关联的信息。例如,该信息可以包括用于与电子装置101通信的信息和与数字笔201的输入操作相关联的频率信息。
根据实施例,谐振电路287可以包括线圈、电感器或电容器中的至少一个。谐振电路287可以被用于数字笔201以生成包括谐振频率的信号。例如,为了生成信号,数字笔201可以使用电磁共振(EMR)方式、有源静电(AES)方式或电耦接共振(ECR)方式中的至少一种。在数字笔201以EMR方式发送信号的情况下,数字笔201可以基于从电子装置101的感应板生成的电磁场来生成包括谐振频率的信号。在数字笔201以AES方式发送信号的情况下,数字笔201可以通过使用与电子装置101耦接的电容来生成信号。在数字笔201以ECR方式发送信号的情况下,数字笔201可以基于从电子装置101的电容装置生成的电场来生成包括谐振频率的信号。根据实施例,谐振电路287可以被用于根据用户的操纵状态来改变电磁场的强度或频率。例如,谐振电路287可以提供用于识别悬空输入、绘制输入、按钮输入或擦除输入的频率。
根据实施例,当充电电路288基于开关电路与谐振电路287连接时,充电电路288可以将从谐振电路287生成的谐振信号整流为直流信号,以便被提供给电池289。根据实施例,数字笔201可以通过使用从充电电路288检测到的直流信号的电压电平来确定数字笔201是否插入到电子装置101中。
根据实施例,电池289可以存储数字笔201的操作所需的能量。例如,电池289可以包括锂离子电池或电容器,并且可以是可再充电的或可更换的。根据实施例,可以通过使用从充电电路288提供的电源(例如,直流信号(或直流电源))对电池289充电。
根据实施例,通信电路290可以被配置为执行数字笔201与电子装置101的通信模块190之间的无线通信功能。根据实施例,通信电路290可以通过使用短距离通信方式将数字笔201的状态信息和输入信息发送到电子装置101。例如,通信电路290可以发送通过触发电路298获得的数字笔201的方向信息(例如,运动传感器数据)、通过麦克风输入的语音信息或电池289的电量信息。例如,短距离通信方式可以包括蓝牙低功耗(BLE)方式或无线LAN方式中的至少一种。
根据实施例,天线297可以被用于向外部(例如,电子装置101)发送信号或功率或者从外部接收信号或功率。根据实施例,数字笔201可以包括多个天线297,并且可以从多个天线297中选择适合于通信方式的至少一个天线297。通信电路290可以通过如此选择的至少一个天线297与外部电子装置交换信号或功率。
根据实施例,触发电路298可以包括至少一个按钮或传感器电路。根据实施例,处理器220可以识别数字笔201的按钮的输入方式(例如,触摸或按压)或种类(例如,EMR按钮或BLE按钮)。根据实施例,传感器电路可以生成与数字笔201的内部操作状态对应或与外部环境状态对应的电信号或数据值。例如,传感器电路可以包括运动传感器、电池电量检测传感器、压力传感器、光传感器、温度传感器、地磁传感器或生物测定传感器中的至少一个。根据实施例,触发电路298可以通过使用按钮的输入信号或通过传感器获得的信号发送触发信号到电子装置101。
图4是根据某些实施例的数字笔201的分解透视图。
参考图4,数字笔201可以包括形成数字笔201的外部的笔外壳300和笔外壳300中的内部组件。在所示的实施例中,内部组件可以包括安装在笔内的所有部件,并且可以仅通过一次装配操作插入笔外壳300中。
根据实施例,笔外壳300可以在第一端部300a和第二端部300b之间被拉长,并且可以在其中包括接收空间112。笔外壳300可以具有椭圆的形状,其横截面包括短轴和长轴,并且可以整体上形成为椭圆柱体的形状。电子装置101的接收空间301可以具有椭圆的横截面,以对应于笔外壳300的形状。笔外壳300可以包括合成树脂(例如,塑料)和/或金属材料(例如,铝)。根据实施例,笔外壳300的第二端部300b可以由合成树脂材料形成。
根据实施例,内部组件可以具有与笔外壳300的形状对应的拉长的形状。内部组件可以沿着轴向方向大致分成三个部分。例如,内部组件可以包括被设置在与笔外壳300的第一端部300a对应的位置处的弹出构件310、设置在与笔外壳300的第二端部300b对应的位置处的线圈部320、以及设置在与外壳的主体对应的位置处的电路板部330。
根据实施例,弹出构件310可以包括用于从电子装置101的接收空间112拉出数字笔201的组件。根据实施例,弹出构件310可包括轴311、以及围绕轴311设置并形成弹出构件310的整体外部的弹出体312和按钮部313。当内部组件完全插入笔外壳300中时,弹出构件310的包括轴311和弹出体312的部分可以被笔外壳300的第一端部300a围绕,并且按钮部313(例如,图2的201a)可以被暴露在第一端部300a的外部。例如,凸轮构件或弹性构件的多个组件(未示出)可被设置在弹出体312中以形成推拉结构。在一个实施例中,按钮部313可以大体上与轴311接合,以相对于弹出体312线性地往复运动。根据某些实施例,按钮部313可以包括具有止动器结构的按钮,该止动器结构允许用户通过使用他/她的指甲拉出数字笔201。根据实施例,数字笔201可以包括检测轴311的线性往复运动的传感器,从而提供另一种输入方式。
根据实施例,线圈部320可以包括当内部组件完全插入笔外壳300中时被暴露于第二端部300b的外部的笔尖321、密封环322、具有多匝的线圈323和/或用于在按压笔尖321时获得压力的变化的笔压力传感单元324。密封环322可以包括环氧树脂、橡胶、聚氨酯或硅。可以提供密封环322用于防水和防尘的目的,并且可以在电子装置101和/或数字笔201被渗入水时保护线圈部320和电路板部330免受潮湿或免受灰尘。根据实施例,线圈323可以在给定频带(例如,500kHz)中形成谐振频率,并且可以与至少一个元件(例如,电容元件(或电容器))组合以在给定范围内调节由线圈323形成的谐振频率。
根据实施例,电路板部330可以包括印刷电路板332、覆盖印刷电路板332的至少一个表面的基座331和天线。根据实施例,其上设置有印刷电路板332的基底安装部333可以被形成在基座331的上表面上,并且印刷电路板332可以以被安装在基底安装部333上的状态固定。根据实施例,印刷电路板332可以包括上表面和下表面。可以在该上表面上设置与线圈323或开关334连接的可变电容器,并且可以在该下表面上设置充电电路、电池或通信电路。电池可以包括双电层电容器(EDLC)。充电电路被插置在线圈323和电池之间,并且可以包括电压检测器电路和整流器。
根据实施例,天线可以包括如图4所示例示的天线结构339和/或印刷电路板332中嵌入的天线。根据某些实施例,可以在印刷电路板332上设置开关334。在数字笔201上设置的侧面按钮337可以被用于按压开关334,并且可以通过笔外壳300的侧面开口302被暴露于外部。可以由支撑构件338支撑侧面按钮337。当没有外力作用在侧面按钮337上时,支撑构件338可以提供恢复力,使得侧面按钮337返回到或保持在特定位置。
根据实施例,电路板部330可以包括诸如O形环的不同的密封环。例如,可以在基座331的对端处设置由弹性材料形成的O形环,以在基座331和笔外壳300之间形成密封结构。在任何实施例中,支撑构件338可以围绕侧面开口与笔外壳300的内壁部分地紧密接触,以形成密封结构。例如,如在线圈部320的密封环322中,电路板部330可以具有防水和防尘结构。
根据实施例,数字笔201可以包括在基座331的上表面上被设置的电池安装部,使得在电池安装部中设置电池336。能够安装在电池安装部上的电池336可以包括例如圆柱型电池。
根据实施例,数字笔201可以包括麦克风(未示出)。麦克风可以与印刷电路板332直接连接,或者可以与和印刷电路板332连接的单独的柔性印刷电路板(FPCB)(未示出)连接。根据某些实施例,可以在数字笔201的轴向方向上平行于侧面按钮337设置麦克风。
图5是根据某些实施例的电子装置101的功能框图。
参考图5,电子装置101可以包括外壳110中的处理器120、存储器130、显示器560(例如,图1的显示装置160的至少一部分)和无线通信电路590(例如,图1的无线通信电路192的至少一部分)。
根据实施例,显示器560可以显示AR表情符号。电子装置101可以通过使用相机(例如,图1的相机模块180的至少一部分)来识别用户的外表(例如,他/她的面部、他/她的身体或用户佩戴的配件中的至少一个),并且可以基于所识别的用户的外表来生成三维AR表情符号(例如,图6的第一AR表情符号610)。例如,电子装置101可以使用相机来观察用户的面部,使用生物测定学来确定他们的生物数据,使用麦克风来确定语音音调,并与具有不同已知外表的用户的数据进行比较,从而确定用户的情绪或情感状态。根据实施例,显示器560可以接收并显示第一笔划输入。第一笔划输入可以包括例如使用数字笔201的笔划输入或使用用户的身体部位(例如,用户的手指、指关节、指甲等)的笔划输入中的至少一个。
根据实施例,无线通信电路590可以基于无线通信协议与外部电子装置(例如,图1所示的第一电子装置102、第二电子装置104或服务器108)执行无线通信。
根据实施例,存储器130可以存储与AR表情符号相关联的数据库(DB)。与AR表情符号相关联的数据库可以包括例如指示AR表情符号姿势的姿势图像、贴纸图像或背景图像中的至少一个或组合。根据另一实施例,存储器130可以不存储与AR表情符号相关联的数据库,并且电子装置101可以从外部服务器(例如,图1的服务器108)接收与AR表情符号相关联的数据库。根据实施例,存储器130可以存储能够由处理器120执行以显示AR表情符号的指令。
增强现实表情符号
根据实施例,处理器120可以与显示器560和存储器130可操作地连接。处理器120可以执行电子装置101的用于显示指示姿势的AR表情符号的整体功能。例如,电子装置101可以基于在显示器560上接收到的第一笔划输入,通过显示器560显示指示姿势的AR表情符号。例如,处理器120可以通过将接收到的第一笔划输入的位置和形状与被存储在存储器130中的用于AR表情符号的数据库进行比较来从存储器130检索指示姿势的AR表情符号。根据实施例,处理器120还可以基于所接收的第一笔划输入的位置和形状来检索贴纸图像或背景图像以及指示姿势的AR表情符号中的至少一个。贴纸图像可以是可以被放置以看起来与AR表情符号互动的对象。因此,虽然AR表情符号和贴纸图像可以是分开的,但是当一起出现时,在某些实施例中,AR表情符号和贴纸可以模拟出一张图片的外观。处理器120可以通过合成指示姿势的AR表情符号、贴纸图像或背景图像中的至少一个来生成图像文件。图像文件可以是例如动态图像(例如,gif、jpg、png、avi或gif),或者可以是静态图像。动态图像可以包括例如能够重复再现的动画图像。处理器120可以将图像文件存储在存储器130中。当电子装置101的用户选择发送AR表情符号的输入时,处理器120可以通过无线通信电路590发送图像文件到外部电子装置。
图6示出了根据某些实施例的电子装置101基于第一笔划输入615生成指示姿势的AR表情符号620的操作。在601,电子装置101的操作显示第一AR表情符号610。第一AR表情符号610可以提供针对在操作602期间接收的用户笔划输入(经由数字笔201或手指轨迹)615的参照,这使得电子装置在操作603期间基于笔划输入的位置和形状来显示第二AR表情符号602。在操作604中,可以发送第二表情符号,诸如SMS/MMS文本的一部分。
参考图6,在操作601中,电子装置101可以在显示器560的部分区域中显示的窗口605上显示第一AR表情符号610。根据实施例,窗口605可以表示能够接收至少一个笔划输入的区域。
根据实施例,第一AR表情符号610可以表示在电子装置101接收到第一笔划输入之前提供的AR表情符号。例如,第一AR表情符号610可以具有中性情绪(没有特别可辨别的情绪)、动作(例如,手位于两侧的站立)或姿势(手位于两侧并放松)。第一AR表情符号610可以被称为“AR表情符号的原型或基本AR表情符号”。
在操作602中,电子装置101可以在显示第一AR表情符号610同时在窗口605上接收至少一个第一笔划输入615。根据实施例,第一笔划输入615可以包括连续的笔划输入。图6示出了从数字笔201接收的至少一个第一笔划输入615。根据另一实施例,电子装置101可以从用户的身体部位(例如,手指、指关节或指甲)接收至少一个第一笔划输入。
在操作603中,电子装置101可以基于第一笔划输入615的位置和形状在窗口605上显示指示姿势的第二AR表情符号620。例如,当第一笔划输入615的形状指示心形并且第一笔划输入615的位置对应于第一AR表情符号610的胸部位置时,电子装置101可以显示指示用手在胸部前方表示心的姿势的第二AR表情符号620。
根据实施例,电子装置101可基于被存储在存储器130中的用于AR表情符号的数据库来生成第二AR表情符号620。根据另一实施例,为了提高电子装置101中的存储器130的空间效率,可以在外部服务器(例如,图1的服务器108)中存储与AR表情符号相关联的数据库。在这种情况下,电子装置101可以发送关于第一笔划输入615的信息(例如,指示第一笔划输入615的形状或位置中的至少一个的信息)到外部服务器108,并且外部服务器108可以基于关于第一笔划输入615的信息生成第二AR表情符号620。外部服务器108可发送关于第二AR表情符号620的信息到电子装置101。
在操作604中,电子装置101可以发送第二AR表情符号620到外部电子装置(例如,图1的第一电子装置102或第二电子装置104)。例如,电子装置101可在执行与发送消息相关联的功能(或应用)的状态下接收发送第二AR表情符号620的用户输入。电子装置101可以响应于用户输入生成包括第二AR表情符号620的图像文件630。图像文件630可以是例如反复执行AR表情符号执行姿势(例如,用手在胸部前方表示心的姿势)的操作的动态图像(例如,gif、jpg、png、avi或gif),或者可以是通过捕获动态图像的一部分获得的静态图像。电子装置101可以发送生成的图像文件630到外部电子装置。
图7示出了根据某些实施例的合成贴纸图像715和背景图像735的AR表情符号750。图7示出了在电子装置101的存储器130中存储与AR表情符号相关联的数据库(例如,710、720和730)的实施例,但是本公开可以应用于在外部服务器中存储与AR表情符号相关联的数据库的实施例。
参考图7,与AR表情符号相关联的数据库可以包括贴纸图像数据库(DB)710、姿势图像数据库(DB)720和背景图像数据库(DB)730。电子装置101还可基于与AR表情符号相关联的数据库显示贴纸图像715或背景图像735以及第二AR表情符号620中的至少一个。
可以通过笔划输入的位置和笔划输入的形状来索引贴纸图像数据库(DB)710、姿势图像数据库(DB)720和背景图像数据库(DB)730。例如,该位置可以与第一表情符号610(头、面部、眼睛、鼻子、嘴、耳朵、手臂、手、胸部/躯干)有关。该形状可以是心、某些预定的书写单词(“Hello”、“hi”、“OMG”等)。
表1-3基于第一笔划输入的位置和形状指示所使用的被选择的贴纸、姿势和背景图像:
[表1]
形状位置 面部 手臂 胸部
坚实的心
“Hello”
[表2]
Figure BDA0003100800080000161
[表3]
形状位置 面部 手臂 胸部
浪漫
云朵
例如,当第一笔划输入(例如,图1的615)指示心形时,电子装置101可以从贴纸图像数据库710检索心形的贴纸图像715。又例如,电子装置101可以基于指示心形的第一笔划输入615从背景图像数据库730检索包括心形或指示浪漫风格的背景图像735。又例如,因为指示心形的第一笔划输入615的位置对应于第一AR表情符号(例如,图6的610)的胸部的位置,所以电子装置101可以从姿势图像数据库720检索指示用手在胸部前方表示心的姿势的第二AR表情符号620。
根据实施例,电子装置101可在窗口605上显示通过合成第二AR表情符号620、贴纸图像715和背景图像735而生成的AR表情符号750。当在显示合成的AR表情符号750的状态下接收到发送合成的AR表情符号750的用户输入时,电子装置101可以生成包括合成的AR表情符号750的图像文件(未示出)。图像文件可以是反复执行AR表情符号(例如,620)执行特定姿势(例如,用手在胸部前方表示心的姿势)的操作和贴纸图像715或背景图像735中的至少一个移动的操作的动态图像。另一示例,图像文件可以是通过捕获动态图像的一部分而获得的静态图像。电子装置101可以发送生成的图像文件到外部电子装置。
图8示出了根据某些实施例的电子装置101基于第一笔划输入615生成AR表情符号(例如,图7的750)的操作。图8示出了检索贴纸图像715、背景图像735和第二AR表情符号620的实施例,但是本公开可以相同地应用于仅检索第二AR表情符号620的实施例。
参考图8,在操作810中,电子装置101可以确定在窗口(例如,图6的605)上接收到的第一笔划输入615的形状和位置。例如,电子装置101可以通过将包括与第一AR表情符号610的每个身体(例如,头、面部、手臂、胸部或手)对应的区域的参考区域与接收到的第一笔划输入615的位置进行比较,识别出第一笔划输入615的位置对应于胸部的位置。又例如,电子装置101可以识别出第一笔划输入615的形状对应于心形。
在操作820中,电子装置101可以基于所识别的第一笔划输入615的形状和位置,从与AR表情符号相关联的数据库检索心形的贴纸图像715、指示用手在胸部前方表示心的姿势的第二AR表情符号620以及包括心形的背景图像735。在某些实施例中,如果在面部上绘制心形,则贴纸可以包括做出接吻姿势的被放大的嘴唇。如果在手臂或手的一个上绘制心形,则贴纸可以是手臂上的纹身。
尽管图8中未示出,但是电子装置101可以通过合成心形的贴纸图像715、指示姿势的第二AR表情符号620和包括心形的背景图像735来生成图像文件。
图9示出了根据某些实施例的电子装置101确定合成的AR表情符号750的类型的操作。
参考图9,电子装置101可以确定合成的表情符号750的图像类型。图像类型可以包括合成的AR表情符号750动态移动的动画类型,以及合成的AR表情符号750不移动的静态类型。
根据实施例,电子装置101可基于从存储器130检索的AR表情符号750的组件的图像类型来确定AR表情符号750的图像类型。例如,当心形的贴纸图像715、指示用手在胸部前方表示心的姿势的第二AR表情符号620以及包括心形的背景图像735的图像类型是静态类型时,电子装置101可以在窗口605上显示不移动的AR表情符号750,如操作901所示。又例如,当心形的贴纸图像715、指示用手在胸部前方表示心的姿势的第二AR表情符号620或包括心形的背景图像735中的至少一个的图像类型是动画类型时,电子装置101可在窗口605上显示动态移动的AR表情符号750,如操作902所示。当在显示AR表情符号750的同时接收到发送AR表情符号750的用户输入时,电子装置101可以以与AR表情符号750的图像类型对应的文件格式(例如,动态图像或静态图像)生成图像文件。
根据另一实施例,电子装置101可将AR表情符号750的图像类型的默认设置为动画类型。在这种情况下,电子装置101可以根据在显示器560上显示的AR表情符号750移动的同时接收的用户输入来捕获图像。电子装置101可以发送捕获的图像文件到外部电子装置。
图10示出了基于第一笔划输入1005的指示姿势的AR表情符号1050的另一示例。图10示出了合成了贴纸图像1015、第二AR表情符号1025和背景图像1035的AR表情符号1050的示例,但是本公开可以相同地应用于仅显示第二AR表情符号1025的示例。
参考图10,在操作1001中,电子装置101可以在窗口605上显示第一AR表情符号610的同时接收至少一个第一笔划输入1005。
在操作1002中,电子装置101可基于由此接收的第一笔划输入1005的形状和位置,从存储器130检索贴纸图像1015、指示姿势的第二AR表情符号1025和背景图像1035。例如,当第一笔划输入1005的形状指示手形状时,电子装置101可以从贴纸图像数据库710检索指示问候(例如,“Hello”)的贴纸图像1015。又例如,当第一笔划输入1005的形状指示手形状时,电子装置101可以从背景图像数据库730检索指示早晨天空的背景图像1035。又例如,当在第一AR表情符号610的身体的侧面(例如,右侧)接收到指示手形状的第一笔划输入1005时,电子装置101可以从姿势图像数据库720检索指示举起手的挥手的姿势的第二AR表情符号1025。
在操作1003中,电子装置101可在窗口605上显示合成了由此检索到的贴纸图像1015、第二AR表情符号1025和背景图像1035的AR表情符号1050。当接收到发送合成的AR表情符号1050的用户输入时,电子装置101可以生成包括合成的AR表情符号1050的图像文件(未示出)。图像文件可以是例如反复执行AR表情符号(例如,1025)执行特定姿势(例如,挥手的姿势)的操作和贴纸图像1015或背景图像1035中的至少一个移动的操作的动态图像。另一示例,图像文件可以是通过捕获动态图像的一部分而获得的静态图像。电子装置101可以发送生成的图像文件到外部电子装置。
图11示出了根据某些实施例的电子装置101基于第一笔划输入显示AR表情符号的操作流程图1100。下面要描述的操作可以由电子装置101执行,或者可以由电子装置101中包括的组件(例如,处理器120)执行。
参考图11,在操作流程图1100的操作1105中,电子装置101可以通过显示器560在窗口605上显示第一AR表情符号610。根据实施例,第一AR表情符号610可以表示基于电子装置101的用户的外表生成的三维AR表情符号的原型。例如,第一AR表情符号610可以不指示情绪、动作或姿势。
在操作1110中,电子装置101可以在显示第一AR表情符号610的同时接收窗口605上的至少一个第一笔划输入615。至少一个第一笔划输入615可以是例如连续的。
在操作1115中,电子装置101可以基于由此接收到的第一笔划输入615的位置和形状,在窗口605上显示指示姿势的第二AR表情符号620。
图12示出了根据某些实施例的电子装置101执行与发送消息相关联的功能的操作。
参考图12,在操作1201中,响应于执行与发送消息相关联的功能,电子装置101可以在显示器560的部分区域上显示窗口605。根据实施例,例如,与发送消息相关联的功能可以包括能够发送消息或AR表情符号的应用,诸如短消息服务(SMS)、多媒体消息服务(MMS)或社交网络服务(SNS)。例如,电子装置101可以响应于检测到插入到电子装置101的接收空间112中的数字笔201从接收空间112分离而执行与发送消息相关联的功能,或者可以响应于用户输入而执行与发送消息相关联的功能。
根据实施例,窗口605可以表示能够接收第一笔划输入(或绘画输入)的区域。电子装置101可以在窗口605中的部分区域(例如,边缘区域)或窗口605的外部区域上显示与第一笔划输入功能相关联的多个对象1210-1、1210-2、1210-3和1210-4。图12示出了与第一笔划输入功能相关联的四个对象1210-1、1210-2、1210-3和1210-4,但是对象的数量或顺序或对象的位置不限于图12所示的示例。例如,电子装置101可以省略多个对象1210-1、1210-2、1210-3和1210-4中的至少一个,或者可以进一步显示任何其他对象。
根据实施例,可使用第一对象1210-1来启用第二笔划输入的功能。根据实施例,第二笔划输入可以表示用户通过使用数字笔201或用户的身体部分(例如,手指、指关节或指甲)用手书写字符或绘制图画的输入。根据实施例,可使用第二对象1210-2来改变第二笔划输入的大小,并且可以使用第三对象1210-3来改变第二笔划输入的颜色。根据实施例,可使用第四对象1210-4来启用AR表情符号功能。
当电子装置101接收到选择第四对象1210-4的用户输入1215时,在操作1202中,电子装置101可以启用AR表情符号功能。当启用AR表情符号功能时,电子装置101可以在窗口605上显示第一AR表情符号610。为了指示AR表情符号功能被启用,电子装置101可以改变第四对象1210-4的颜色。
根据实施例,当AR表情符号功能被启用时,电子装置101可以停用第二笔划输入功能。为了指示第二笔划输入功能被停用,电子装置101可以改变第一对象1210-1、第二对象1210-2和第三对象1210-3的形状或颜色。当第二笔划输入功能被停用并且AR表情符号功能被启用时,电子装置101可以根据数字笔201的第一笔划输入(例如,图6的615或图10的1005)显示指示姿势的第二AR表情符号(例如,图6的620或图10的1025)。
图13示出了根据某些实施例的电子装置101提供与所接收的第一笔划输入615对应的输出笔划淡出(或消失)的效果的操作。
参考图13,在操作1301中,电子装置101可以在窗口605上显示与第一笔划输入615对应的输出笔划,使得用户在视觉上察觉到在窗口605上接收到的第一笔划输入615。例如,电子装置101可以在接收连续的第一笔划输入615的同时显示输出笔划,或者可以在完成了第一笔划输入615之后显示输出笔划。
根据实施例,电子装置101可以检测到完成了第一笔划输入615。例如,当在显示器560(或数字化仪)上接触的连续第一笔划输入615与显示器560分离时,或者当在指定的阈值时间内没有从数字笔201接收到输入时,电子装置101可以确定完成了第一笔划输入615。
当完成了第一笔划输入615时,在操作1302中,电子装置101可在窗口605上显示指示姿势的第二AR表情符号620或合成了贴纸图像715、第二AR表情符号620和背景图像735的AR表情符号750。根据实施例,在显示第二AR表情符号620或合成的AR表情符号750的同时,电子装置101可以提供在窗口605上显示的输出笔划(例如,与第一笔划输入615对应的输出笔划)淡出(或消失)的效果。
尽管在图13中未示出,在显示第二AR表情符号620或合成的AR表情符号750的同时,电子装置101可以响应于启用第二笔划输入功能的用户输入而提供在窗口605上显示的输出笔划淡出(或消失)的效果。
图14示出了根据某些实施例的电子装置101显示与第二笔划输入对应的字符和AR表情符号750的操作。
参考图14,在操作1401中,当在窗口605上显示AR表情符号750(或第二AR表情符号620)时,电子装置101可以接收选择第一对象1210-1的用户输入1405。响应于用户输入1405,电子装置101可以启用第二笔划输入功能。为了指示第二笔划输入功能被启用,电子装置101可以改变第一对象1210-1、第二对象1210-2和第三对象1210-3的形状或颜色。
在操作1402中,电子装置101可以从数字笔201接收在AR表情符号750上绘制字符(例如,“Hello!”)的第二笔划输入1410。电子装置101可以显示与接收到的第二笔划输入1410对应的字符,以便将其放置在AR表情符号750上(即,以便与AR表情符号750重叠)。
在操作1403中,电子装置101可以根据用户输入生成包括AR表情符号750和与第二笔划输入1410对应的字符的图像文件1430,并且可以发送生成的图像文件1430到外部电子装置。
图15示出了展示根据某些实施例的电子装置101与外部服务器1501之间发送关于AR表情符号信息的信号流的流程图1500。
参考图15,外部服务器1501(例如,图1的服务器108)可以存储与AR表情符号相关联的数据库。与AR表情符号相关联的数据库可以包括贴纸图像数据库1502(例如,图7的710)、姿势图像数据库1503(例如,图7的720)和背景图像数据库1504(例如,图7的730)。为了提高存储器存储空间的效率,电子装置101可从外部服务器1501被提供与AR表情符号相关联的数据库,而不存储该数据库。
在操作1505中,电子装置101可以接收第一笔划输入(例如,图6的615)。
在操作1510中,电子装置101可以发送关于第一笔划输入615的信息到外部服务器1501。关于第一笔划输入615的信息可以指示例如第一笔划输入615的形状和位置。
在操作1515中,外部服务器1501可发送关于第二AR表情符号620的信息到电子装置101。根据另一实施例,外部服务器1501可向电子装置101发送贴纸图像715和背景图像735以及第二AR表情符号620。根据实施例,在外部服务器1501生成合成的AR表情符号750的情况下,外部服务器1501可以发送合成的AR表情符号750到电子装置101。根据另一实施例,在电子装置101生成合成的AR表情符号750的情况下,外部服务器1501可发送与贴纸图像715、第二AR表情符号620和背景图像735相关联的信息。在这种情况下,电子装置101可以基于接收到的信息生成合成的AR表情符号750。
在操作1520中,电子装置101可以通过显示器560显示第二AR表情符号(或合成的AR表情符号750)(例如,图6的操作603)。
如上所述,一种电子装置(例如,图1的101)可以包括外壳(例如,图2的110)、通过外壳的一部分可见的触摸屏显示器(例如,图1的160)、放置在外壳内并与触摸屏显示器可操作地连接的处理器(例如,图1的120)、以及放置在外壳内并与处理器可操作地连接的存储器(例如,图1的130),并且存储器可以存储指令,当执行指令时,使得所述处理器通过触摸屏显示器在能够接收至少一个第一笔划输入的窗口上显示第一增强现实(AR)表情符号;在窗口上显示第一AR表情符号的同时,接收所述至少一个第一笔划输入;并且至少部分地基于由此接收到的所述至少一个第一笔划输入的位置和形状,显示第二AR表情符号。
根据实施例,第一AR表情符号可以不包括姿势,并且第二AR表情符号可以包括与至少一个第一笔划输入的位置和形状对应的姿势。
根据实施例,指令可以使处理器在窗口上进一步显示与所接收的所述至少一个第一笔划输入的形状对应的贴纸图像或背景图像中的至少一个。
根据实施例,电子装置还可包括与外部电子装置通信的无线通信电路(例如,图1的192),并且指令可使处理器在显示第二AR表情符号、贴纸图像或背景图像中的至少一个的同时接收用于发送第二AR表情符号的第一用户输入;响应于所接收的第一用户输入生成包括第二AR表情符号、贴纸图像或背景图像中的至少一个的第一图像文件;以及通过无线通信电路发送生成的第一图像文件到外部电子装置。
根据实施例,指令可以使处理器在显示第二AR表情符号、贴纸图像或背景图像中的至少一个的同时接收第二笔划输入;通过触摸屏显示器,在窗口上显示与第二笔划输入对应的字符;在显示字符的同时接收第一用户输入;响应于所接收的第一用户输入,生成包括第二AR表情符号、所显示的字符、贴纸图像或背景图像中的至少一个的第二图像文件;以及通过无线通信电路发送生成的第二图像文件到外部电子装置。
根据实施例,指令可使处理器通过无线通信电路发送关于所接收的至少一个第一笔划输入的第一信息到外部服务器;至少部分地基于所发送的第一信息,通过无线通信电路从外部服务器接收关于第二AR表情符号的第二信息,并且至少部分地基于所接收的第二信息,通过显示器显示第二AR表情符号。
根据实施例,指令可以使处理器接收执行与发送消息相关联的功能的第二用户输入;响应于接收到的第二用户输入,通过触摸屏显示器显示窗口;通过触摸屏显示器,在窗口的部分区域上显示用于执行AR表情符号功能的对象;以及响应于选择所显示的对象的第三用户输入,在窗口上显示第一AR表情符号。
根据实施例,指令可使处理器在接收到至少一个第一笔划输入的同时,在窗口上显示与至少第一笔划输入对应的输出笔划;响应于检测到完成了至少一个第一笔划输入,显示第二AR表情符号;并且使得在窗口上显示的输出笔划淡出。
如上所述,一种电子装置的方法可包括:在能够接收至少一个第一笔划输入的窗口上显示第一AR表情符号;在窗口上接收所述至少一个第一笔划输入;以及至少部分地基于因此而接收到的所述至少一个第一笔划输入的位置和形状来显示第二AR表情符号。
根据实施例,第一AR表情符号可以不包括姿势,并且第二AR表情符号可以包括与至少一个第一笔划输入的位置和形状对应的姿势。
根据实施例,显示第二AR表情符号还可以包括在窗口上显示与所接收的至少一个第一笔划输入的形状对应的贴纸图像或背景图像中的至少一个。
根据实施例,所述方法还可以包括:在显示第二AR表情符号、贴纸图像或背景图像中的至少一个的同时,接收用于发送第二AR表情符号的第一用户输入;响应于所接收的第一用户输入,生成包括第二AR表情符号、贴纸图像或背景图像中的至少一个的第一图像文件;以及发送生成的第一图像文件到外部电子装置。
根据实施例,所述方法还可以包括:在显示第二AR表情符号、贴纸图像或背景图像中的至少一个的同时接收第二笔划输入;在窗口上显示与第二笔划输入对应的字符;在显示字符的同时接收第一用户输入;响应于所接收的第一用户输入,生成包括第二AR表情符号、所显示的字符、贴纸图像或背景图像中的至少一个的第二图像文件;以及发送生成的第二图像文件到外部电子装置。
根据实施例,所述方法还可以包括:发送关于所接收的至少一个第一笔划输入的第一信息到外部服务器;并且从外部服务器接收关于第二AR表情符号的第二信息;并且显示第二AR表情符号可包括至少部分地基于所接收的第二信息来显示第二AR表情符号。
根据实施例,所述方法还可包括:接收执行与发送消息相关联的功能的第二用户输入;并且响应于所接收的第二用户输入,显示窗口和在窗口的部分区域上显示用于执行AR表情符号功能的对象;并且显示第一AR表情符号可包括响应于选择所显示的对象的第三用户输入,在窗口上显示第一AR表情符号。
如上所述,电子装置(例如,图1的101)可以包括外壳(例如,图2的110)、通过外壳的一部分可见的触摸屏显示器(例如,图1的160)、被放置在外壳内并与外部服务器通信的无线通信电路(例如,图1的192)、被放置在外壳内并与显示器和无线通信电路可操作地连接的处理器(例如,图1的120)、以及被放置在外壳内并且与处理器可操作地的连接的存储器(例如,图1的130),并且存储器可以存储指令,当执行指令时,使得处理器通过显示器在能够接收至少一个第一笔划输入的窗口上显示不指示姿势的第一增强现实(AR)表情符号;在窗口上显示第一AR表情符号的同时,接收至少一个第一笔划输入;通过无线通信电路发送关于至少一个第一笔划输入的信息到外部服务器;通过无线通信电路从外部服务器接收关于与所述至少一个第一笔划输入对应的指示姿势的第二AR表情符号的信息;至少部分地基于关于所接收的第二AR表情符号的信息,通过显示器显示第二AR表情符号;在显示第二AR表情符号的同时,接收用于发送第二AR表情符号的第一用户输入;响应于所接收的第一用户输入生成包括第二AR表情符号的第一图像文件;以及通过无线通信电路发送生成的第一图像文件到外部电子装置。
根据实施例,指令可以使处理器接收执行与发送消息相关联的功能的第二用户输入;响应于接收到的第二用户输入,通过显示器显示窗口;通过显示器在窗口的部分区域上显示用于执行AR表情符号功能的对象;以及响应于选择所显示的对象的第三用户输入,在窗口上显示第一AR表情符号。
根据实施例,至少一个第一笔划输入可以包括使用数字笔的第一笔划输入。
根据实施例,指令可使以处理器在接收到至少一个第一笔划输入的同时在窗口上显示与至少第一笔划输入对应的输出笔划;响应于检测到完成了所述至少一个第一笔划输入,显示第二AR表情符号;并且使得在窗口上显示的输出笔划淡出。
根据实施例,指令可以使处理器在显示第二AR表情符号的同时接收第二用户输入;通过显示器在窗口上显示与所接收的第二笔划输入对应的字符;响应于所接收的第一用户输入生成包括第二AR表情符号和所显示的字符的第二图像文件;并通过无线通信电路发送生成的第二图像文件到外部电子装置。
根据某些实施例的电子装置可以是各种类型的电子装置中的一种。电子装置可以包括例如便携式通信装置(例如,智能电话)、计算机装置、便携式多媒体装置、便携式医疗装置、相机、可穿戴装置或家用电器。根据本公开的实施例,电子装置不限于上述那些。
应当理解,本公开的某些实施例和其中使用的术语不旨在将本文阐述的技术特征限制于特定实施例,并且包括对应实施例的各种改变、等同物或替换。关于附图的描述,类似的附图标记可以用于指代类似或相关的元件。应当理解,除非相关上下文另有明确说明,否则对应于项目的名词的单数形式可以包括一个或更多个事物。如本文所使用的,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”和“A、B或C中的至少一个”的短语中的每一个可以包括在相应的一个短语中一起列举的项目中的任何一个或所有可能的组合。如本文所使用的,诸如“第一(1st)”和“第二(2nd)”或“第一(first)”和“第二(second)”之类的术语可以被用于简单地将相应的组件与另一个组件区分开,并且不在其他方面(例如,重要性或顺序)限制组件。应当理解,如果元件(例如,第一元件)在有或没有术语“可操作地”或“通信地”的情况下被称为“与另一元件(例如,第二元件)耦接”、“耦接到另一元件(例如,第二元件)”、“与另一元件(例如,第二元件)连接”或“连接到另一元件(例如,第二元件)”,则意味着该元件可以直接(例如,有线地)、无线地或经由第三元件与另一元件耦接。
如本文所使用的,术语“模块”可以包括以硬件、软件或固件实现的单元,并且可以与例如“逻辑”、“逻辑块”、“部分”或“电路”的其他术语互换使用。模块可以是适于执行一个或更多个功能的单个集成组件或其最小单元或部分。例如,根据实施例,模块可以以专用集成电路(ASIC)的形式实现。
本文阐述的某些实施例可以被实现为包括存储在可由机器(例如,电子装置101)读取的存储介质(例如,内部存储器136或外部存储器138)中的一个或更多个指令的软件(例如,程序140)。例如,机器(例如,电子装置101)的处理器(例如,处理器120)可以调用存储在存储介质中的一个或更多个指令中的至少一个,并在处理器的控制下使用或不使用一个或更多个其他组件来执行它。这允许操作机器以根据所调用的至少一个指令执行至少一个功能。一个或更多个指令可以包括由编译器生成的代码或可由解释器执行的代码。可以以非暂时性存储介质的形式提供机器可读存储介质。其中,术语“非暂时性”仅意味着存储介质是有形装置,并且不包括信号(例如,电磁波),但是该术语不区分数据半永久地存储在存储介质中和数据临时存储在存储介质中的情况。
根据实施例,可以在计算机程序产品中包括和提供根据本公开的某些实施例的方法。计算机程序产品可以作为产品在卖方和买方之间交易。该计算机程序产品可以以机器可读存储介质(例如,光盘只读存储器(CD-ROM))的形式分发,或者经由应用商店(例如,PlayStoreTM)在线分发(例如,下载或上传),或者直接在两个用户装置(例如,智能电话)之间分发(例如,下载或上传)。如果在线分发,则可以在诸如制造商的服务器的存储器、应用商店的服务器或中继服务器的机器可读存储介质中,临时生成或至少临时存储计算机程序产品的至少一部分。
根据某些实施例,上述组件的每个组件(例如,模块或程序)可以包括单个实体或多个实体。根据某些实施例,可以省略上述组件中的一个或更多个,或者可以添加一个或更多个其他组件。可替代地或另外地,多个组件(例如,模块或程序)可以被集成到单个组件中。在这种情况下,根据某些实施例,集成的组件仍然可以以与在集成之前由多个组件中的相应一个组件执行的方式相同或相似的方式,执行多个组件中的每一个的一个或更多个功能。根据某些实施例,由模块、程序或另一组件执行的操作可以顺序地、并行地、重复地或启发式地被执行,或者可以以不同的顺序执行或省略一个或更多个操作,或者可以添加一个或更多个其他操作。
虽然已经参考本公开的某些实施例示出和描述了本公开,但是本领域技术人员将理解,在不脱离由所附权利要求及其等同物限定的本公开的精神和范围的情况下,可以在其中进行形式和细节上的各种改变。

Claims (15)

1.一种电子装置,包括:
外壳;
触摸屏显示器,通过外壳的一部分可见;
至少一个处理器,被设置在外壳内并且与触摸屏显示器可操作地连接;以及
存储器,被设置在外壳内并且与所述至少一个处理器可操作地连接,其中,存储器存储指令,当所述指令被执行时,使得所述至少一个处理器执行多个操作,所述多个操作包括:
通过触摸屏显示器,在能够接收至少一个第一笔划输入的窗口上显示第一增强现实(AR)表情符号;
当在所述窗口上显示第一AR表情符号的同时,接收所述至少一个第一笔划输入;以及
至少部分地基于所述至少一个第一笔划输入的位置和形状,显示第二AR表情符号。
2.根据权利要求1所述的电子装置,其中,第二AR表情符号包括姿势,所述姿势基于所述至少一个第一笔划输入的位置和形状。
3.根据权利要求1所述的电子装置,其中,所述多个操作还包括:
基于所接收的所述至少一个第一笔划输入的形状在所述窗口上显示贴纸输入或背景图像中的至少一个。
4.根据权利要求3所述的电子装置,还包括:
无线通信电路,被配置为与外部电子装置通信,
其中,所述多个操作还包括:
在显示第二AR表情符号、贴纸图像或背景图像中的至少一个的同时,接收用于发送第二AR表情符号的第一用户输入;
响应于所接收的第一用户输入,生成包括第二AR表情符号、贴纸图像或背景图像中的至少一个的第一图像文件;以及
通过无线通信电路将生成的第一图像文件发送到外部电子装置。
5.根据权利要求4所述的电子装置,其中,所述多个操作还包括:
在显示第二AR表情符号、贴纸图像或背景图像中的至少一个的同时,接收第二笔划输入;
通过触摸屏显示器,在所述窗口上显示与第二笔划输入对应的字符;
在显示所述字符的同时接收第一用户输入;
响应于所接收的第一用户输入,生成包括第二AR表情符号、所显示的字符、贴纸图像或背景图像中的至少一个的第二图像文件;以及
通过无线通信电路将生成的第二图像文件发送到外部电子装置。
6.根据权利要求4所述的电子装置,其中,操作还包括:
通过无线通信电路将关于所接收的至少一个第一笔划输入的第一信息发送到外部服务器;
至少部分地基于所发送的第一信息,通过无线通信电路从外部服务器接收关于第二AR表情符号的第二信息;以及
至少部分地基于所接收的第二信息,通过显示器显示第二AR表情符号。
7.根据权利要求1所述的电子装置,其中,所述多个操作还包括:
接收执行与发送消息相关联的功能的第二用户输入;
响应于所接收的第二用户输入,通过触摸屏显示器显示所述窗口;
通过触摸屏显示器,在所述窗口的部分区域上显示用于执行AR表情符号功能的对象;以及
响应于选择所显示的对象的第三用户输入,在所述窗口上显示第一AR表情符号。
8.根据权利要求1所述的电子装置,其中,所述多个操作还包括:
在接收到所述至少一个第一笔划输入的同时,在所述窗口上显示与所述至少第一笔划输入对应的输出笔划;
响应于检测到完成所述至少一个第一笔划输入,显示第二AR表情符号;以及
使得在所述窗口上显示的输出笔划淡出。
9.一种电子装置的方法,所述方法包括:
在被配置为接收至少一个第一笔划输入的窗口上显示第一AR表情符号;
在所述窗口上接收所述至少一个第一笔划输入;以及
至少部分地基于所述至少一个第一笔划输入的位置和形状,显示第二AR表情符号。
10.根据权利要求9所述的方法,其中,第二AR表情符号包括姿势,所述姿势基于所述至少一个第一笔划输入的位置和形状。
11.根据权利要求9所述的方法,其中,显示第二AR表情符号的步骤包括:
基于所接收的所述至少一个第一笔划输入的形状在所述窗口上进一步显示贴纸图像或背景图像中的至少一个。
12.根据权利要求11所述的方法,还包括:
在显示第二AR表情符号、贴纸图像或背景图像中的至少一个的同时,接收用于发送第二AR表情符号的第一用户输入;
响应于所接收的第一用户输入,生成包括第二AR表情符号、贴纸图像或背景图像中的至少一个的第一图像文件;以及
将生成的第一图像文件发送到外部电子装置。
13.根据权利要求12所述的方法,还包括:
在显示第二AR表情符号、贴纸图像或背景图像中的至少一个的同时接收第二笔划输入;
在所述窗口上显示与第二笔划输入对应的字符;
在显示所述字符的同时接收第一用户输入;
响应于所接收的第一用户输入,生成包括第二AR表情符号、所显示的字符、贴纸图像或背景图像中的至少一个的第二图像文件;以及
将生成的第二图像文件发送到外部电子装置。
14.根据权利要求9所述的方法,还包括:
将关于所接收的至少一个第一笔划输入的第一信息发送到外部服务器;以及
从外部服务器接收关于第二AR表情符号的第二信息,
其中,显示第二AR表情符号的步骤包括:
至少部分地基于所接收的第二信息来显示第二AR表情符号。
15.根据权利要求9所述的方法,还包括:
接收执行与发送消息相关联的功能的第二用户输入;以及
响应于所接收的第二用户输入,显示所述窗口并在所述窗口的部分区域上显示用于执行AR表情符号功能的对象,
其中,显示第一AR表情符号的步骤包括:
响应于选择所显示的对象的第三用户输入,在所述窗口上显示第一AR表情符号。
CN201980080435.2A 2018-12-04 2019-11-29 用于生成增强现实表情符号的电子装置及其方法 Pending CN113168282A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020180154620A KR102591686B1 (ko) 2018-12-04 2018-12-04 증강 현실 이모지를 생성하기 위한 전자 장치 및 그에 관한 방법
KR10-2018-0154620 2018-12-04
PCT/KR2019/016767 WO2020116868A1 (en) 2018-12-04 2019-11-29 Electronic device for generating augmented reality emoji and method thereof

Publications (1)

Publication Number Publication Date
CN113168282A true CN113168282A (zh) 2021-07-23

Family

ID=70850038

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980080435.2A Pending CN113168282A (zh) 2018-12-04 2019-11-29 用于生成增强现实表情符号的电子装置及其方法

Country Status (5)

Country Link
US (1) US11029841B2 (zh)
EP (1) EP3853705B1 (zh)
KR (1) KR102591686B1 (zh)
CN (1) CN113168282A (zh)
WO (1) WO2020116868A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113315924A (zh) * 2020-02-27 2021-08-27 北京字节跳动网络技术有限公司 图像特效处理方法及装置
US11340707B2 (en) * 2020-05-29 2022-05-24 Microsoft Technology Licensing, Llc Hand gesture-based emojis
US11676317B2 (en) 2021-04-27 2023-06-13 International Business Machines Corporation Generation of custom composite emoji images based on user-selected input feed types associated with Internet of Things (IoT) device input feeds
CN116113990A (zh) 2021-07-27 2023-05-12 株式会社达纳娱乐 表情符号生成装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160261675A1 (en) * 2014-08-02 2016-09-08 Apple Inc. Sharing user-configurable graphical constructs

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8694899B2 (en) 2010-06-01 2014-04-08 Apple Inc. Avatars reflecting user states
US8620850B2 (en) * 2010-09-07 2013-12-31 Blackberry Limited Dynamically manipulating an emoticon or avatar
US9576175B2 (en) * 2014-05-16 2017-02-21 Verizon Patent And Licensing Inc. Generating emoticons based on an image of a face
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
US10025972B2 (en) * 2015-11-16 2018-07-17 Facebook, Inc. Systems and methods for dynamically generating emojis based on image analysis of facial features
US10719198B2 (en) * 2015-12-02 2020-07-21 Motorola Solutions, Inc. Method for associating a group of applications with a specific shape
KR20170067547A (ko) * 2015-12-08 2017-06-16 옥윤선 포스터치 기반의 능동형 변환 이모지 구현 방법, 이를 구현하기 위한 단말장치
US10389765B2 (en) * 2015-12-29 2019-08-20 Facebook, Inc. Multi-user content presentation system
US20170357427A1 (en) * 2016-06-10 2017-12-14 Apple Inc. Context-specific user interfaces
US10607386B2 (en) 2016-06-12 2020-03-31 Apple Inc. Customized avatars and associated framework
DK201670596A1 (en) * 2016-06-12 2018-02-19 Apple Inc Digital touch on live video
US10346605B2 (en) * 2016-06-28 2019-07-09 Paypal, Inc. Visual data processing of response images for authentication
US20180024726A1 (en) * 2016-07-21 2018-01-25 Cives Consulting AS Personified Emoji
CN109791702B (zh) 2016-09-23 2023-09-29 苹果公司 头像创建和编辑
US10325018B2 (en) 2016-10-17 2019-06-18 Google Llc Techniques for scheduling language models and character recognition models for handwriting inputs
WO2018080552A1 (en) 2016-10-24 2018-05-03 Carrington Charles C System for generating virtual building plan data based upon stored and scanned building data and related methods
US20180300542A1 (en) 2017-04-18 2018-10-18 Nuance Communications, Inc. Drawing emojis for insertion into electronic text-based messages
KR20230144661A (ko) * 2017-05-16 2023-10-16 애플 인크. 이모지 레코딩 및 전송
CN110036412A (zh) * 2017-05-16 2019-07-19 苹果公司 表情符号录制和发送
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
US10706271B2 (en) * 2018-04-04 2020-07-07 Thomas Floyd BRYANT, III Photographic emoji communications systems and methods of use

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160261675A1 (en) * 2014-08-02 2016-09-08 Apple Inc. Sharing user-configurable graphical constructs

Also Published As

Publication number Publication date
US20200174656A1 (en) 2020-06-04
US11029841B2 (en) 2021-06-08
KR20200067593A (ko) 2020-06-12
KR102591686B1 (ko) 2023-10-19
EP3853705A4 (en) 2021-11-17
EP3853705A1 (en) 2021-07-28
EP3853705B1 (en) 2023-09-13
WO2020116868A1 (en) 2020-06-11

Similar Documents

Publication Publication Date Title
US11659271B2 (en) Electronic device to control screen property based on distance between pen input device and electronic device and method of controlling same
US11029841B2 (en) Electronic device for generating augmented reality emoji and method thereof
EP2772831B1 (en) Apparatus and method for providing haptic feedback to input unit
US11132072B2 (en) Electronic device for pairing with stylus pen and method thereof
KR20200101206A (ko) 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법
EP2746979A1 (en) Mobile device having face recognition function using additional component and method for controlling the mobile device
EP3771971A1 (en) Electronic device for identifying gesture performed by stylus pen and method for operating the same
CN215642665U (zh) 用于感应输入的电子装置
KR102191345B1 (ko) 전자 기기의 입력 장치, 방법 및 시스템
US20210294441A1 (en) Device for outputting information linked with stylus pen connected to electronic device, and method related thereto
EP3771966A1 (en) Electronic device identifying gesture with stylus pen and method for operating the same
US11328469B2 (en) Electronic device and method for providing drawing environment
KR20210017081A (ko) 객체에 대응하는 그래픽 요소 표시 방법 및 장치
US10825228B2 (en) Electronic apparatus for generating animated message by drawing input
KR102656963B1 (ko) 전자 장치 및 전자 장치의 제어 방법
KR20210014892A (ko) Ar 객체 생성 방법 및 전자 장치
US11574425B2 (en) Method for providing drawing effects by displaying a drawing output corresponding to a drawing input using a plurality of objects, and electronic device supporting the same
CN111886595B (zh) 屏幕控制方法和支持屏幕控制方法的电子设备
EP4117261A1 (en) Method for performing call function and electronic device therefor
EP4227791A1 (en) Method for providing screen by using flexible display, and electronic device supporting same
EP4261669A1 (en) Electronic device, and operating method of electronic device
KR20230013987A (ko) 전자 장치 및 실시간 메시지 생성 방법
CN111886595A (zh) 屏幕控制方法和支持屏幕控制方法的电子设备
KR20210012562A (ko) 아바타를 제공하는 전자 장치 및 그의 동작 방법
KR20200036375A (ko) 광학적으로 정보를 획득하기 위한 전자 장치 및 그에 관한 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination