CN116762103A - 电子装置及在该电子装置中运行化身视频服务的方法 - Google Patents

电子装置及在该电子装置中运行化身视频服务的方法 Download PDF

Info

Publication number
CN116762103A
CN116762103A CN202280009697.1A CN202280009697A CN116762103A CN 116762103 A CN116762103 A CN 116762103A CN 202280009697 A CN202280009697 A CN 202280009697A CN 116762103 A CN116762103 A CN 116762103A
Authority
CN
China
Prior art keywords
avatar
electronic device
video
avatar video
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280009697.1A
Other languages
English (en)
Inventor
李珉京
申东秀
李仑宰
张镇守
朴美芝
裵东焕
刘相娥
李奎浩
李炫周
崔真娥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210004702A external-priority patent/KR20220102396A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN116762103A publication Critical patent/CN116762103A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Signal Processing (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)
  • Processing Or Creating Images (AREA)

Abstract

根据各种实施例,一种电子装置包括:显示器;处理器;以及存储器,其中,所述存储器可以包括指令,所述指令设置所述处理器执行以下操作:执行作为化身视频模式的一部分的化身服务应用;在所述显示器上显示所述化身服务应用的用户界面,所述用户界面包括多个画面设定类别;检测用于在所述多个画面设定类别当中选择第一画面设定类别的输入;响应于所检测到的选择,显示包括多个化身视频的化身视频列表;以及响应于从所述化身视频列表中选择第一化身视频,将所述第一化身视频应用于所选择的第一画面设定类别的画面,其中,每个化身视频是基于通过针对每个化身运动来组合推荐的声音源、背景和化身布置结构所获得的模板而配置的。

Description

电子装置及在该电子装置中运行化身视频服务的方法
技术领域
各种实施例涉及电子装置和化身(avatar)视频服务运行方法。
背景技术
电子装置可以生成化身,所述化身被假定为通过使用从相机获取的用户图像来表示用户。化身可以包括3D化身。电子装置可以将面部表情、动画运动或文本应用于化身,从而表达该化身。可以提供能够不同地被用于电子装置内部的化身服务(或表情符号(emoji)服务)功能。
发明内容
技术问题
各种实施例可以提供能够通过在化身服务中针对化身运动推荐声音源和背景来制作和提供化身视频(或化身视频包)的环境,并且可以提供能够在电子装置中不同地利用化身视频的方法和设备。
技术方案
根据某些实施例,一种电子装置可以包括:显示器;处理器;输入电路;以及存储器。所述处理器可以执行作为化身视频模式的一部分的化身服务应用,并且在显示器上显示所述化身服务应用的用户界面,所述用户界面包括多个画面设定类别;检测对所述多个画面设定类别当中的第一画面设定类别的选择,并且基于检测到的选择,显示包括多个化身视频的化身视频列表;以及基于检测到对所述化身视频列表当中的第一化身视频的选择,将所述第一化身视频应用于所选择的第一画面设定类别的画面,其中,每个化身视频是基于模板与以下至少一者组合而组成的:作为针对第一动画所推荐的已存储的数字化身的布置、声音和背景。
根据某些实施例的用于运行电子装置的化身视频服务的方法可以包括:由至少一个处理器执行作为化身视频模式的一部分的化身服务应用,并且经由显示器显示所述化身服务应用的用户界面,所述用户界面包括多个画面设定类别;经由输入电路检测对所述多个画面设定类别当中的第一画面设定类别的选择,并且基于检测到的选择,显示包括多个化身视频的化身视频列表;以及基于检测到对所述化身视频列表当中的第一化身视频的选择,将所述第一化身视频应用于所选择的第一画面设定类别的画面,其中,每个化身视频是基于模板与以下至少一者组合而构成的:针对第一动画所推荐的已存储的数字化身的布置、声音和背景。
有益效果
根据各种实施例,可以在化身服务中提供通过组合多个元素(例如,化身运动、背景和音乐)获得的化身视频,并且该化身视频可以被提供作为电话装饰元素,从而向用户提供化身服务以获得改进的体验。
根据各种实施例,可以改变和应用化身视频的元素以便反映应用设定、画面配置或情景,从而向用户提供定制的化身服务。
附图说明
图1是示出了根据各种实施例的网络环境中的电子装置的框图。
图2示出了根据各种实施例的用于运行电子装置的化身视频服务的方法。
图3示出了根据实施例的与电子装置的化身视频服务相关的用户界面画面。
图4是示出了根据实施例的电子装置中的化身视频配置操作的流程图。
图5是示出了根据实施例的电子装置的提供化身视频列表的示例性图。
图6是示出了根据实施例的电子装置的化身视频生成和编辑操作的流程图。
图7示出了根据实施例的电子装置的化身视频编辑用户界面环境。
图8示出了根据实施例的电子装置的化身视频编辑用户界面环境。
图9示出了根据实施例的电子装置的化身视频编辑用户界面环境。
图10示出了根据实施例的电子装置的化身视频编辑用户界面环境。
图11是示出了根据各种实施例的电子装置的化身服务操作的情景图。
图12是示出了根据各种实施例的电子装置的根据用户情景定制化身视频的操作的流程图。
图13示出了根据各种实施例的电子装置的化身视频用户界面环境。
图14示出了根据各种实施例的电子装置的化身视频用户界面环境。
图15示出了根据各种实施例的电子装置的化身视频用户界面环境。
图16示出了根据各种实施例的电子装置的化身视频用户界面环境。
图17示出了根据各种实施例的电子装置的化身视频用户界面环境。
图18示出了根据各种实施例的电子装置的化身视频用户界面环境。
图19示出了根据各种实施例的电子装置的化身视频用户界面环境。
具体实施方式
根据各种实施例的电子装置可以是各种类型的电子装置之一。电子装置可包括例如便携式通信装置(例如,智能电话)、计算机装置、便携式多媒体装置、便携式医疗装置、相机、可穿戴装置或家用电器。根据本公开的实施例,电子装置不限于以上所述的那些电子装置。
图1是示出根据各种实施例的网络环境100中的电子装置101的框图。
参照图1,网络环境100中的电子装置101可经由第一网络198(例如,短距离无线通信网络)与电子装置102进行通信,或者经由第二网络199(例如,长距离无线通信网络)与电子装置104或服务器108中的至少一个进行通信。根据实施例,电子装置101可经由服务器108与电子装置104进行通信。根据实施例,电子装置101可包括处理器120、存储器130、输入模块150、声音输出模块155、显示模块160、音频模块170、传感器模块176、接口177、连接端178、触觉模块179、相机模块180、电力管理模块188、电池189、通信模块190、用户识别模块(SIM)196或天线模块197。在一些实施例中,可从电子装置101中省略上述部件中的至少一个(例如,连接端178),或者可将一个或更多个其它部件添加到电子装置101中。在一些实施例中,可将上述部件中的一些部件(例如,传感器模块176、相机模块180或天线模块197)实现为单个集成部件(例如,显示模块160)。
处理器120可运行例如软件(例如,程序140)来控制电子装置101的与处理器120连接的至少一个其它部件(例如,硬件部件或软件部件),并可执行各种数据处理或计算。根据一个实施例,作为所述数据处理或计算的至少部分,处理器120可将从另一部件(例如,传感器模块176或通信模块190)接收到的命令或数据存储到易失性存储器132中,对存储在易失性存储器132中的命令或数据进行处理,并将结果数据存储在非易失性存储器134中。根据实施例,处理器120可包括主处理器121(例如,中央处理器(CPU)或应用处理器(AP))或者与主处理器121在操作上独立的或者相结合的辅助处理器123(例如,图形处理单元(GPU)、神经处理单元(NPU)、图像信号处理器(ISP)、传感器中枢处理器或通信处理器(CP))。例如,当电子装置101包括主处理器121和辅助处理器123时,辅助处理器123可被适配为比主处理器121耗电更少,或者被适配为专用于特定的功能。可将辅助处理器123实现为与主处理器121分离,或者实现为主处理器121的部分。
在主处理器121处于未激活(例如,睡眠)状态时,辅助处理器123(而非主处理器121)可控制与电子装置101的部件之中的至少一个部件(例如,显示模块160、传感器模块176或通信模块190)相关的功能或状态中的至少一些,或者在主处理器121处于激活状态(例如,运行应用)时,辅助处理器123可与主处理器121一起来控制与电子装置101的部件之中的至少一个部件(例如,显示模块160、传感器模块176或通信模块190)相关的功能或状态中的至少一些。根据实施例,可将辅助处理器123(例如,图像信号处理器或通信处理器)实现为在功能上与辅助处理器123相关的另一部件(例如,相机模块180或通信模块190)的部分。根据实施例,辅助处理器123(例如,神经处理单元)可包括专用于人工智能模型处理的硬件结构。可通过机器学习来生成人工智能模型。例如,可通过人工智能被执行之处的电子装置101或经由单独的服务器(例如,服务器108)来执行这样的学习。学习算法可包括但不限于例如监督学习、无监督学习、半监督学习或强化学习。人工智能模型可包括多个人工神经网络层。人工神经网络可以是深度神经网络(DNN)、卷积神经网络(CNN)、循环神经网络(RNN)、受限玻尔兹曼机(RBM)、深度置信网络(DBN)、双向循环深度神经网络(BRDNN)或深度Q网络或其两个或更多个的组合,但不限于此。另外地或可选地,人工智能模型可包括除了硬件结构以外的软件结构。
存储器130可存储由电子装置101的至少一个部件(例如,处理器120或传感器模块176)使用的各种数据。所述各种数据可包括例如软件(例如,程序140)以及针对与其相关的命令的输入数据或输出数据。存储器130可包括易失性存储器132或非易失性存储器134。
可将程序140作为软件存储在存储器130中,并且程序140可包括例如操作系统(OS)142、中间件144或应用146。
输入模块150可从电子装置101的外部(例如,用户)接收将由电子装置101的其它部件(例如,处理器120)使用的命令或数据。输入模块150可包括例如麦克风、鼠标、键盘、键(例如,按钮)或数字笔(例如,手写笔)。
声音输出模块155可将声音信号输出到电子装置101的外部。声音输出模块155可包括例如扬声器或接收器。扬声器可用于诸如播放多媒体或播放唱片的通用目的。接收器可用于接收呼入呼叫。根据实施例,可将接收器实现为与扬声器分离,或实现为扬声器的部分。
显示模块160可向电子装置101的外部(例如,用户)视觉地提供信息。显示装置160可包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施例,显示模块160可包括被适配为检测触摸的触摸传感器或被适配为测量由触摸引起的力的强度的压力传感器。
音频模块170可将声音转换为电信号,反之亦可。根据实施例,音频模块170可经由输入模块150获得声音,或者经由声音输出模块155或与电子装置101直接(例如,有线地)连接或无线连接的外部电子装置(例如,电子装置102)的耳机输出声音。
传感器模块176可检测电子装置101的操作状态(例如,功率或温度)或电子装置101外部的环境状态(例如,用户的状态),然后产生与检测到的状态相应的电信号或数据值。根据实施例,传感器模块176可包括例如手势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口177可支持将用来使电子装置101与外部电子装置(例如,电子装置102)直接(例如,有线地)或无线连接的一个或更多个特定协议。根据实施例,接口177可包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端178可包括连接器,其中,电子装置101可经由所述连接器与外部电子装置(例如,电子装置102)物理连接。根据实施例,连接端178可包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块179可将电信号转换为可被用户经由他的触觉或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块179可包括例如电机、压电元件或电刺激器。
相机模块180可捕获静止图像或运动图像。根据实施例,相机模块180可包括一个或更多个透镜、图像传感器、图像信号处理器或闪光灯。
电力管理模块188可管理对电子装置101的供电。根据实施例,可将电力管理模块188实现为例如电力管理集成电路(PMIC)的至少部分。
电池189可对电子装置101的至少一个部件供电。根据实施例,电池189可包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块190可支持在电子装置101与外部电子装置(例如,电子装置102、电子装置104或服务器108)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。通信模块190可包括能够与处理器120(例如,应用处理器(AP))独立操作的一个或更多个通信处理器,并支持直接(例如,有线)通信或无线通信。根据实施例,通信模块190可包括无线通信模块192(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应一个可经由第一网络198(例如,短距离通信网络,诸如蓝牙、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络199(例如,长距离通信网络,诸如传统蜂窝网络、5G网络、下一代通信网络、互联网或计算机网络(例如,LAN或广域网(WAN)))与外部电子装置进行通信。可将这些各种类型的通信模块实现为单个部件(例如,单个芯片),或可将这些各种类型的通信模块实现为彼此分离的多个部件(例如,多个芯片)。无线通信模块192可使用存储在用户识别模块196中的用户信息(例如,国际移动用户识别码(IMSI))识别并验证通信网络(诸如第一网络198或第二网络199)中的电子装置101。
无线通信模块192可支持在4G网络之后的5G网络以及下一代通信技术(例如新无线电(NR)接入技术)。NR接入技术可支持增强型移动宽带(eMBB)、大规模机器类型通信(mMTC)或超可靠低延时通信(URLLC)。无线通信模块192可支持高频带(例如,毫米波带)以实现例如高数据传输速率。无线通信模块192可支持用于确保高频带上的性能的各种技术,诸如例如波束成形、大规模多输入多输出(大规模MIMO)、全维MIMO(FD-MIMO)、阵列天线、模拟波束成形或大规模天线。无线通信模块192可支持在电子装置101、外部电子装置(例如,电子装置104)或网络系统(例如,第二网络199)中指定的各种要求。根据实施例,无线通信模块192可支持用于实现eMBB的峰值数据速率(例如,20Gbps或更大)、用于实现mMTC的丢失覆盖(例如,164dB或更小)或者用于实现URLLC的U平面延迟(例如,对于下行链路(DL)和上行链路(UL)中的每一个为0.5ms或更小,或者1ms或更小的往返)。
天线模块197可将信号或电力发送到电子装置101的外部(例如,外部电子装置)或者从电子装置101的外部(例如,外部电子装置)接收信号或电力。根据实施例,天线模块197可包括天线,所述天线包括辐射元件,所述辐射元件由形成在基底(例如,印刷电路板(PCB))中或形成在基底上的导电材料或导电图案构成。根据实施例,天线模块197可包括多个天线(例如,阵列天线)。在这种情况下,可由例如通信模块190(例如,无线通信模块192)从所述多个天线中选择适合于在通信网络(诸如第一网络198或第二网络199)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块190和外部电子装置之间发送或接收信号或电力。根据实施例,除了辐射元件之外的另外的组件(例如,射频集成电路(RFIC))可附加地形成为天线模块197的一部分。
根据各种实施例,天线模块197可形成毫米波天线模块。根据实施例,毫米波天线模块可包括印刷电路板、射频集成电路(RFIC)和多个天线(例如,阵列天线),其中,RFIC设置在印刷电路板的第一表面(例如,底表面)上,或与第一表面相邻并且能够支持指定的高频带(例如,毫米波带),所述多个天线设置在印刷电路板的第二表面(例如,顶部表面或侧表面)上,或与第二表面相邻并且能够发送或接收指定高频带的信号。
上述部件中的至少一些可经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))相互连接并在它们之间通信地传送信号(例如,命令或数据)。
根据实施例,可经由与第二网络199连接的服务器108在电子装置101和外部电子装置104之间发送或接收命令或数据。电子装置102或电子装置104中的每一个可以是与电子装置101相同类型的装置,或者是与电子装置101不同类型的装置。根据实施例,将在电子装置101运行的全部操作或一些操作可在外部电子装置102、外部电子装置104或服务器108中的一个或更多个运行。例如,如果电子装置101应该自动执行功能或服务或者应该响应于来自用户或另一装置的请求执行功能或服务,则电子装置101可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分,而不是运行所述功能或服务,或者电子装置101除了运行所述功能或服务以外,还可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分。接收到所述请求的所述一个或更多个外部电子装置可执行所述功能或服务中的所请求的所述至少部分,或者执行与所述请求相关的另外功能或另外服务,并将执行的结果传送到电子装置101。电子装置101可在对所述结果进行进一步处理的情况下或者在不对所述结果进行进一步处理的情况下将所述结果提供作为对所述请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术、移动边缘计算(MEC)技术或客户机-服务器计算技术。电子装置101可使用例如分布式计算或移动边缘计算来提供超低延迟服务。在另一实施例中,外部电子装置104可包括物联网(IoT)装置。服务器108可以是使用机器学习和/或神经网络的智能服务器。根据实施例,外部电子装置104或服务器108可被包括在第二网络199中。电子装置101可应用于基于5G通信技术或IoT相关技术的智能服务(例如,智能家居、智能城市、智能汽车或医疗保健)。
根据实施例,存储器130可以存储与化身视频服务相关的数据。存储器130可以存储可以由处理器120执行的各种指令。
根据实施例,处理器120可以通过显示装置160(例如,包括触摸电路的触摸屏显示器)来提供用于支持在化身服务中执行与化身视频(或化身视频包或化身视频内容)相关的功能的用户界面环境,所述化身视频包括诸如运动、背景源和声音源的多个元素。处理器120可以通过用户界面环境向用户提供从图像辨识对象(例如,用户)的功能、生成替换用户的化身的功能、通过为每个化身运动推荐合适的背景源和音乐来生成化身视频的功能、以及配置与化身视频相关的画面的功能。
在实施例中,处理器120可以基于化身视频模板生成(或制作)化身视频,所述化身视频模板以一个包的形式配置运动、背景源和声音源。例如,电子装置101可以下载支持针对每个运动推荐和提供背景源和声音源的模板(例如,背景源和声音源由电子装置根据运动推荐),并且可以分析音乐和背景源数据库(例如,存储器或服务器)以推荐与每个运动匹配的声音源和背景源,并且可以生成包括所推荐的声音源和背景源的化身视频并将其与该运动一起进行存储。在另一实施例中,电子装置101可以通过服务器下载预制作的化身视频(或化身视频包)并且通过用户界面环境将其提供给用户。
在下文中,将详细地描述电子装置101所支持的化身视频服务功能,并且可以通过加载存储在存储器130中的指令来执行稍后将描述的处理器120的操作。
根据各种实施例的电子装置101可以包括显示器、处理器120和存储器130,其中,存储器130包括使得处理器120进行以下操作的指令:当化身服务被执行时,在化身视频模式下提供画面设定类别;响应于在画面设定类别中选择第一画面设定类别,提供通过组合为每个化身运动推荐的声音源、背景源和化身布置结构中的至少一者所获得的化身视频列表;以及响应于从化身视频列表中选择第一化身视频,配置所选择的第一画面设定类别的画面,使得第一化身视频被再现。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:通过基于被配置为包括运动、声音源和背景源的化身视频模板针对每个运动组合声音源和背景源来配置化身视频;以及以缩略图的形式提供化身视频列表。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:通过将存储在存储器130中的每条运动信息与存储在存储器中的声音源数据库进行比较来推荐适合于每个运动的声音源;从存储在存储器中的图像数据库中推荐适合于存储在存储器中的运动信息的背景源图像;以及向化身视频列表提供通过堆推荐的声音源和背景源图像进行组合所获得的化身视频。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:从服务器向化身视频列表提供被自动地应用了针对每个运动推荐的音乐和背景源的化身视频包。
根据各种实施例的画面设定类别可以包括以下中的至少一者:呼叫画面设定项目、锁定画面设定项目、提醒通知画面设定项目、背景源画面设定项目、闹钟画面设定项目和共享设定项目,并且存储器130还可以包括使得处理器120进行以下操作的指令:进入个人设定模式,所述个人设定模式是响应于针对每个画面设定类别的用于进入个人设定模式的用户输入而选择的;以及针对每个选择的化身视频配置每个画面。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:通过以下中的至少一者来推荐一个声音源:对每个运动的与每分钟节拍(bpm)信息匹配的声音源的选择、对每个运动的与音乐流派主题相对应的声音源的选择,或对每个运动的与识别信息匹配的声音源的选择;以及当多个声音源被推荐时,基于声音源偏好、元数据比较次序和再现次数中的至少一者选择和推荐具有较高优先级的声音源。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:识别显示器的大小;根据显示器大小识别将在其中显示化身的空间区域;以及基于空间区域改变和显示当化身视频被再现时要显示的化身的大小和位置。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:在第一化身视频再现模式下提供化身编辑功能;以及执行以下操作中的至少一者:根据用户请求通过化身编辑功能来调整化身的大小和位置,改变在第一化身视频中推荐的声音源,或者编辑和改变在第一化身视频中推荐的背景源。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:当与锁定画面或背景源画面关联地配置化身视频时,激活静音功能。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:在显示其上配置有化身视频的画面时,通过调整化身视频中包括的化身的大小和位置或者根据其位置调整背景源的大小和位置来显示布置在画面上的用户界面对象。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:在显示其上配置有化身视频的画面时,通过以下操作来显示画面:分析电子装置的使用情景,根据上下文情形执行静音激活功能,调整化身视频中包括的化身的大小和位置,或者调整背景源的大小和位置。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:在显示其上配置有化身视频的画面时,将根据时间信息、位置信息和日程信息配置的化身视频中包括的化身服装、背景源和配饰改变为其他优化的项目并且显示所述其他优化的项目。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:在化身视频模式下提供新的化身视频生成项目,并且基于对该新的化身视频生成项目的选择提供化身视频列表;以及响应于存储从化身视频列表中选择的第二化身视频,提供用于配置第二化身视频的共享项目和设定类别项目。
根据各种实施例的存储器130还可以包括使得处理器120进行以下操作的指令:在化身视频模式下提供新的化身视频生成项目,并且基于对该新的化身视频生成项目的选择提供运动列表;响应于从运动列表中选择第一运动,再现第二化身视频,该第二化身视频是通过对响应于第一运动而推荐的背景源和音乐进行组合所获得的;以及响应于存储第二化身视频,提供用于配置第二化身视频的共享项目和设定类别项目。
图2示出了根据各种实施例的用于运行电子装置的化身视频服务的方法,图3示出了根据实施例的与电子装置的化身视频服务相关的用户界面画面。
参照图2和图3,根据实施例的电子装置101的处理器(例如,图1的处理器120)可以在操作210中执行安装在电子装置101中的化身服务。
例如,当用户触摸化身应用(例如,化身动画应用或增强现实应用)时,可以启动化身相关应用的执行过程。化身应用可以被理解为支持与化身人物、表情符号/动画贴纸和化身视频相关的功能的应用。化身应用所支持的功能可以被提供为相机功能之一(例如,应用中的应用(app in app))。
在操作220中,处理器120可以响应于请求进入化身视频模式的用户输入来进入化身视频模式。
响应于进入化身视频模式,处理器120可以向显示器输出用于支持执行与化身视频相关的功能的化身视频用户界面(UI)环境。化身视频模式可以支持化身视频显示功能、编辑功能、化身视频设定功能、化身视频生成功能和共享功能。
作为示例,如<301>所示,处理器120可以在显示化身311的化身展示室环境中显示包括设定类别列表315的第一画面310。第一画面310可以包括由用户选择的化身311、用于改变化身的造型(例如,衣服和头发)的项目312、以及额外的化身生成项目313、以及用于返回到先前画面(或功能)的取消项目314。
设定类别列表315可以包括能够在化身视频模式下输入的设定类别。设定类别可以包括例如呼叫画面设定、闹钟画面设定、背景源画面设定、锁定画面设定、共享设定或音乐再现画面设定,但是不限于此,并且可以包括与电子装置内的声音设定或画面设定相关的其他设定类别。
根据另一实施例,设定类别列表315可以包括支持生成新的化身视频的类别。
在操作230中,处理器120可以接收用户输入(例如,触摸或敲击输入),该用户输入用于选择将在电子装置101中应用化身视频的设定类别。
在操作240中,处理器120可以显示化身视频的列表,其中响应于对设定类别的选择,组合针对每个运动推荐的音乐和背景源。
根据实施例,处理器120可以以包的形式配置(或生成)自动地应用了针对每个运动推荐的声音源(例如,音乐)和背景源(例如,图像或视频)的化身视频。例如,处理器120可以从服务器下载被配置为包括运动、声音源和背景源的化身视频模板。处理器120可以比较和分析存储在电子装置101中的运动动画信息(例如,bhv文件集)和存储在电子装置中的数据库,以便选择为每个运动推荐的声音源(例如,音乐)和背景源(例如,图像或视频)。处理器120可以基于化身视频模板推荐和提供(或调用)适合于第一运动的第一音乐和第一背景源,并且可以推荐和提供(或调用)适合于第二运动的第二音乐和第二背景源,以显示化身视频列表。
因此,电子装置101可以向用户提供这样的化身视频(例如,个性化化身视频),其具有相同的运动信息,但是由于背景源和声音源的自动推荐功能,针对每个电子装置101而言化身视频是不同的。
另外地,处理器120除了分析声音源和背景源之外还可以分析适合于电子装置的显示器大小的空间(例如,化身大小、空间位置),推荐化身布置位置,并且将所推荐的化身布置位置应用于化身视频。
根据实施例,处理器120可以从服务器(例如,化身服务支持服务器)接收(或下载)化身视频模板,其中该化身视频模板被应用了响应于每个运动而推荐的声音源和背景源,并且可以将所接收到的化身视频提供给显示列表。
作为示例,如图3的<302>所示,处理器120可以响应于对呼叫设定类别的选择来显示支持呼叫设定的第二画面320。第二画面320可以包括化身311、化身视频列表330、支持声音源再现或声音源再现取消功能的静音设定项目340、以及用于改变化身展示室中显示的背景源的背景源设定项目345、保存项目(例如,保存)347和取消菜单。保存项目(例如,保存)可以支持保存正在化身展示室中再现的化身视频或者进入设定类别的设定模式。
根据实施例,处理器120可以以缩略图的形式提供化身视频列表330。化身视频列表330可以包括由电子装置101生成的化身视频的缩略图和从服务器下载的化身视频的缩略图中的至少一者。在一些实施例中,化身视频列表330可以包括能够从服务器下载的化身视频(模板)缩略图。
根据实施例,处理器120可以响应于接收到用于沿第一方向(例如,→)或沿第二方向(例如,←)移动化身视频列表330的拖曳输入,移动化身视频列表330以在不同位置中显示化身视频。
在操作250中,处理器120可以接收用于从化身视频列表中选择第一化身视频的用户输入。
根据实施例,处理器120可以基于选择的第一化身视频显示(或再现)被显示在化身展示室空间中的化身。例如,处理器120可以按第一化身视频中包括的第一运动而操作化身,输出第一音乐,并且将第一背景源显示为化身展示室的背景源。另外地,处理器120可以通过基于与第一化身视频关联地推荐的化身布置结构来调整化身的大小和位置以显示化身。
作为示例,如图3的<302>所示,响应于从化身视频列表330中选择第一化身视频331,可以按第一化身视频中包括的第一运动而再现化身展示室区域的化身311,可以显示推荐的第一背景源图像,并且可以输出和显示所推荐的第一音乐。
根据实施例,响应于用于选择第一化身视频331的用户输入,处理器120可以提供指示第一化身视频331已经被选择的视觉效果,例如,可以以框的形式突出显示第一化身视频331,或者可以向第一化身视频331提供复选指示(v)。
根据实施例,当处理器120从附图标记<302>的化身视频列表330中选择另一第二化身视频时,电子装置101可以初始化与先前选择相关的第一化身视频的显示,并且可以用另一选择的第二化身视频显示(或再现)化身。
在操作260中,处理器120可以将所选择的第一化身视频配置(改变)为所选择的设定类别的画面。例如,处理器120可以响应于接收到保存输入来进入选择的设定类别的设定模式,并且将在设定模式下选择的第一化身视频配置为设定类别的画面。
作为示例,处理器120响应于选择了保存项目347,进入呼叫设定模式,并且如图3的<303>所示,处理器可以执行切换到用于设定具有第一化身视频的呼叫画面的呼叫设定画面350。呼叫设定画面350可以包括应用了在化身视频模式下选择的第一化身视频的呼叫画面355、音乐再现开启/关闭项目360和设定批准项目370。
处理器120可以被配置为,响应于用于选择设定批准项目370的输入,在呼叫接收或传输时显示应用了第一化身视频的呼叫画面355。
当接收到来自对方装置的呼叫时,处理器120可以在显示器上显示应用了第一化身视频的呼叫画面380,如图3中的<304>所示。呼叫画面380可以显示接收批准项目381和接收拒绝项目385。当接收到呼叫时,化身视频可以被再现在呼叫画面380上。例如,处理器120可以基于被配置作为呼叫画面的第一化身视频,在第一背景源上显示化身,并且可以在以第一运动移动所显示的化身时,输出第一声音源。
作为另一示例,处理器120可以在锁定画面类别中配置化身视频。在锁定画面类别的情况下,即使配置了化身视频,即包括所有运动、声音源和背景源的化身视频,也可以配置静音选项作为用于再现声音源的默认值。
图4是示出了根据实施例的电子装置中的化身视频配置操作的流程图。
参照图4,根据实施例,电子装置101可以为每个运动推荐匹配的声音源、背景源和化身布置结构,可以配置(或生成)包括所推荐的声音源、背景源和化身布置结构的化身视频,并且向化身视频列表提供该化身视频。
作为示例,电子装置101可以针对每个运动执行图4的操作以配置化身视频。在操作410中,电子装置101的处理器120可以从运动数据库中选择一个第一运动,并且可以识别与第一运动相关的运动信息(例如,元数据)。运动信息可以包括以下中的至少一者:要应用于面部的三维模型、面部纹理(例如,用于表达三维模型的颜色或纹理的信息)、面部表情信息、身体运动信息、身体纹理信息以及根据移动速度的bpm信息。
在操作420中,处理器120可以比较和分析运动信息和存储在电子装置101中的声音源数据库或从服务器提供的声音源数据库。例如,处理器120可以将所选择的第一运动的元数据与声音源(例如,mp3文件或声音文件)的元数据进行比较和分析。
在操作425中,作为比较和分析的结果,处理器120可以选择和推荐适合于所选择的第一运动的声音源。
作为示例,处理器120可以识别第一运动的运动数据中的每分钟节拍(BPM)信息,可以选择与所识别的BPM信息匹配的声音源,并且可以推荐所选择的声音源。
作为另一示例,处理器120可以识别第一运动的音乐流派主题,可以选择所识别的音乐流派主题(例如,爵士乐或说唱乐)中包括的声音源,或者将所选择的运动的识别信息(例如,运动名称)与声音源的标题、专辑信息和艺术家名字匹配以便推荐声音源。
根据实施例,当存在针对第一运动选择的多个声音源时,处理器120可以推荐具有较高优先级的声音源,诸如用户偏好、类似元数据条数的信息和再现次数。
独立地或并行地,在操作430中,处理器120可以识别存储在电子装置101中的图像或视频信息的元数据,以推荐与第一运动或针对第一运动推荐的第一音乐匹配的背景源(或背景源图像)。
例如,如果适合于第一运动的音乐是夏季流派,则处理器120可以推荐与夏季图像相对应的背景源。当第一运动的移动程度对应于慢运动时,处理器120可以推荐与秋季图像相对应的背景源。
独立地或平行地,在操作440中,处理器120可以识别显示器大小(例如,显示区域的大小)。在操作445中,处理器120可以根据显示器大小分析用于显示化身的空间。在操作447中,处理器120可以根据空间推荐化身布置结构(例如,化身大小和位置)。
根据一些实施例,可以省略操作440至447。
在操作450中,处理器120可以基于响应于第一运动而推荐的声音源、背景源和布置结构来配置(或生成)化身视频。
根据实施例,处理器120可以以包的形式存储化身视频。例如,处理器120可以关联和存储响应于第一运动而推荐的第一音乐文件、第一背景源图像和化身布置结构,并且可以在提供化身视频时调用与第一运动关联地存储的第一音乐文件和第一背景源图像,并且可以根据布置结构数据来处置化身。
图5是示出了根据实施例的电子装置的提供化身视频列表的示例性图。
参照图5,根据实施例,电子装置101的处理器120可以在化身视频模式下显示化身视频列表530(例如,包括第一化身视频5331、第二化身视频5332和第三化身视频5333)。化身视频列表可以包括多个化身视频缩略图。
作为示例,可以按最近生成的化身视频首先的次序提供化身视频列表。
处理器120可以显示用于区分预制作的化身视频或下载的化身视频和除预制作或下载的化身视频以外的化身视频的标识符。
作为示例,当需要下载由用户从化身视频列表中选择的化身视频(或与其相对应的化身视频模板)时,处理器120可以显示具有向下指向的箭头形状的标识符540,所述向下指向的箭头形状可以被理解为意味着对应的化身视频是可下载的。
作为另一示例,处理器120可以根据用户请求从服务器下载化身视频(或与其相对应的化身视频模板),并且可以显示指示正在下载对应的化身视频的标识符550。处理器120可以显示指示对应的化身视频的下载已经完成并且化身视频(或与其相对应的化身视频模板)正在被应用于电子装置(或准备执行)的标识符560。
图6是示出了根据实施例的电子装置的化身视频生成和编辑操作的流程图。
参照图6,根据实施例,电子装置101的处理器120可以在操作610中在化身视频模式下显示化身视频列表。例如,处理器120可以以缩略图的形式显示包括针对每个运动推荐的音乐和背景源的化身视频列表。
另外地,处理器120除了分析声音源和背景源之外还可以分析适合于电子装置的显示器大小的空间(例如,化身大小或空间位置),推荐化身布置位置,并且将所推荐的化身布置位置应用于化身视频。
根据实施例,处理器120可以从服务器(例如,化身服务支持服务器)接收(或下载)应用了响应于每个运动而推荐的声音源和背景源的化身视频模板,并且可以将所接收到的化身视频提供给化身视频列表。
在操作620中,处理器120可以接收用于选择第一化身视频的用户输入。在操作630中,处理器120可以在化身展示室中再现(或显示)所选择的第一化身视频。例如,处理器120可以以与第一化身视频相对应的第一运动来移动化身,可以以第一运动来显示推荐的背景源,并且可以输出音乐。
在操作640中,处理器120可以确定是否从所显示的第一化身视频接收到化身调整输入。例如,用户可以通过触摸化身来调整化身的位置,或者可以通过向内捏进(或向外捏出)化身来调整化身的大小。
在操作645中,响应于接收到化身调整输入,处理器120可以基于运动动作半径和用户交互信息(例如,触摸移动或移动方向)调整化身的位置。处理器120可以进行到操作650并且将第一化身视频设定改变为化身的调整后的位置和大小值并对其进行存储。
在操作660中,处理器120可以识别是否接收到声音源重置输入,而不是化身调整输入。例如,处理器120可以接收用于进入声音源重置模式的用户输入。在操作665中,处理器120可以进入声音源设定模式并且显示与第一化身视频相关的候选声音源的列表。处理器120可以在画面上提供使基于第一化身视频中包括的第一运动的bpm信息、流派主题信息和识别信息匹配的候选声音源的列表。在操作670中,处理器120可以接收用于选择另一声音源的用户输入。在操作650中,第一化身视频设定可以被改变为所选择的不同声音源并对其进行存储。
当未接收到化身调整输入或声音源重置输入时,处理器120可以存储正在化身展示室中再现的第一化身视频。
尽管在附图中未示出,但是处理器120可以接收请求背景声音源设定的用户输入,并且可以改变与化身展示室中显示的第一化身视频相关的背景声音源设定。
图7示出了根据实施例的电子装置的化身视频编辑用户界面环境。
参照图7,根据实施例的电子装置101可以在化身视频模式下支持化身编辑(调整)功能。
响应于对第一化身视频的选择,处理器120可以显示用于基于第一化身视频在化身展示室空间中显示(再现)化身的第一画面710。例如,如<701>所示,处理器120可以按与从化身视频列表730中选择的第一化身视频相对应的第一运动而移动化身711,可以按第一运动而显示推荐的背景源,并且可以输出音乐。
处理器120可以接收用于调整化身711的大小的用户手势(例如,在选择化身之后向内捏进的手势),并且可以响应于用户手势,如<702>所示,显示被调整为与用户手势相对应的大小的化身712。
响应于对保存项目740的选择,处理器120可以改变和存储与第一化身视频相对应的化身的大小和位置值的配置。
图8示出了根据实施例的电子装置的化身视频编辑用户界面环境。
参照图8,根据实施例的电子装置101可以支持在化身视频模式下推荐的音乐的静音功能。响应于对第一化身视频的选择,处理器120可以如<801>所示显示用于基于第一化身视频在化身展示室空间中显示(再现)化身811的第一画面810。第一画面810可以包括化身视频列表830、静音项目820、背景源编辑项目825和保存项目840。
处理器120可以以在视觉上可区分的方式显示静音项目820,作为声音源再现的激活(或静音停用)和声音源再现的停止(或静音)。例如,当声音源再现被激活时,静音项目可以被表示为附图标记<801>的对象。
响应于选择静音项目820,处理器120可以将静音项目820表示为附图标记<802>所示的对象。处理器120可以响应于用于在附图标记<802>中再次选择静音项目820的用户输入,来恢复声音源的再现并且可以将静音项目表示为<801>的对象。
图9示出了根据实施例的电子装置的化身视频编辑用户界面环境。
参照图9,根据实施例的电子装置101可以支持编辑在化身视频模式下推荐的背景源图像的功能。响应于对第一化身视频的选择,处理器120可以如<901>所示基于第一化身视频在化身展示室空间中显示(再现)化身911。第一画面910可以包括化身视频列表930、静音项目920、背景源编辑项目925和保存项目940。
处理器120可以在第一画面910上显示基于第一化身视频推荐的背景源图像915。
处理器120可以响应于选择背景源编辑项目925,进入如<901>所示的背景源编辑模式。在背景源编辑模式下,处理器120可以允许用于背景源图像的用户输入。背景源编辑模式可以支持背景源图像缩小/放大功能和背景源图像移动功能,并且另外地,可以支持化身大小缩小/放大功能和化身移动功能。
例如,用户可以放大或缩小背景源图像的大小。用户可以通过将背景源图像向其一个方向拖曳来移动背景源图像的位置。
处理器120可以响应于选择保存项目940,改变和存储与第一化身视频相对应的背景源编辑设定。
图10示出了根据实施例的电子装置的化身视频编辑用户界面环境。与图7至图9不同,图10的画面包括运动编辑项目1050、背景源编辑项目1055和声音源编辑项目1057,然而排除静音项目和背景源编辑项目,但是该用户界面环境仅仅是示例,并且运动编辑项目1050、背景源编辑项目1055和声音源编辑项目1057也可以被应用于另一用户界面环境。
参照图10,根据实施例的电子装置101可以支持编辑(或改变)在化身视频模式下推荐的声音源的功能。响应于选择第一化身视频,处理器120可以如<1001>所示显示用于基于第一化身视频在化身展示室空间中显示(再现)化身1011的第一画面。第一画面可以包括化身视频列表1030、运动编辑项目1050、背景源编辑项目1055、声音源编辑项目1057和保存项目1040。
处理器120可以响应于用于选择声音源编辑项目1057的用户输入,如<1002>所示在第一画面1010上提供与第一化身视频相关的候选声音源列表1060。
处理器120可以基于用于从候选声音源列表1060中选择另一声音源1061的输入来再现所选择的声音源。处理器120可以表达将在视觉上区分的所选择的声音源和未选择的声音源的项目(例如,圆圈形状显示或高亮显示)。
响应于选择保存项目1040,处理器120可以执行到从候选声音源列表1060中选择的另一声音源的改变并且存储该另一声音源。
图11是示出了根据各种实施例的电子装置的化身服务操作的情景图。
参照图11,根据实施例,电子装置101可以执行第一操作1110、第二操作1120和第三操作1130,所述第一操作1110详述针对每个运动推荐声音源和背景源以配置化身视频,所述第二操作1120为化身(例如,表情符号)生成(或配置)包括运动、声音源和的背景源的化身视频,所述第三操作1130在各种应用(或设定)中使用化身视频作为电子装置的电话装饰元素,以及根据情形且根据情景分析来优化和提供化身视频中包括的元素(例如,背景源、声音源、化身布置或化身信息)。
当描述第一操作1110时,当表情符号(例如,第一化身)被选择为配置化身视频并且针对所选择的表情符号选择了运动(例如,第一运动)时,电子装置101可以分析声音源和背景源数据库以推荐适合于所选择的运动的声音(例如,第一声音源)并且推荐适合于所选择的运动的背景源(例如,第二背景源)。尽管从附图中省略,但是电子装置101可以响应于所选择的运动另外地推荐化身布置结构。
可选地,当用户请求声音改变时,电子装置101可以执行声音改变(例如,第二声音源)。电子装置101可以将改变后的声音应用于所选择的运动。另外地,电子装置101可以支持改变为所选择的运动推荐的背景源、编辑背景源或编辑化身的功能。
电子装置101可以对存储在电子装置中的每个运动数据执行第一操作。
当描述第二操作1120时,电子装置101可以生成包括了在第一操作中推荐的声音源和背景源以及所选择的运动的化身视频。电子装置101可以基于被配置为包括运动、声音源和背景源的化身视频模板,配置化身视频,并且存储该化身视频。
当描述第三操作1130时,电子装置101可以提供化身视频以用作电子装置的各种电话装饰元素。电子装置101可以在化身视频模式下访问另一应用的设定模式。电子装置101可以将化身视频配置为电子装置的另一应用画面,例如,锁定画面、呼叫画面、闹钟画面、提醒画面和日历画面。电子装置101可以提供用以选择是否在每个应用的描述画面上使用化身视频的选项。
电子装置101可以根据电子装置101的情形分析情景并且针对电子装置优化和改变化身视频。
作为示例,当在接收到呼叫时存在与对方装置的识别信息相对应的表情符号(或化身)时,电子装置101可以维持化身视频中的其他元素,例如背景源和声音源,并且可以将化身改变为另一人的化身(例如,第二化身)。
作为另一示例,当电子装置101的画面和声音相关设定(例如,横向模式、纵向模式或声音变化)发生改变时,电子装置101可以修改所选择的运动或者将所选择的运动改变为另一运动。
作为另一示例,在当前时间、电子装置所位于的地方和场合发生改变时,电子装置101可以推荐适合于该时间、该地点和该场合的化身的配饰(例如,穿戴项目),可以执行改变为所推荐的配饰,或者可以执行改变为适合于该时间、该地点和该场合的背景图像。
图12是示出了根据各种实施例的根据电子装置的用户情景定制化身视频的操作的流程图。
参照图12,根据实施例,电子装置101可以分析应用设定信息、UI画面的元素和电子装置的情景,以自动地调整化身视频的元素以提供用户定制的化身视频。
例如,在操作1210中,处理器120可以识别在电子装置中配置的声音设定的铃声(例如,声音源)。例如,铃声可以表示电子装置101的信号音。
在操作1220中,处理器120可以通过分析电子装置101中配置的铃声来调整化身视频元素(例如,运动速度)。例如,处理器120可以分析针对每个联系人识别信息而指定的铃声和在呼叫设定中指定的闹钟声音的声音源,并且可以分析化身视频中包括的运动的移动。
作为示例,处理器120可以分析铃声以确定运动的移动速度以及针对铃声优化的运动起点和终点。处理器120可以调整化身运动以根据响应于分析出的铃声而确定的运动的起点和终点所确定的速度移动。作为另一示例,处理器120可以调整化身运动再现速度。
独立地或并行地,在操作1230中,处理器120可以分析应用了化身视频的电子装置的画面的UI元素,并且在操作1240中,处理器可以根据画面UI元素调整化身视频的元素。
作为示例,处理器120可以通过分析由用户选择的呼叫画面UI对象和由用户在呼叫背景源中配置的锁定画面UI对象的位置来确定将显示化身的位置和大小。作为另一示例,处理器120可以通过分析化身的运动的动作半径和可用的显示器大小(例如,显示区域的大小),当运动落在显示器大小之外时调整化身的大小和位置。
独立地或并行地,在操作1250中,处理器120可以根据电子装置情形识别用户环境。例如,电子装置101可以识别关于用户是指定横向模式还是纵向模式的信息以及画面分辨率信息。
在操作1260中,处理器120可以基于对用户情景的分析调整化身视频的元素。作为示例,当电子装置的显示模式被改变为横向模式时,处理器120可以根据横向模式改变确定将显示化身的位置和大小,并且可以调整该位置和大小。
在操作1270中,处理器120可以基于调整后的元素再现化身视频。
图13示出了根据各种实施例的电子装置的化身视频用户界面环境。
参照图13,根据实施例的电子装置101可以根据用户情景针对每个场合调整和表达在呼叫画面上配置的化身视频。
电子装置101可以将呼叫画面1310配置为<1301>所示的化身视频。呼叫画面1310可以包括化身1330(其运动将通过所配置的化身视频来再现)、接收批准对象1320和接收拒绝对象1325。
基于从对方装置接收到呼叫,电子装置101可以响应于对方装置的识别信息识别对方化身是否存在,并且如果对方化身存在,则电子装置101可以如<1302>所示通过用对方化身1340替换将在化身视频中再现的化身来显示呼叫画面1310。电子装置101可以维持运动、背景源和音乐的设定,以及可以仅替换化身数据并且显示该化身数据。
图14示出了根据各种实施例的电子装置的化身视频用户界面环境。
参照图14,根据实施例的电子装置101可以根据当前时间、电子装置101所位于的地方和场合改变化身衣服、运动、背景源和配饰。
电子装置101可以将锁定画面1410配置为<1401>中所示的化身视频。锁定画面1410可以包括将通过化身视频再现的化身1420、紧急呼叫项目1430和相机项目1435。
例如,当电子装置101分析位置信息和日程信息以确定电子装置位于与夏季或休闲相对应的地方中时,电子装置可以推荐适合于度假地的穿戴项目(例如,配饰或衣服)1425并且显示改变为针对化身推荐的穿戴项目1425,以及可以将背景图像推荐为适合于夏季或休闲的背景图像1427并且改变和显示该背景图像,如<1402>所示。
作为另一示例,电子装置101分析周年纪念日信息(例如,生日或一周年纪念日)以确定当前时间对应于周年纪念日,电子装置101可以在锁定画面1410上推荐和显示适合于周年纪念日的化身1430,并且可以在其上推荐和显示庆祝动画效果1437,如<1403>所示。
作为另一示例,当根据位置信息确定电子装置位于公司中时,电子装置101可以将锁定画面上配置的化身视频变换成穿戴适合于公司的项目的化身并且显示该化身,而当电子装置位于家里时,电子装置可以将化身变换成穿戴适合于家的项目的化身并且显示该化身。或者,当基于天气信息确定外面在下雨或下雪时,电子装置101可以向锁定画面上配置的化身视频的背景源图像添加雪效果或雨效果并且显示该雪效果或雨效果。
图15示出了根据各种实施例的电子装置的化身视频用户界面环境。
参照图15,响应于画面UI对象配置的改变,根据实施例的电子装置101可以应用和改变适合于画面UI对象改变的化身布置结构。
如<1501>所示,电子装置101可以使用所配置的化身视频来配置解锁画面1510。电子装置101可以根据解锁画面上的UI对象推荐和显示化身1520的大小和位置的布置结构。
当电子装置101显示如<1502>所示的锁定画面1511时,由于锁定画面1511上显示的UI对象的位置、类型和大小发生改变,所以电子装置101可以分析画面上的UI对象并且自动地调整和显示化身1525的大小和位置,以便不与画面上的UI对象交叠。
图16示出了根据各种实施例的电子装置的化身视频用户界面环境。
参照图16,根据实施例的电子装置101可以在电子装置101的声音设定模式下提供化身视频应用开启/关闭功能选项。
如<1601>所示,电子装置101可以进入电子装置的声音设定模式并且显示声音设定画面1610。声音设定画面1610可以包括与电子装置的声音设定相关的各种设定项目,并且可以包括如所示的化身视频设定项目1620。
当用户想要在呼叫画面上应用化身视频时,用户可以选择并激活化身视频设定项目1620。
响应于选择声音设定画面1610上的化身视频设定项目1620,电子装置101可以提供如<1602>所示的铃声列表1630。当从铃声列表1630中选择第一铃声(或电铃声音)时,电子装置101可以提供推荐UI 1640,其中组合了适合于所选择的第一铃声的运动和背景源。
例如,当第一铃声对应于快乐主题时,电子装置101可以推荐具有许多动画运动和用于激发活动的运动的背景源作为化身视频。作为另一示例,如果第二铃声对应于平静主题,则电子装置101可以推荐具有自然主题和慢运动的背景源作为化身视频。
根据实施例,电子装置101可以分析所选择的铃声(例如,第一铃声)的BPM信息以推荐范围与BPM类似的运动,并且可以调整运动的移动速度以便针对运动的BPM被优化。
电子装置101可以响应于用于从推荐UI 1640中选择箭头项目的输入来显示按不同组合推荐的运动和背景源。
电子装置101可以响应于选择推荐UI 1640中包括的使用项目1645,将当前在推荐UI 1640中再现的运动和背景源与所选择的第一铃声一起配置为化身视频。电子装置101可以在接收到呼叫时再现在声音设定模式下配置的化身视频。
图17示出了根据各种实施例的电子装置的化身视频用户界面环境。
参照图17,根据实施例的电子装置101可以在电子装置101的提醒闹钟(或通知)设定模式下提供化身视频应用开启/关闭功能选项。
如<1701>所示,电子装置101可以进入电子装置101的提醒通知设定模式并且显示提醒设定画面1710。提醒设定画面1710可以包括与电子装置的提醒通知设定相关的各种设定项目,并且可以包括如所示的通知样式设定项目1720。
响应于选择提醒通知设定画面1710上的通知样式设定项目1740,电子装置101可以提供如<1702>所示的通知样式列表1730。电子装置101可以在通知样式列表1730中提供通知背景源项目1740,并且可以提供在通知背景源项目1740(例如,ar表情符号主题)中激活化身视频的应用的功能。尽管在附图中未示出,但是电子装置101可以响应于选择通知背景源项目1740,提供包括针对设定铃声而推荐的运动和背景源的推荐UI(例如,参照图16的1640)。
图18示出了根据各种实施例的电子装置的化身视频用户界面环境。
参照图18,根据实施例的电子装置101可以从运动列表中选择运动以生成新的化身视频,然后可以提供设定类别以支持设定每个画面的功能。
作为示例,电子装置101的处理器120可以在化身服务模式下提供新的化身视频生成项目,并且基于选择新的化身视频生成项目,可以提供包括如<1801>所示的运动列表1830的第一画面1810。响应于从第一画面1810的运动列表1830中选择第一运动1835,处理器120可以响应于第一运动自动地推荐背景源和声音源,可以在化身展示室中显示所推荐的背景源,并且可以切换到用于输出声音源的第二画面1820,如<1802>所示,同时以所选择的第一运动来移动化身1811。
响应于对保存项目1840的选择,处理器120可以生成化身视频,所述化身视频包括当前在化身展示室中再现的化身1811的第一运动以及响应于第一运动而推荐的背景源和音乐,并且,如<1803>所示,处理器120可以显示用于配置所生成的化身视频的第三画面1805。第三画面1805可以提供所生成的化身视频的缩略图1821,以及要被应用所生成的化身视频的设定类别项目,例如,呼叫设定项目1850、锁定画面设定项目1855和共享项目1857。设定类别不限于此,并且可以被设置为个人社交网络服务项目(例如,Facebook项目、Twitter项目、Instagram项目)以进行共享。
根据实施例,电子装置101可以另外地将在化身服务模式下提供的化身视频的共享功能提供给各种用户界面环境(例如,呼叫设定画面或单独的共享菜单选项),并且对此没有限制。
图19示出了根据各种实施例的电子装置的化身视频用户界面环境。
参照图19,根据实施例的电子装置101可以支持在生成新的化身视频之后通过提供设定类别来设定每个画面的功能。
作为示例,响应于在化身服务模式下完成了新的化身视频的生成(或保存),电子装置101的处理器120可以提供设定画面1910,所述设定画面1910包括能够用来共享化身视频的共享项目1920以及设定类别(例如,呼叫设定项目1930、锁定设定项目1940和观看设定项目1950)。
例如,电子装置101的处理器120可以进入新的视频设定模式并且提供图3的化身视频列表330或图18的运动列表1830。响应于选择根据用户的请求选择的化身视频(即,包括响应于第一运动而推荐的音乐和背景源)的生成完成了,处理器120可以提供用于设定每个画面的共享项目和设定类别。当共享项目当中的第一项目被选择时,处理器120可以进入与所选择的第一项目相关的共享模式。当从设定类别中选择了呼叫设定项目1930时,处理器120可以使用设定画面上显示的化身视频来设定呼叫画面。
根据各种实施例的运行电子装置的化身视频服务的方法可以包括:当运行化身服务时,在化身视频模式下提供画面设定类别;响应于从画面设定类别中选择第一画面设定类别,提供通过组合针对每个化身运动推荐的声音源、背景源和化身布置结构中的至少一者所获得的化身视频列表;以及响应于从化身视频列表中选择第一化身视频,配置所选择的第一画面设定类别的画面,使得第一化身视频被再现。
提供化身视频列表可以包括:以缩略图的形式提供化身视频,所述化身视频是通过基于被配置为包括运动、声音源和背景源的化身视频模板针对每个运动来组合声音源和背景源所配置的。
提供化身视频列表可以进一步包括:通过将每条运动信息与存储在存储器中的声音源数据库进行比较来推荐适合于每个运动的声音源;以及从存储在存储器中的图像数据库中推荐适合于存储在存储器中的运动信息的背景源图像,以便配置化身视频。
提供化身视频列表可以进一步包括:从服务器接收被自动地应用了为每个运动推荐的音乐和背景源的化身视频包;以及将所接收到的化身视频包提供给化身视频列表。
画面设定类别可以包括以下中的至少一者:呼叫画面设定项目、锁定画面设定项目、提醒通知画面设定项目、背景源画面设定项目、闹钟画面设定项目和共享设定项目。
所述方法可以进一步包括:在执行配置之后显示其上配置有化身视频的画面,使得第一化身视频被再现,其中,显示其上配置有第一化身视频的画面包括以下操作中的至少一者:基于在其上配置有第一化身视频的画面上布置的用户界面对象的位置信息以及电子装置的使用情景情形信息、时间信息、位置信息和日程信息中的至少一者执行静音激活功能,调整和显示第一化身视频中包括的化身的大小和位置,以及调整和显示第一化身视频中包括的背景源的大小和位置。
如与本公开的各种实施例关联使用的,术语“模块”可包括以硬件、软件或固件实现的单元,并可与其他术语(例如,“逻辑”、“逻辑块”、“部分”或“电路”)可互换地使用。模块可以是被适配为执行一个或更多个功能的单个集成部件或者是该单个集成部件的最小单元或部分。例如,根据实施例,可以以专用集成电路(ASIC)的形式来实现模块。
可将在此阐述的各种实施例实现为包括存储在存储介质(例如,内部存储器136或外部存储器138)中的可由机器(例如,电子装置101)读取的一个或更多个指令的软件(例如,程序140)。例如,在处理器的控制下,所述机器(例如,电子装置101)的处理器(例如,处理器120)可在使用或无需使用一个或更多个其它部件的情况下调用存储在存储介质中的所述一个或更多个指令中的至少一个指令并运行所述至少一个指令。这使得所述机器能够操作用于根据所调用的至少一个指令执行至少一个功能。所述一个或更多个指令可包括由编译器产生的代码或能够由解释器运行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅意味着所述存储介质是有形装置,并且不包括信号(例如,电磁波),但是该术语并不在数据被半永久性地存储在存储介质中与数据被临时存储在存储介质中之间进行区分。
根据实施例,可在计算机程序产品中包括和提供根据本公开的各种实施例的方法。计算机程序产品可作为产品在销售者和购买者之间进行交易。可以以机器可读存储介质(例如,紧凑盘只读存储器(CD-ROM))的形式来发布计算机程序产品,或者可经由应用商店(例如,Play StoreTM)在线发布(例如,下载或上传)计算机程序产品,或者可直接在两个用户装置(例如,智能电话)之间分发(例如,下载或上传)计算机程序产品。如果是在线发布的,则计算机程序产品中的至少部分可以是临时产生的,或者可将计算机程序产品中的至少部分至少临时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或转发服务器的存储器)中。
根据各种实施例,上述部件中的每个部件(例如,模块或程序)可包括单个实体或多个实体,并且多个实体中的一些实体可分离地设置在不同的部件中。根据各种实施例,可省略上述部件中的一个或更多个部件,或者可添加一个或更多个其它部件。可选择地或者另外地,可将多个部件(例如,模块或程序)集成为单个部件。在这种情况下,根据各种实施例,该集成部件可仍旧按照与所述多个部件中的相应一个部件在集成之前执行一个或更多个功能相同或相似的方式,执行所述多个部件中的每一个部件的所述一个或更多个功能。根据各种实施例,由模块、程序或另一部件所执行的操作可顺序地、并行地、重复地或以启发式方式来执行,或者所述操作中的一个或更多个操作可按照不同的顺序来运行或被省略,或者可添加一个或更多个其它操作。

Claims (15)

1.一种电子装置,所述电子装置包括:
显示器;
至少一个处理器;以及
存储器,
其中,所述存储器包括所述至少一个处理器可执行来进行以下操作的指令:
执行作为化身视频模式的一部分的化身服务应用,并且在所述显示器上显示所述化身服务应用的用户界面,所述用户界面包括多个画面设定类别;
检测对所述多个画面设定类别当中的第一画面设定类别的选择,并且基于检测到的选择,显示包括多个化身视频的化身视频列表;以及
响应于对所述化身视频列表当中的第一化身视频的选择,将所述第一化身视频应用于所选择的第一画面设定类别的画面,
其中,每个化身视频是基于模板与以下至少一者组合而构成的:
针对第一动画所推荐的已存储的数字化身的布置、声音和背景。
2.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:
通过基于被指定为包括运动、声音源和背景源的每一个化身视频模板来组合运动或动画数据、声音源数据和背景图像,生成每一个化身视频;以及
以缩略图的形式将所生成的化身视频提供给所述化身视频列表。
3.根据权利要求2所述的电子装置,其中,所述存储器存储有多条动画或运动信息、声音源数据库和图像源数据库,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:
通过将存储在所述存储器中的每条运动或动画信息与存储在所述存储器中的声音源数据库进行比较来推荐适合于每个运动的声音源,并且从存储在所述存储器中的图像数据库中推荐适合于每个运动的背景图像,以便生成所述化身视频。
4.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:
从服务器向所述化身视频列表提供化身视频包,所述化身视频包被自动地应用了为每个运动推荐的音乐和背景源。
5.根据权利要求1所述的电子装置,其中,所述画面设定类别包括以下至少一者:呼叫画面设定项目、锁定画面设定项目、提醒通知画面设定项目、背景源画面设定项目、闹钟画面设定项目和共享设定项目,并且
其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:
响应于针对每个画面设定类别的用于进入个人设定模式的用户输入,在所述显示器上显示用于进入所选择的个人设定模式的画面,并且在所述画面上生成响应于用户输入请求而选择的化身视频。
6.根据权利要求2所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:
通过以下至少一者来推荐一个声音源:对每个运动的与每分钟节拍信息匹配的声音源的选择、对每个运动的与音乐流派主题相对应的声音源的选择,或对每个运动的与识别信息匹配的声音源的选择;以及
当多个声音源被推荐时,基于声音源偏好、元数据比较次序和再现次数中的至少一者来选择和推荐具有较高优先级的声音源。
7.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:
识别所述显示器的大小,根据所述显示器的大小识别要显示化身的空间区域,并且基于所述空间区域改变和显示当所述化身视频被再现时要显示的化身的大小和位置。
8.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:
在第一化身视频再现模式下提供化身编辑功能;以及
执行以下操作中的至少一者:根据用户请求通过所述化身编辑功能来调整化身的大小和位置,改变在所述第一化身视频中推荐的声音源,或者编辑和改变在所述第一化身视频中推荐的背景源。
9.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:当与锁定画面或背景源画面关联地生成化身视频时,激活在所述化身视频中组合的声音源的静音功能。
10.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:在显示其上生成有化身视频的画面时,通过调整所述化身视频中包括的化身的大小和位置或者根据所述位置调整所述背景源的大小和位置来显示所述画面上布置的用户界面对象。
11.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:在显示其上生成有化身视频的画面时,通过以下操作来显示所述画面:分析所述电子装置的使用情境,根据所述使用情景执行静音激活功能,调整所述化身视频中包括的化身的大小和位置,或者调整背景源的大小和位置。
12.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:在显示其上生成有化身视频的画面时,将根据时间信息、位置信息和日程信息生成的化身视频中包括的化身服装、背景源和配饰改变为其他优化的项目并且对其进行显示。
13.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:
在所述化身视频模式下提供新化身视频生成项目,并且基于对所述新化身视频生成项目的选择提供所述化身视频列表;以及
响应于存储了从所述化身视频列表中选择的第二化身视频,在所述显示器上提供用于生成所述第二化身视频的共享项目和设定类别项目。
14.根据权利要求1所述的电子装置,其中,所述存储器还包括所述至少一个处理器可执行来进行以下操作的指令:
在所述化身视频模式下提供新化身视频生成项目,并且基于对所述新化身视频生成项目的选择,提供运动列表,
响应于从所述运动列表中选择了第一运动,在化身展示室中再现第二化身视频,所述第二化身视频是通过对响应于所述第一运动而推荐的背景源和音乐进行组合所获得的;以及
响应于存储了所述第二化身视频,在所述显示器上提供用于生成所述第二化身视频的共享项目和设定类别项目。
15.一种用于运行电子装置的化身视频服务的方法,所述方法包括:
由所述电子装置的至少一个处理器执行作为化身视频模式的一部分的化身服务应用,并且经由所述电子装置的显示器显示所述化身服务应用的用户界面,所述用户界面包括多个画面设定类别;
经由所述电子装置的输入电路检测对所述多个画面设定类别当中的第一画面设定类别的选择,并且基于检测到的选择,显示包括多个化身视频的化身视频列表;以及
基于检测到对所述化身视频列表当中的第一化身视频的选择,将所述第一化身视频应用于所选择的第一画面设定类别的画面,
其中,每个化身视频是基于模板与以下至少一者组合而构成的:针对第一动画所推荐的已存储的数字化身的布置、声音和背景。
CN202280009697.1A 2021-01-13 2022-01-11 电子装置及在该电子装置中运行化身视频服务的方法 Pending CN116762103A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2021-0004702 2021-01-13
KR1020210004702A KR20220102396A (ko) 2021-01-13 2021-01-13 전자 장치 및 아바타 비디오 서비스 운용 방법
PCT/KR2022/000408 WO2022154415A1 (ko) 2021-01-13 2022-01-11 전자 장치 및 아바타 비디오 서비스 운용 방법

Publications (1)

Publication Number Publication Date
CN116762103A true CN116762103A (zh) 2023-09-15

Family

ID=82405084

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280009697.1A Pending CN116762103A (zh) 2021-01-13 2022-01-11 电子装置及在该电子装置中运行化身视频服务的方法

Country Status (3)

Country Link
US (1) US20220229546A1 (zh)
EP (1) EP4216167A4 (zh)
CN (1) CN116762103A (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9465985B2 (en) 2013-06-09 2016-10-11 Apple Inc. Managing real-time handwriting recognition
DK179374B1 (en) * 2016-06-12 2018-05-28 Apple Inc Handwriting keyboard for monitors
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11714536B2 (en) * 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
USD1015341S1 (en) * 2021-06-05 2024-02-20 Apple Inc. Display or portion thereof with graphical user interface
US20230367440A1 (en) 2022-05-10 2023-11-16 Apple Inc. Devices, Methods, and Graphical User Interfaces for Providing Notifications and Application Information

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100703281B1 (ko) * 2004-04-30 2007-04-03 삼성전자주식회사 휴대단말기의 특정 상태에서 화면 표시장치 및 방법
FR2906056B1 (fr) * 2006-09-15 2009-02-06 Cantoche Production Sa Procede et systeme d'animation d'un avatar en temps reel a partir de la voix d'un interlocuteur.
TWI439960B (zh) * 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US8694899B2 (en) * 2010-06-01 2014-04-08 Apple Inc. Avatars reflecting user states
WO2013152455A1 (en) * 2012-04-09 2013-10-17 Intel Corporation System and method for avatar generation, rendering and animation
KR101761190B1 (ko) * 2013-02-22 2017-07-25 삼성전자 주식회사 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치
US20150287403A1 (en) * 2014-04-07 2015-10-08 Neta Holzer Zaslansky Device, system, and method of automatically generating an animated content-item
WO2019164266A1 (en) * 2018-02-23 2019-08-29 Samsung Electronics Co., Ltd. Electronic device for generating image including 3d avatar reflecting face motion through 3d avatar corresponding to face and method of operating same
US11119568B2 (en) * 2019-09-24 2021-09-14 Facebook Technologies, Llc Suspend mode feature for artificial reality systems
US20210154556A1 (en) * 2019-11-22 2021-05-27 Nike, Inc. Apparel based dynamic movement scoring

Also Published As

Publication number Publication date
EP4216167A4 (en) 2024-05-01
EP4216167A1 (en) 2023-07-26
US20220229546A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
EP4216167A1 (en) Electronic device and method for operating avatar video service
US20230297231A1 (en) Input device comprising touchscreen, and operation method of same
KR102256292B1 (ko) 확장이 가능한 디스플레이를 이용하여 멀티 윈도우를 제공하는 전자 장치
US20210319617A1 (en) Electronic device for communicating in augmented reality and method thereof
US20230076342A1 (en) Method and apparatus for providing image
US20230176655A1 (en) Electronic device and method for controlling vibration output thereof
US20230360342A1 (en) Method for providing content creation function and electronic device supporting same
US20230229245A1 (en) Emoji recommendation method of electronic device and same electronic device
US11955141B2 (en) Electronic device, method, and non-transitory storage medium for editing video
US20230030320A1 (en) Electronic device displaying user interface and method for operating the same
US11907737B2 (en) Method for configuring home screen and electronic device using the same
US10825228B2 (en) Electronic apparatus for generating animated message by drawing input
KR20220102396A (ko) 전자 장치 및 아바타 비디오 서비스 운용 방법
US20230143688A1 (en) Electronic device and method for automatically generating edited video
US20230088965A1 (en) Electronic device for synthesizing two-dimensional object with three-dimensional object, operation method of electronic device, and non-transitory storage medium
US20230367459A1 (en) Electronic device for performing screen capture and method for capturing screen by electronic device
US20230274717A1 (en) Electronic device having expandable display and control method thereof
US20230244351A1 (en) Audio playback and screen display method and device therefor
US20230012919A1 (en) Electronic device and method for video call based on reaction service
EP4325874A1 (en) Electronic device and operation method of electronic device
US20230196499A1 (en) Electronic device and operating method thereof
US20230111512A1 (en) Electronic device and method for generating additional information about file in electronic device
US20240062459A1 (en) Electronic device and computer-readable storage medium for providing virtual space
US20230343367A1 (en) Image processing method and electronic device supporting same
EP4357896A1 (en) Electronic device for controlling attribute information of application and method for controlling same

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination