CN113692563A - 基于目标观众来修改现有内容 - Google Patents

基于目标观众来修改现有内容 Download PDF

Info

Publication number
CN113692563A
CN113692563A CN202080029375.4A CN202080029375A CN113692563A CN 113692563 A CN113692563 A CN 113692563A CN 202080029375 A CN202080029375 A CN 202080029375A CN 113692563 A CN113692563 A CN 113692563A
Authority
CN
China
Prior art keywords
action
target
implementations
content
content rating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080029375.4A
Other languages
English (en)
Inventor
I·M·里克特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN113692563A publication Critical patent/CN113692563A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25883Management of end-user data being end-user demographical data, e.g. age, family status or address
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26208Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists the scheduling operation being performed under constraints
    • H04N21/26241Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists the scheduling operation being performed under constraints involving the time of distribution, e.g. the best time of the day for inserting an advertisement or airing a children program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4755End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user preferences, e.g. favourite actors or genre
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4756End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

现有增强型现实(ER)内容可基于目标观众来进行修改。在各种具体实施中,一种设备包括非暂态存储器以及与非暂态存储器耦接的一个或多个处理器。在一些具体实施中,一种方法包括获得ER内容项。从该ER内容项中识别该ER内容项中的目标实现器的一个或多个ER表示所执行的第一动作。该方法包括确定该第一动作是否违反目标内容分级。如果该第一动作违反该目标内容分级,则获得满足该目标内容分级并且与该第一动作在一定程度内相似的第二动作。通过用该第二动作替换该第一动作来修改该ER内容项以便生成满足该目标内容分级的经修改ER内容项。

Description

基于目标观众来修改现有内容
相关申请的交叉引用
本申请要求于2019年6月27日提交的美国临时专利申请号62/867,536的权益,该申请全文以引用方式并入。
技术领域
本公开整体涉及基于目标观众来修改现有内容。
背景技术
一些设备能够生成和呈现计算机生成的内容。一些增强型现实(ER)内容包括虚拟场景,该虚拟场景是真实世界场景的模拟替换。一些ER内容包括增强场景,该增强场景是真实世界场景的修改版本。呈现ER内容的一些设备包括移动通信设备,诸如智能电话、可头戴显示器(HMD)、眼镜、抬头显示器(HUD)和光学投影系统。可能适合于一个观众的ER内容可能不适合于另一个观众。例如,一些ER内容可包括可能不适合于特定观看者的暴力内容或语言。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1示出了根据一些具体实施的示例性操作环境。
图2A至图2B示出了根据各种具体实施的在ER布景中生成经修改ER内容的示例性系统。
图3A是根据一些具体实施的示例性新兴内容引擎的框图。
图3B是根据一些具体实施的示例性神经网络的框图。
图4A至图4C是根据一些具体实施的修改ER内容的方法的流程图表示。
图5是根据一些具体实施的使位置数据模糊的设备的框图。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的系统、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
发明内容
本文所公开的各种具体实施包括用于基于目标观众来修改现有增强型现实(ER)内容的设备、系统和方法。在各种具体实施中,一种设备包括非暂态存储器以及与非暂态存储器耦接的一个或多个处理器。在一些具体实施中,一种方法包括获得ER内容项。从该ER内容项中识别该ER内容项中的目标实现器的一个或多个ER表示所执行的第一动作。该方法包括确定该第一动作是否违反目标内容分级。响应于确定该第一动作违反该目标内容分级,获得满足该目标内容分级并且与该第一动作在一定程度内相似的第二动作。通过用该第二动作替换该第一动作来修改该ER内容项以便生成满足该目标内容分级的经修改ER内容项。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将理解,其他有效方面和/或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
描述了用于与各种增强型现实技术相关地使用此类系统的电子系统和技术的各种示例。
物理布景是指各个人可在不使用电子系统的情况下感测和/或交互的世界。物理布景诸如物理公园包括物理元素,诸如物理野生动物、物理树木和物理植物。人们可例如使用一种或多种感觉(包括视觉、嗅觉、触觉、味觉和听觉)直接感测物理布景和/或以其他方式与物理布景进行交互。
与物理布景相比,增强型现实(ER)布景是指各种人通过使用电子系统可感测和/或以其他方式与之交互的完全地(或部分地)计算机生成的布景。在ER中,部分地监视人的移动,并且响应于此,以与一个或多个物理定律一致的方式来改变与ER布景中的至少一个虚拟对象对应的至少一个属性。例如,响应于ER系统检测到人向上看,ER系统可以以与此类声音和外观会在物理布景中改变的方式一致的方式来调整呈现给人的各种音频和图形。也可例如响应于移动的表示(例如,语音命令)而进行对ER布景中的虚拟对象的属性的调整。
人可以利用一种或多种感觉,诸如视觉、嗅觉、味觉、触觉和听觉来感测ER对象和/或与ER对象交互。例如,人可感测创建多维或空间声学布景的对象和/或与其交互。多维或空间声学布景为个人提供了在多维空间中对离散声源的感知。此类对象还可实现声学透明性,该声学透明性可在具有或没有计算机生成的音频的情况下选择性地结合来自物理布景的音频。在某些ER布景中,人可仅感测音频对象和/或仅与其交互。
虚拟现实(VR)是ER的一个示例。VR布景是指被配置为仅包括针对一种或多种感觉的计算机生成的感官输入的增强布景。VR布景包括人可以感测和/或交互的多个虚拟对象。人可通过在计算机生成的布景内模拟人动作中的至少一些动作和/或通过模拟人或其在计算机生成的布景内的存在来感测VR布景中的虚拟对象和/或与其交互。
混合现实(MR)是ER的另一个示例。MR布景是指被配置为将计算机生成的感官输入(例如,虚拟对象)与来自物理布景的感官输入或来自物理布景的感官输入的表示进行集成的增强布景。在现实频谱上,MR布景介于一端处的完全物理布景和另一端处的VR布景之间并且不包括这些布景。
在一些MR布景中,计算机生成的感官输入可基于来自物理布景的感官输入的变化而被调整。另外,用于呈现MR布景的一些电子系统可以检测相对于物理布景的位置和/或取向,以实现真实对象(即来自物理布景的物理元素或其表示)与虚拟对象之间的交互。例如,系统可检测移动并相应地调整计算机生成的感官输入,使得例如虚拟树相对于物理结构看起来是固定的。
增强现实(AR)是MR的示例。AR布景是指一个或多个虚拟对象叠加在物理布景(或其表示)之上的增强布景。例如,电子系统可包括不透明显示器和用于捕获物理布景的视频和/或图像的一个或多个成像传感器。例如,此类视频和/或图像可以是物理布景的表示。视频和/或图像与虚拟对象组合,其中该组合随后被显示在不透明显示器上。物理布景可由人经由物理布景的图像和/或视频间接地查看。因此,人可观察叠加在物理布景上的虚拟对象。当系统捕获物理布景的图像并且使用所捕获的图像在不透明显示器上显示AR布景时,所显示的图像被称为视频透传。另选地,透明或半透明显示器可被包括在用于显示AR布景的电子系统中,使得个体可通过透明或半透明显示器直接查看物理布景。虚拟对象可被显示在半透明或透明显示器上,使得个体观察叠加在物理布景上的虚拟对象。在另一个示例中,可利用投影系统以便将虚拟对象投影到物理布景上。例如,虚拟对象可在物理表面上被投影,或作为全息图,使得个体观察叠加在物理布景之上的虚拟对象。
AR布景也可指其中物理布景的表示被计算机生成的感官数据修改的增强布景。例如,物理布景的表示的至少一部分能够以图形方式修改(例如,放大),使得所修改的部分仍可表示初始捕获的图像(但不是完全复制的版本)。另选地,在提供视频透传时,可修改一个或多个传感器图像,以便施加与由图像传感器捕获的视点不同的特定视点。再如,物理布景的表示的部分可通过以图形方式将该部分进行模糊处理或消除该部分而被改变。
增强虚拟(AV)是MR的另一个示例。AV布景是指虚拟的或计算机生成的布景结合来自物理布景的一个或多个感官输入的增强布景。此类感官输入可包括物理布景的一个或多个特征的表示。虚拟对象可例如结合与由成像传感器捕获的物理元素相关联的颜色。另选地,虚拟对象可采用与例如对应于物理布景的当前天气状况一致的特征,诸如经由成像识别的天气状况、在线天气信息和/或与天气相关的传感器。又如,AR公园可包括虚拟结构、植物和树木,尽管AR公园布景内的动物可包括从物理动物的图像准确复制的特征。
各种系统允许人们感测ER布景和/或与其交互。例如,头戴式系统可包括一个或多个扬声器和不透明显示器。又如,外部显示器(例如,智能电话)可结合到头戴式系统内。头戴式系统可包括用于捕获物理布景的音频的麦克风和/或用于捕获物理布景的图像/视频的图像传感器。头戴式系统中还可包括透明或半透明显示器。半透明或透明显示器可例如包括基板,(表示图像的)光通过该基板被引导到人的眼睛。显示器还可包含LED、OLED、硅基液晶、激光扫描光源、数字光投影仪或它们的任何组合。光透射穿过的基板可以是光学反射器、全息基板、光波导、光合路器或它们的任何组合。透明或半透明显示器可例如选择性地在透明/半透明状态和不透明状态之间转变。又如,电子系统可以是基于投影的系统。在基于投影的系统中,视网膜投影可用于将图像投影到人的视网膜上。另选地,基于投影的系统还可将虚拟对象投影到物理布景中,例如,诸如将虚拟对象投影为全息图或投影到物理表面上。ER系统的其他示例包括被配置为显示图形的窗口、头戴式耳机、耳机、扬声器布置、被配置为显示图形的透镜、平视显示器、被配置为显示图形的汽车挡风玻璃、输入机构(例如,具有或不具有触觉功能的控制器)、台式或膝上型计算机、平板电脑或智能电话。
可能适合于一个观众的ER内容可能不适合于另一个观众。例如,一些ER内容可包括可能不适合于特定观看者的暴力内容或语言。可以为不同观众生成ER内容的不同变化。然而,为不同观众生成ER内容的变化在计算上是昂贵的。此外,对于许多内容制作方而言,开发相同ER内容的多种变化是成本高昂的。例如,生成相同ER电影的R级版本和PG级版本可能是昂贵且耗时的。即使假设可以高性价比方式生成相同ER内容的多个变化,存储ER内容的每种变化也是存储器密集的。
例如对于2D资产,一些具体实施涉及使内容的不适当部分模糊。例如,声音诸如哔哔声可使脏话模糊。又如,色条可使一些内容模糊或被覆盖。又如,可跳过暴力场景。然而,此类具体实施可减损用户体验,并且可限于内容的模糊。
本公开提供了用于基于目标观众来修改现有增强型现实(ER)内容的方法、系统和/或设备。在各种具体实施中,新兴内容引擎获得现有ER内容并修改现有ER内容,以生成更适合于目标观众的经修改ER内容。在一些具体实施中,获得目标内容分级。目标内容分级可基于目标观众。在一些具体实施中,目标内容分级是观看者的估计年龄的函数。例如,如果幼儿正在单独地观看ER内容,则目标内容分级可以是例如G(针对美国电影的美国电影协会(MPAA)分级系统中的普通观众)或TV-Y(在用于美国电视内容的分级系统中被分级为适合于所有年龄的儿童)。另一方面,如果成人正在单独地观看ER内容,则目标内容分级可以是例如R(MPAA分级系统中的受限观众)或TV-MA(在用于美国电视内容的分级系统中的仅成熟观众)。如果家庭正在一起观看ER内容,则目标内容分级可被设置为适合于观众中的最年轻人的级别,或者可例如由成人手动配置。
在一些具体实施中,从现有ER内容中提取一个或多个动作。可例如使用场景分析、场景理解、实例分割和/或语义分割的组合来提取一个或多个动作。在一些具体实施中,识别要修改的一个或多个动作。对于要修改的每个动作,合成一个或多个替换动作。可对替换动作进行降级(例如,从R到G)或升级(例如,从PG-13到R)。
根据一些具体实施,设备包括一个或多个处理器、非暂态存储器以及一个或多个程序。在一些具体实施中,一个或多个程序存储在非暂态存储器中并由一个或多个处理器执行。在一些具体实施中,一个或多个程序包括用于执行或促使执行本文描述的任何方法的指令。根据一些具体实施,一种非暂态计算机可读存储介质中存储有指令,该指令在由设备的一个或多个处理器执行时使该设备执行或导致执行本文所述方法中的任一种。根据一些具体实施,一种设备包括一个或多个处理器、非暂态存储器,以及用于执行或导致执行本文所述方法中的任一种的装置。
图1示出了根据一些具体实施的示例性操作环境100。尽管示出了相关特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的示例性具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,操作环境100包括电子设备102和控制器104。在一些具体实施中,电子设备102是或包括智能电话、平板电脑、膝上型计算机和/或台式计算机。电子设备102可由用户106穿戴或携带。
如图1所示,电子设备102呈现增强型现实(ER)布景108。在一些具体实施中,ER布景108由电子设备102和/或控制器104生成。在一些具体实施中,ER布景108包括虚拟场景,该虚拟场景是物理布景的模拟替换。例如,ER布景108可由电子设备102和/或控制器104模拟。在此类具体实施中,ER布景108不同于电子设备102所位于的物理布景。
在一些具体实施中,ER布景108包括增强场景,该增强场景是物理布景的修改版本。例如,在一些具体实施中,电子设备102和/或控制器104修改(例如,增强)电子设备102所位于的物理布景以便生成ER布景108。在一些具体实施中,电子设备102和/或控制器104通过模拟电子设备102所位于的物理布景的副本来生成ER布景108。在一些具体实施中,电子设备102和/或控制器104通过从电子设备102所位于的物理布景的模拟副本中移除和/或向其中添加物项来生成ER布景108。
在一些具体实施中,ER布景108包括各种目标实现器,诸如角色表示110a、角色表示110b、机器人表示112和无人机表示114。在一些具体实施中,目标实现器表示来自虚构材料诸如电影、视频游戏、漫画和小说的角色。例如,角色表示110a可表示来自虚构漫画的角色,并且角色表示110b表示来自虚构视频游戏的角色。在一些具体实施中,ER布景108包括表示来自不同虚构材料(例如,来自不同电影/游戏/漫画/小说)的角色的目标实现器。在各种具体实施中,目标实现器表示物理实体(例如,有形对象)。例如,在一些具体实施中,目标实现器表示装备(例如,机器诸如飞机、坦克、机器人、汽车等)。在图1的示例中,机器人表示112表示机器人,并且无人机表示114表示无人机。在一些具体实施中,目标实现器表示来自虚构材料的虚拟实体(例如,虚拟角色或虚拟装备)。在一些具体实施中,目标实现器表示来自物理布景的实体,包括位于ER布景108内部和/或外部的事物。
在各种具体实施中,目标实现器执行一个或多个动作。在一些具体实施中,目标实现器执行一系列动作。在一些具体实施中,电子设备102和/或控制器104确定目标实现器要执行的动作。在一些具体实施中,目标实现器的动作与虚构材料中对应实体(例如,角色或装备)执行的动作在一定程度内相似。在图1的示例中,角色表示110b正在执行施加魔咒的动作(例如,因为对应角色能够在虚构材料中施加魔咒)。在图1的示例中,无人机表示114正在执行悬停动作(例如,因为真实世界中的无人机能够悬停)。在一些具体实施中,电子设备102和/或控制器104获得目标实现器的动作。例如,在一些具体实施中,电子设备102和/或控制器104从确定(例如,选择)这些动作的远程服务器接收目标实现器的动作。
在各种具体实施中,目标实现器执行动作以便满足(例如,完成或实现)目标。在一些具体实施中,目标实现器与特定目标相关联,并且目标实现器执行改善满足该特定目标的可能性的动作。在一些具体实施中,目标实现器称为对象表示,例如,因为目标实现器表示各种对象(例如,物理布景中的对象或虚构对象)。在一些具体实施中,表示角色的目标实现器称为角色目标实现器。在一些具体实施中,角色目标实现器执行动作以实现角色目标。在一些具体实施中,表示装备的目标实现器称为装备目标实现器。在一些具体实施中,装备目标实现器执行动作以实现装备目标。在一些具体实施中,表示环境的目标实现器被称为环境目标实现器。在一些具体实施中,环境目标实现器执行环境动作以实现环境目标。
在各种具体实施中,目标实现器被称为动作执行代理(为简明起见下文称“代理”)。在一些具体实施中,代理被称为虚拟代理或虚拟智能代理。在一些具体实施中,目标实现器被称为动作执行元素。
在一些具体实施中,基于来自用户106的用户输入生成ER布景108。例如,在一些具体实施中,移动设备(未示出)接收指示ER布景108的地形的用户输入。在此类具体实施中,电子设备102和/或控制器104配置ER布景108,使得ER布景108包括经由用户输入指示的地形。在一些具体实施中,该用户输入指示环境条件。在此类具体实施中,电子设备102和/或控制器104将ER布景108配置为具有由用户输入指示的环境条件。在一些具体实施中,环境条件包括温度、湿度、压力、可见度、环境光水平、环境声级、一天中的时间(例如,上午、下午、傍晚或夜间)和降水(例如,多云、下雨或下雪)中的一者或多者。
在一些具体实施中,基于来自用户106的用户输入来确定(例如,生成)目标实现器的动作。例如,在一些具体实施中,移动设备接收指示目标实现器的放置的用户输入。在此类具体实施中,电子设备102和/或控制器104根据用户输入所指示的放置来定位目标实现器。在一些具体实施中,用户输入指示允许目标实现器执行的特定动作。在此类具体实施中,电子设备102和/或控制器104从用户输入所指示的特定动作中选择目标实现器的动作。在一些具体实施中,电子设备102和/或控制器104放弃不在用户输入所指示的特定动作之中的动作。
在一些具体实施中,电子设备102和/或控制器104从ER内容源118接收现有ER内容116。ER内容116可包括由一个或多个目标实现器(例如,代理)执行以满足(例如,完成或实现)一个或多个目标的一个或多个动作。在一些具体实施中,每个动作与内容分级相关联。可基于ER内容116所表示的编程类型来选择内容分级。例如,对于表示电影的ER内容116,每个动作可根据MPAA分级系统与内容分级相关联。对于表示电视内容的ER内容116,每个动作可根据电视行业所使用的内容分级系统与内容分级相关联。在一些具体实施中,每个动作可取决于其中观看ER内容116的地理区域与内容分级相关联,因为不同地理区域采用不同内容分级系统。由于每个动作可与相应分级相关联,因此ER内容116可包括与不同分级相关联的动作。在一些具体实施中,ER内容116中的单独动作的相应分级可不同于与ER内容116相关联的总体分级(例如,全局分级)。例如,ER内容116的总体分级可为PG-13,然而,单独动作的分级可在G至PG-13的范围内。
在一些具体实施中,在ER内容116中指示(例如,编码或标记)与ER内容116中的一个或多个动作相关联的内容分级。例如,表示电影的ER内容116中的战斗流程可被指示为与PG-13或更高的内容分级相关联。
在一些具体实施中,从现有ER内容中提取一个或多个动作。例如,电子设备102、控制器104或另一个设备可使用场景分析、场景理解、实例分割和/或语义分割的组合来提取一个或多个动作。在一些具体实施中,使用元数据在ER内容116中指示一个或多个动作。例如,元数据可用于指示ER内容116的一部分表示使用枪的战斗流程。电子设备102、控制器104或另一个设备可使用元数据来提取(例如,检索)一个或多个动作。
在一些具体实施中,识别要修改的一个或多个动作。例如,电子设备102、控制器104或另一个设备可通过确定一个或多个动作是否违背目标内容分级(这可基于目标观众)来识别要修改的一个或多个动作。在一些具体实施中,目标内容分级是观看者的估计年龄的函数。例如,如果幼儿正在单独观看ER内容116,则目标内容分级可以是例如G或TV-Y。另一方面,如果成人正在单独观看ER内容116,则目标内容分级可以是例如R或TV-MA。如果家庭正在一起观看ER内容116,则目标内容分级可被设置为适合于观众中的最年轻人的级别,或者可例如由成人手动配置。
在一些具体实施中,对于要修改的每个动作,合成一个或多个替换动作,例如由电子设备102、控制器104和/或另一个设备。在一些具体实施中,对替换动作进行降级(例如,从R到G)。例如,ER内容物116中的枪战可由拳殴替换。又如,有异议的语言可由不太有异议的语言替换。在一些具体实施中,对替换动作进行升级(例如,从PG-13到R)。例如,隐式暴力的动作可由画面上更暴力的动作替换。
在一些具体实施中,由用户穿戴的可头戴设备(HMD)根据各种具体实施呈现(例如,显示)增强型现实(ER)布景108。在一些具体实施中,HMD包括显示ER布景108的集成显示器(例如,内置显示器)。在一些具体实施中,HMD包括可头戴壳体。在各种具体实施中,头戴式壳体包括附接区,具有显示器的另一设备可附接到该附接区。例如,在一些具体实施中,图1的电子设备102可附接到可头戴壳体。在各种具体实施中,可头戴壳体被成形为形成用于接收包括显示器的另一个设备(例如,电子设备102)的接收器。例如,在一些具体实施中,电子设备102滑动或卡扣到可头戴壳体中或以其他方式附接到该可头戴壳体。在一些具体实施中,附接到可头戴壳体的设备的显示器呈现(例如,显示)ER布景108。在各种具体实施中,电子设备104的示例包括智能电话、平板电脑、媒体播放器、膝上型电脑等。
图2A至图2B示出了根据各种具体实施的在ER布景108中生成经修改ER内容的示例性系统200。参见图2A,在一些具体实施中,新兴内容引擎202获得与ER布景108相关的ER内容项204。在一些具体实施中,ER内容项204与第一内容分级相关联。在一些具体实施中,ER内容项204中的一个或多个单独场景或动作与第一内容分级相关联。
在一些具体实施中,新兴内容引擎202识别由ER内容项204中的目标实现器的ER表示执行的第一动作(例如,动作206)。在一些具体实施中,从ER内容项204中提取动作206。例如,新兴内容引擎202可使用场景分析和/或场景理解来提取动作206。在一些具体实施中,新兴内容引擎202执行实例分割以识别执行动作206的一个或多个目标实现器,例如,以区分图1和图1B的角色表示110a和角色表示110b。在一些具体实施中,新兴内容引擎202执行语义分割以识别执行动作206的一个或多个目标实现器,例如,以识别机器人表示112正在执行动作206。新兴内容引擎202可执行场景分析、场景理解、实例分割和/或语义分割,以识别可影响动作206的内容分级或可致使动作206违背目标内容分级的动作206中涉及的对象(诸如武器)。
在一些具体实施中,新兴内容引擎202从ER内容项204的元数据208检索动作206。元数据208可与动作206相关联。在一些具体实施中,元数据208包括关于动作206的信息。例如,元数据208可包括指示正在执行动作206的目标实现器的演员信息210。元数据208可包括识别动作类型(例如,使用枪的战斗流程、脏话加工的独白等)的动作标识符信息212。在一些具体实施中,元数据208包括识别由动作206满足(例如,完成或实现)的目标的目标信息214。
在一些具体实施中,元数据208包括指示动作206的内容分级的内容分级信息216。可基于ER内容项204所表示的编程类型来选择内容分级。例如,如果ER内容项204表示电影,则可根据MPAA分级系统选择内容分级。另一方面,如果ER内容项204表示电视内容,则可根据电视行业所使用的内容分级系统来选择内容分级。在一些具体实施中,基于其中观看ER内容项204的地理区域来选择内容分级,因为不同地理区域采用不同内容分级系统。如果ER内容项204旨在用于在多个地理区域中观看,则内容分级信息216可包括多个地理区域的内容分级。在一些具体实施中,内容分级信息216包括与影响动作206的内容分级的因素或考虑相关的信息。例如,内容分级信息216可包括指示动作206的内容分级受暴力内容、语言、性内容和/或成熟主题影响的信息。
在一些具体实施中,新兴内容引擎202确定动作206是否违反目标内容分级220。例如,如果元数据208包括内容分级信息216,则新兴内容引擎202可将内容分级信息216与目标内容分级220进行比较。如果元数据208不包括内容分级信息216,或者如果动作206不与元数据208相关联,则新兴内容引擎202可针对目标内容分级220评估动作206(如通过例如,场景分析、场景理解、实例分割和/或语义分割来确定)以确定动作206是否违反目标内容分级220。
目标内容分级220可基于目标观众。在一些具体实施中,目标内容分级是观看者的估计年龄的函数。例如,如果幼儿正在单独观看ER内容项204,则目标内容分级可以是例如G或TV-Y。另一方面,如果成人正在单独观看ER内容项204,则目标内容分级220可以是例如R或TV-MA。如果家庭正在一起观看ER内容项204,则目标内容分级220可被设置为适合于观众中的最年轻人的级别,或者可例如由成人手动配置。在一些具体实施中,目标内容分级220包括与影响动作206的内容分级的因素或考虑相关的信息。例如,目标内容分级220可包括指示以下的信息:如果动作206因为其包括成人语言或性内容而违反目标内容分级220,则动作206将被修改。目标内容分级220可包括指示以下的信息:如果动作206因为其包括犯罪描述而违反目标内容分级220,则将在不修改的情况下显示动作206。
参见图2B,新兴内容引擎202可以多种方式中的任一种获得目标内容分级220。在一些具体实施中,例如,新兴内容引擎202检测例如来自电子设备102的指示目标内容分级220的用户输入222。在一些具体实施中,用户输入222包括例如父母控制设置224。父母控制设置224可指定阈值内容分级,使得不允许显示高于阈值内容分级的内容。在一些具体实施中,父母控制设置224指定被允许或不被允许显示的特定内容。例如,父母控制设置224可指定可显示暴力,但不可显示性内容。在一些具体实施中,父母控制设置224可被设置为电子设备102上的配置文件,例如默认配置文件。
在一些具体实施中,新兴内容引擎202基于观看与电子设备102耦接的显示器228的目标观看者的估计年龄226来获得目标内容分级220。例如,在一些具体实施中,新兴内容引擎202确定目标观看者的估计年龄226。估计年龄226可基于用户配置文件,例如儿童配置文件或成人配置文件。在一些具体实施中,基于来自相机230的输入来确定估计年龄226。相机230可与电子设备102耦接或者可以是单独设备。
在一些具体实施中,新兴内容引擎202基于目标观看者的地理位置232来获得目标内容分级220。例如,在一些具体实施中,新兴内容引擎202确定目标观看者的地理位置232。该确定可基于用户配置文件。在一些具体实施中,新兴内容引擎202基于来自与电子设备102相关联的GPS系统234的输入来确定目标观看者的地理位置232。在一些具体实施中,新兴内容引擎202基于新兴内容引擎202与之通信的服务器236(例如,与服务器236相关联的互联网协议(IP)地址)来确定目标观看者的地理位置232。在一些具体实施中,新兴内容引擎202基于新兴内容引擎202与之通信的服务提供方238(例如,手机信号塔)来确定目标观看者的地理位置232。在一些具体实施中,可基于目标观看者所位于的位置的类型来获得目标内容分级220。例如,如果目标观看者位于学校或教堂中,则目标内容分级220可为较低的。如果目标观看者位于酒吧或夜店中,则目标内容分级220可为较高的。
在一些具体实施中,新兴内容引擎202基于一天中的时间240获得目标内容分级220。例如,在一些具体实施中,新兴内容引擎202确定一天中的时间240。在一些具体实施中,新兴内容引擎202基于来自时钟(例如,与电子设备102相关联的系统时钟242)的输入来确定一天中的时间240。在一些具体实施中,新兴内容引擎202基于服务器236(例如,与服务器236相关联的互联网协议(IP)地址)来确定一天中的时间240。在一些具体实施中,新兴内容引擎202基于服务提供方238(例如,手机信号塔)来确定一天中的时间240。在一些具体实施中,目标内容分级220可在特定小时期间(例如,在白天)具有较低值,并且在其他小时期间(例如,在夜间)具有较高值。例如,目标内容分级220可在白天期间为PG并且在夜间为R。
在一些具体实施中,在动作206违反目标内容分级220的条件下,新兴内容引擎202获得第二动作,例如替换动作244。新兴内容引擎202可获得一个或多个潜在动作246。新兴内容引擎202可从数据存储库248检索一个或多个潜在动作246。在一些具体实施中,新兴内容引擎202合成一个或多个潜在动作246。
在一些具体实施中,替换动作244满足目标内容分级220。例如,新兴内容引擎202可查询数据存储库248以返回具有高于目标内容分级220或低于目标内容分级220的内容分级的潜在动作246。在一些具体实施中,新兴内容引擎202对动作206进行降级并且选择与动作206相比具有更低内容分级的潜在动作246。在一些具体实施中,新兴内容引擎202对动作206进行升级并且选择与动作206相比具有更高内容分级的潜在动作246。
在一些具体实施中,替换动作244与动作206在一定程度内相似。例如,新兴内容引擎202可查询数据存储库248以返回与动作206在阈值程度内相似的潜在动作246。因此,如果要替换的动作206是枪击,则该组潜在动作246可包括拳击或踢但可排除礼物的交换,例如,因为礼物的交换与枪击太相异。
在一些具体实施中,替换动作244满足(例如,完成或实现)与动作206相同的目标,例如,由元数据208指示的目标信息214。例如,新兴内容引擎202可查询数据存储库248以返回满足与动作206相同的目标的潜在动作246。在一些具体实施中,例如,如果元数据208不指示动作206所满足的目标,则新兴内容引擎202确定动作206满足的目标并且基于该目标来选择替换动作244。
在一些具体实施中,新兴内容引擎202获得可以是候选动作的一组潜在动作246。新兴内容引擎202可基于一个或多个标准从候选动作中选择替换动作244。在一些具体实施中,新兴内容引擎202基于特定候选动作与动作206之间的相似性程度来选择替换动作244。在一些具体实施中,新兴内容引擎202基于特定候选动作满足动作206所满足的目标的程度来选择替换动作244。
在一些具体实施中,新兴内容引擎202向显示引擎250提供替换动作244。显示引擎250通过用替换动作244替换动作206来修改ER内容项204以生成经修改ER内容项252。例如,显示引擎250修改ER内容项204的像素和/或音频数据以表示替换动作244。这样,系统200生成满足目标内容分级220的经修改ER内容项252。
在一些具体实施中,系统200呈现经修改ER内容项252。例如,在一些具体实施中,显示引擎250将经修改ER内容项252提供给渲染和显示流水线。在一些具体实施中,显示引擎250将经修改ER内容项252传输到显示经修改ER内容项252的另一个设备。
在一些具体实施中,系统200通过存储替换操作244来存储经修改ER内容项252。例如,新兴内容引擎202可向存储器260提供替换动作244。存储器260可通过对ER内容项204的引用262存储替换动作244。因此,例如,相对于存储整个经修改ER内容项252,可减小存储空间利用率。
图3A是根据一些具体实施的示例性新兴内容引擎300的框图。在一些具体实施中,新兴内容引擎300实现图2所示的新兴内容引擎202。在一些具体实施中,新兴内容引擎300为在ER布景中实例化的各种目标实现器(例如,角色或装备表示,诸如图1和图1B所示的角色表示110a、角色表示110b、机器人表示112和/或无人机表示114)生成候选替换动作。
在各种具体实施中,新兴内容引擎300包括神经网络系统310(为简明起见下文称“神经网络310”)、训练(例如,配置)神经网络310的神经网络训练系统330(为简明起见下文称“训练模块330”)以及向神经网络310提供潜在替换动作360的擦除器350。在各种具体实施中,神经网络310生成替换动作(例如,图2所示的替换动作244)以替换违反目标内容分级(例如,目标内容分级220)的动作。
在一些具体实施中,神经网络310包括长短期记忆(LSTM)递归神经网络(RNN)。在各种具体实施中,神经网络310基于潜在替换动作360的函数来生成替换动作244。例如,在一些具体实施中,神经网络310通过选择潜在替换动作360的一部分来生成替换动作244。在一些具体实施中,神经网络310生成替换动作244,使得替换动作244与潜在替换动作360和/或与要替换的动作在一定程度内相似。
在各种具体实施中,神经网络310基于表征ER布景108的上下文信息362来生成替换动作244。如图3A所示,在一些具体实施中,上下文信息362包括实例化装备表示364和/或实例化角色表示366。神经网络310可基于目标内容分级(例如,目标内容分级220)和/或目标信息(例如,来自元数据208的目标信息214)来生成替换动作。
在一些具体实施中,神经网络310基于实例化装备表示364(例如,基于给定实例化装备表示364的能力)来生成替换动作244。在一些具体实施中,实例化装备表示364是指位于ER布景108中的装备表示。例如,参见图1和图1B,实例化装备表示364包括ER布景108中的机器人表示112和无人机表示114。在一些具体实施中,替换动作244可由实例化装备表示364中的一者执行。例如,参见图1和图1B,在一些具体实施中,ER内容项可包括机器人表示112发射瓦解射线的动作。如果发射瓦解射线的动作违反目标内容分级,则神经网络310可生成在机器人表示112的能力内并且满足目标内容分级的替换动作244,诸如发射打昏射线。
在一些具体实施中,神经网络310基于实例化角色表示366(例如,基于给定实例化设备表示366的能力)来生成角色表示的替换动作244。例如,参见图1和图1B所示,实例化角色表示366包括角色表示110a和110b。在一些具体实施中,替换动作244可由实例化角色表示366中的一者执行。例如,参见图1和图1B,在一些具体实施中,ER内容项可包括实例化角色表示366开枪的动作。如果开枪的动作违反目标内容分级,则神经网络310可生成在实例化角色表示366的能力内并且满足目标内容分级的替换动作244。在一些具体实施中,不同的实例化角色表示366可具有不同的能力并且可导致生成不同的替换动作244。例如,如果角色表示110a表示正常人,则神经网络310可生成拳击作为替换动作244。另一方面,如果角色表示110b表示超能力人,则神经网络310可替代地生成非致命能量攻击作为替换动作244。
在各种具体实施中,训练模块330训练神经网络310。在一些具体实施中,训练模块330向神经网络310提供神经网络(NN)参数312。在一些具体实施中,神经网络310包括神经元模型,并且神经网络参数312表示模型的权重。在一些具体实施中,训练模块330生成(例如,初始化或发起)神经网络参数312,并且基于由神经网络310生成的替换动作244来细化(例如,调整)神经网络参数312。
在一些具体实施中,训练模块330包括回报函数332,该回报函数利用强化学习来训练神经网络310。在一些具体实施中,回报函数332将肯定回报分配给期望的替换动作244,并且将否定回报分配给不期望的替换动作244。在一些具体实施中,在训练阶段期间,训练模块330将替换动作244与验证数据进行比较,该验证数据包括经验证动作,例如,已知满足目标实现器的目标和/或已知满足目标内容分级220的动作。在此类具体实施中,如果替换动作244与验证的动作在一定程度内相似,则训练模块330停止训练神经网络310。然而,如果替换动作244与验证的动作不在一定程度内相似,则训练模块330继续训练神经网络310。在各种具体实施中,训练模块330在训练期间/之后更新神经网络参数312。
在各种具体实施中,擦除器350擦除内容352以识别潜在替换动作360,例如,在表示所表示的角色的能力内的动作。在一些具体实施中,内容352包括电影、视频游戏、漫画、小说和粉丝创建的内容诸如博客和评论。在一些具体实施中,擦除器350利用与内容擦除相关联的各种方法、系统和/或设备来擦除内容352。例如,在一些具体实施中,擦除器350利用文本模式匹配、HTML(超文本标记语言)解析、DOM(文档对象模型)解析、图像处理和音频分析中的一者或多者来擦除内容352并识别潜在替换动作360。
在一些具体实施中,目标实现器与表示类型354相关联,并且神经网络310基于与目标实现器相关联的表示类型354来生成替换动作244。在一些具体实施中,表示类型354指示目标实现器的物理特性(例如,颜色、材料类型、纹理等)。在此类具体实施中,神经网络310基于目标实现器的物理特性来生成替换动作244。在一些具体实施中,表示类型354指示目标实现器的行为特性(例如,攻击性、友好性等)。在此类具体实施中,神经网络310基于目标实现器的行为特性来生成替换动作244。例如,神经网络310响应于包括攻击性的行为特性而为角色表示110a生成出拳的替换动作244。在一些具体实施中,表示类型354指示目标实现器的功能和/或性能特性(例如,强度、速度、柔韧性等)。在此类具体实施中,神经网络310基于目标实现器的功能特性来生成替换动作244。例如,神经网络310响应于包括投射打昏射线的能力的功能和/或性能特性而为角色表示110b生成投射打昏射线的替换动作244。在一些具体实施中,表示类型354基于用户输入来确定。在一些具体实施中,表示类型354基于规则的组合来确定。
在一些具体实施中,神经网络310基于指定的动作356来生成替换动作244。在一些具体实施中,指定动作356由控制(例如,拥有或创建)角色或装备所源自的虚构材料的实体提供。例如,在一些具体实施中,指定动作356由电影制片方、视频游戏制作方、小说家等提供。在一些具体实施中,潜在替换动作360包括指定动作356。因此,在一些具体实施中,神经网络310通过选择指定动作356的一部分来生成替换动作244。
在一些具体实施中,目标实现器的可能替换动作360由限制器370限制。在一些具体实施中,限制器370限制神经网络310选择潜在替换动作360的一部分。在一些具体实施中,限制器370由拥有(例如,控制)角色或装备所源自的虚构材料的实体控制。例如,在一些具体实施中,限制器370由电影制片方、视频游戏制作方、小说家等控制。在一些具体实施中,限制器370和神经网络310由不同实体控制/操作。
在一些具体实施中,限制器370限制神经网络310生成违反由控制虚构材料的实体定义的标准的替换动作。例如,限制器370可限制神经网络310生成将与表示所表示的角色不一致的替换动作。在一些具体实施中,限制器370限制神经网络310生成将动作的内容分级改变超过阈值量的替换动作。例如,限制器370可限制神经网络310生成具有与原始动作的内容分级相差超过阈值量的内容分级的替换动作。在一些具体实施中,限制器370限制神经网络310针对特定动作生成替换动作。例如,限制器370可限制神经网络310替换被指定为例如拥有(例如,控制)角色或装备所源自的虚构材料的实体所必需的特定动作。
图3B是根据一些具体实施的神经网络310的框图。在图3B的示例中,神经网络310包括输入层320、第一隐藏层322、第二隐藏层324、分类层326以及替换动作选择模块328。虽然作为示例,神经网络310包括两个隐藏层,但是本领域的普通技术人员将从本公开理解,在各种具体实施中,也存在一个或多个附加隐藏层。添加附加隐藏层会增加计算复杂性和存储器需求,但可改善某些应用的性能。
在各种具体实施中,输入层320接收各种输入。在一些具体实施中,输入层320接收上下文信息362作为输入。在图3B的示例中,输入层320从目标实现器引擎接收指示实例化装备表示364、实例化角色表示366、目标内容分级220和/或目标信息214的输入。在一些具体实施中,神经网络310包括基于实例化装备表示364、实例化角色表示366、目标内容分级220和/或对象信息214来生成特征流(例如,特征矢量)的特征提取模块(未示出)。在此类实施方式中,特征提取模块将特征流提供到输入层320。因此,在一些具体实施中,输入层320接收作为实例化装备表示364、实例化角色表示366、目标内容分级220和/或目标信息214的函数的特征流。在各种具体实施中,输入层320包括一个或多个LSTM逻辑单元320a,这些逻辑单元也被本领域的普通技术人员称为神经元或神经元的模型。在一些此类具体实施中,从特征到LSTM逻辑单元320a的输入矩阵包括矩形矩阵。此矩阵的大小是特征部流中包含的特征部数量的函数。
在一些实施方式中,第一隐藏层322包括一个或多个LSTM逻辑单元322a。在一些具体实施中,LSTM逻辑单元322a的数量在约10个至500个之间的范围内。本领域的普通技术人员将会理解,在此类具体实施中,每层的LSTM逻辑单元的数量比先前已知的方法小几个数量级(约为O(101)-O(102)),这有利于将此类具体实施嵌入高度资源受限的设备中。如图3B的示例所示,第一隐藏层322从输入层320接收其输入。
在一些实施方式中,第二隐藏层324包括一个或多个LSTM逻辑单元324a。在一些实施方式中,LSTM逻辑单元324a的数量与输入层320中的LSTM逻辑单元320a的数量或第一隐藏层322中的LSTM逻辑单元322a的数量相同或类似。如图3B的示例所示,第二隐藏层324从第一隐藏层322接收其输入。附加地或另选地,在一些实施方式中,第二隐藏层324从输入层320接收其输入。
在一些实施方式中,分类层326包括一个或多个LSTM逻辑单元326a。在一些实施方式中,LSTM逻辑单元326a的数量与输入层320中的LSTM逻辑单元320a的数量、第一隐藏层322中的LSTM逻辑单元322a的数量或第二隐藏层324中的LSTM逻辑单元324a的数量相同或类似。在一些具体实施中,分类层326包括多项式逻辑函数(例如,柔性最大值函数)的具体实施,该多项式逻辑函数产生的输出数量大约等于潜在替换动作360的数量。在一些具体实施中,每个输出包括由所讨论的替换动作满足的对应目标的概率或置信度测量。在一些具体实施中,输出不包括已被限制器370的操作排除的目标。
在一些具体实施中,替换动作选择模块328通过选择由分类层326提供的前N个替换动作候选而生成替换动作244。在一些具体实施中,前N个替换动作候选可能满足目标实现器的目标,满足目标内容分级220,和/或与要替换的动作在一定程度内相似。在一些具体实施中,替换动作选择模块328将替换动作244提供给渲染和显示管线(例如,图2所示的显示引擎250)。在一些具体实施中,替换动作选择模块328将替换动作244提供给一个或多个目标实现器引擎。
图4A至图4C是根据一些具体实施的用于修改ER内容的方法400的流程图表示。在一些具体实施中,方法400由设备(例如,图2所示的系统200)执行。在一些具体实施中,方法400由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些实施方式中,方法400由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。简而言之,在各种具体实施中,方法400包括:获得ER内容项;识别ER内容项中的目标实现器的一个或多个ER表示所执行的第一动作;确定第一项是否违反目标内容分级;以及如果是,则获得满足目标内容分级并且与第一动作在一定程度内相似的第二动作。通过用第二动作替换第一动作来修改ER内容项以便生成满足目标内容分级的经修改ER内容项。
如框410所表示,在各种具体实施中,方法400包括获得与第一内容分级相关联的ER内容项。例如,在一些具体实施中,ER内容项可以是ER电影。在一些具体实施中,ER内容项可以是电视节目。
如框420所表示,在各种具体实施中,方法400包括从ER内容项中识别ER内容项中的目标实现器的一个或多个ER表示所执行的第一动作。例如,现在参见图4B,如框420a所表示,在一些具体实施中,对ER内容项执行场景分析以识别目标实现器的一个或多个ER表示并且确定目标实现器的一个或多个ER表示所执行的第一动作。在一些具体实施中,场景分析涉及执行语义分割以识别例如,正在执行动作的目标实现器的类型、正在执行的动作和/或用于执行动作的手段。场景分析可涉及执行实例分割,例如以区分类似类型的目标实现器的多个实例(例如,以确定动作由角色表示110a还是由角色表示110b执行)。
如框420b所表示,在一些具体实施中,方法400包括从ER内容项的元数据检索第一动作。在一些具体实施中,元数据与第一动作相关联。在一些具体实施中,元数据包括关于第一动作的信息。例如,元数据可指示正在执行动作的目标实现器。元数据可识别动作类型(例如,使用枪的战斗流程、脏话加工的独白等)。在一些具体实施中,元数据识别由动作满足(例如,完成或实现)的目标。
如框430所表示,在各种具体实施中,方法400包括确定第一动作是否违反目标内容分级。第一动作可通过超过目标内容分级或通过低于目标内容分级而违反目标内容分级。
如框430a所表示,在一些具体实施中,对第一动作执行语义分析以确定第一动作是否违反目标内容分级。如果第一动作例如在元数据中不具有与其相关联的内容分级,则新兴内容引擎202可应用语义分析来确定第一动作是否涉及暴力内容、成人语言、或可致使第一动作违反目标内容分级的任何其他因素。
如框430b所表示,在一些实施方式中,方法400包括获得目标内容分级。可以各种方式中的任一种来获得目标内容分级。在一些具体实施中,例如,可检测来自电子设备的用户输入,如框430c所示。用户输入可指示目标内容分级。
如框430d所表示,在一些具体实施中,方法400包括基于目标观看者的估计年龄来确定目标内容分级。在一些具体实施中,如框430e所表示,确定估计年龄,并且基于估计年龄来确定目标内容分级。例如,电子设备可捕获目标观看者的图像并且执行图像分析以估计目标观看者的年龄。在一些具体实施中,可基于用户配置文件来确定估计年龄。例如,ER应用程序可具有与其相关联的多个配置文件,每个配置文件对应于家庭的成员。每个配置文件可与对应家庭成员的实际年龄相关联,或者可与更广泛的年龄类别(例如,幼儿园、学龄、青少年、成人等)相关联。在一些具体实施中,估计年龄可基于用户输入来确定。例如,可要求目标观看者输入他或她的年龄或生日。在一些具体实施中,可存在多个目标观看者。在此类具体实施中,可基于目标观看者中的一者(例如,最年轻的目标观看者)的年龄来确定目标内容分级。
在一些具体实施中,如框430f所表示,方法400包括基于父母控制设置来确定目标内容分级,该父母控制设置可被设置为配置文件或由用户输入设置。父母控制设置可指定阈值内容分级。不允许显示高于目标内容分级的ER内容。在一些具体实施中,父母控制设置为不同类型的内容指定不同的目标内容分级。例如,父母控制设置可指定可显示高至第一目标内容分级的暴力,并且可显示高至与第一目标内容分级不同的第二目标内容分级的性内容。父母可分别根据其对暴力和性内容的偏好单独地设置第一目标内容分级和第二目标内容分级。
在一些具体实施中,如框430g所表示,方法400包括基于目标观看者的地理位置来确定目标内容分级。例如,在一些具体实施中,如框430h所表示,可确定目标观看者的地理位置,并且可使用该地理位置来确定目标内容分级。在一些具体实施中,用户配置文件可指定目标观看者的地理位置。在一些具体实施中,可基于来自GPS系统的输入来确定地理位置。在一些具体实施中,可基于服务器(例如,基于服务器的互联网协议(IP)地址)来确定目标观看者的地理位置。在一些具体实施中,可基于无线服务提供方(例如,手机信号塔)来确定目标观看者的地理位置。在一些具体实施中,地理位置可与位置的类型相关联,并且可基于位置类型来确定目标内容分级。例如,如果目标观看者位于学校或教堂中,则目标内容分级可为较低的。如果目标观看者位于酒吧或夜店中,则目标内容分级可为较高的。
如框430i所表示,在一些具体实施中,确定一天中的时间,并且基于一天中的时间来确定目标内容分级。在一些具体实施中,基于来自时钟(例如,系统时钟)的输入来确定一天中的时间。在一些具体实施中,基于外部时间参考(诸如服务器或无线服务提供方,例如手机信号塔)来确定一天中的时间。在一些具体实施中,目标内容分级可在特定小时期间(例如,在白天)具有较低值,并且在其他小时期间(例如,在夜间)具有较高值。例如,目标内容分级可在白天期间为PG并且在夜间为R。
现在参见图4C,如框440所表示,方法400包括在第一动作违反目标内容分级的条件下获得满足目标内容分级并且与第一动作在一定程度内相似的第二动作。例如,如框440a所表示,在一些具体实施中,ER内容项或ER内容项的一部分(诸如第一动作)的内容分级高于目标内容分级。在一些具体实施中,对替换动作进行降级(例如,从R到G)。例如,ER内容物中的枪战可由拳殴替换。又如,有异议的语言可由不太有异议的语言替换。
如框440b所表示,在一些具体实施中,ER内容项或ER内容项的一部分(诸如第一动作)的内容分级低于目标内容分级。例如,该差异可指示目标观看者希望看到比ER内容项所描绘的内容更强烈的内容。在一些具体实施中,对替换动作进行升级(例如,从PG-13到R)。例如,第一拳殴可由枪战替换。又如,可增加在战争场景中显示的血液和出血的量。
如框440c所表示,在一些具体实施中,ER内容项中的目标实现器的一个或多个ER表示所执行的第三动作满足目标内容分级。例如,在一些具体实施中,与第三动作相关联的内容分级与目标内容分级相同。因此,系统可放弃或省略替换ER内容项中的第三动作。因此,内容分级可保持在其当前级别。
在一些具体实施中,如框440d所表示,方法400包括确定第一动作所满足的目标。例如,系统可确定与执行第一动作的目标实现器相关联的哪个目标或哪些目标由第一动作完成或实现。当选择替换动作时,系统可偏好满足(例如,完成或实现)与第一动作相同的一个或多个目标的候选动作。例如,如果第一动作是开枪并且候选动作是出拳或逃跑,则系统可选择出拳作为替换动作,因为该候选动作满足与开枪相同的目标。
如框450所表示,在一些具体实施中,方法400包括通过用第二动作替换第一动作来修改ER内容项。因此,生成经修改ER内容项。经修改ER内容项满足目标内容分级。如框450a所表示,可例如向目标观看者呈现经修改ER内容项。例如,可将经修改ER内容提供给渲染和显示流水线。在一些具体实施中,可将经修改ER内容传输到另一个设备。在一些具体实施中,可在与电子设备耦接的显示器上显示经修改ER内容。
如框450b所表示,在一些具体实施中,可通过对ER内容项的引用来存储所选择的替换动作来存储经修改ER内容项,例如在存储器中。与存储整个经修改ER内容项相比,以这种方式存储经修改ER内容项可减小存储空间利用率。
图5是根据一些具体实施的利用设备的一个或多个部件(例如,图1A所示的电子设备102和/或控制器104)启用的服务器系统500的框图。尽管示出了一些具体特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,服务器系统500包括一个或多个处理单元(CPU)501、网络接口502、编程接口503、存储器504以及用于互连这些和各种其他部件的一个或多个通信总线505。
在一些实施方式中,提供了网络接口502以便除其他用途之外,在云托管的网络管理系统与包括一个或多个兼容设备的至少一个专用网络之间建立和维护元数据隧道。在一些实施方式中,一个或多个通信总线505包括互连和控制在系统部件之间的通信的电路。存储器504包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备,并且可包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器504任选地包括与一个或多个CPU 501远程地定位的一个或多个存储设备。存储器504包括非暂态计算机可读存储介质。
在一些具体实施中,存储器504或者存储器504的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者它们的子集,其中包括可选的操作系统506、神经网络310、训练模块330、擦除器350和潜在替换动作360。如本文所述,神经网络310与神经网络参数312相关联。如本文所述,训练模块330包括训练(例如,配置)神经网络310(例如,通过确定神经网络参数312)的回报函数332。如本文所述,神经网络310确定ER布景中的目标实现器和/或ER布景的环境的替换动作(例如,图2至图3B所示的替换动作244)。
将理解的是,图5旨在作为可存在于特定具体实施中的各种特征的功能描述,与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图5中单独示出的一些功能块可以作为单个块实施,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实施。块的实际数量和特定功能的划分以及如何在其中分配特征部将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定实施方案选择的硬件、软件和/或固件的特定组合。
虽然上文描述了在所附权利要求书范围内的具体实施的各个方面,但是应当显而易见的是,上述具体实施的各种特征可通过各种各样的形式体现,并且上述任何特定结构和/或功能仅是例示性的。基于本公开,本领域的技术人员应当理解,本文所述的方面可以独立于任何其他方面来实现,并且这些方面中的两个或更多个可以采用各种方式组合。例如,可以使用本文阐述的任何数量的方面来实现装置和/或可以实践方法。另外,除了本文阐述的一个或多个方面之外或者不同于本文阐述的一个或多个方面,可以使用其他结构和/或功能来实现这样的装置和/或可以实践这样的方法。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种元素,但是这些元素不应当被这些术语限定。这些术语只是用于将一个元件与另一元件区分开。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求中所使用的那样,单数形式的“一个”和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件,和/或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。

Claims (24)

1.一种方法,包括:
在包括非暂态存储器以及与所述非暂态存储器耦接的一个或多个处理器的设备处:
获得增强型现实(ER)内容项;
从所述ER内容项中识别由代理的一个或多个ER表示执行的第一动作;
确定所述第一动作是否违反目标内容分级;以及
响应于确定所述第一动作违反所述目标内容分级:
获得满足所述目标内容分级并且与所述第一动作在一定程度内相似的第二动作;以及
用所述第二动作替换所述第一动作以便满足所述目标内容分级。
2.根据权利要求1所述的方法,还包括对所述ER内容项执行场景分析,以识别所述代理的所述一个或多个ER表示并且识别由所述代理的所述一个或多个ER表示执行的所述第一动作。
3.根据权利要求1至2中任一项所述的方法,还包括对所述第一动作执行语义分析以确定所述第一动作是否违反所述目标内容分级。
4.根据权利要求3所述的方法,还包括获得所述目标内容分级。
5.根据权利要求4所述的方法,其中获得所述目标内容分级包括检测指示所述目标内容分级的用户输入。
6.根据权利要求3至5中任一项所述的方法,还包括基于目标观看者的估计年龄来确定所述目标内容分级。
7.根据权利要求6所述的方法,其中基于目标观看者的估计年龄来确定所述目标内容分级包括:
确定观看与所述设备耦接的显示器的所述目标观看者的所述估计年龄;以及
基于所述目标观看者的所述估计年龄来确定所述目标内容分级。
8.根据权利要求6所述的方法,其中基于目标观看者的估计年龄来确定所述目标内容分级包括基于父母控制设置来确定所述目标内容分级。
9.根据权利要求3至8中任一项所述的方法,还包括基于目标观看者的地理位置来确定所述目标内容分级。
10.根据权利要求9所述的方法,其中基于目标观看者的地理位置来确定所述目标内容分级包括:
确定观看与所述设备耦接的显示器的所述目标观看者的所述地理位置;以及
基于所述观看者的所述地理位置来确定所述目标内容分级。
11.根据权利要求3至10中任一项所述的方法,还包括:
确定一天中的时间;以及
基于所述一天中的时间来确定所述目标内容分级。
12.根据权利要求2至11中任一项所述的方法,其中所述第一动作的内容分级高于所述目标内容分级。
13.根据权利要求12所述的方法,其中获得满足所述目标内容分级并且与所述第一动作在一定程度内相似的第二动作包括对所述第一动作进行降级。
14.根据权利要求2至11中任一项所述的方法,其中所述第一动作的内容分级低于所述目标内容分级。
15.根据权利要求14所述的方法,其中获得满足所述目标内容分级并且与所述第一动作在一定程度内相似的第二动作包括对所述第一动作进行升级。
16.根据权利要求1至15中任一项所述的方法,还包括,在所述ER内容项中描绘的代理的ER表示所执行的第三动作满足所述目标内容分级的条件下,放弃所述第三动作的替换以便在所述ER内容项中保持所述第三动作。
17.根据权利要求1至16中任一项所述的方法,还包括:
确定所述第一动作满足的目标;以及
基于所述目标从一组候选动作中选择所述第二动作。
18.根据权利要求1至17中任一项所述的方法,其中从所述ER内容项中识别所述ER内容项中描绘的代理的一个或多个ER表示所执行的第一动作包括从所述ER内容项的元数据检索所述第一动作。
19.根据权利要求1至18中任一项所述的方法,还包括生成经修改ER内容项并且呈现所述经修改ER内容项。
20.根据权利要求19所述的方法,还包括通过与对所述ER内容项的引用相关联地存储所述第二动作来存储所述经修改ER内容项。
21.根据权利要求1至20中任一项所述的方法,其中所述ER内容项与内容分级相关联。
22.一种设备,包括:
一个或多个处理器;
非暂态存储器;和
存储在所述非暂态存储器中的一个或多个程序,所述一个或多个程序在由所述一个或多个处理器执行时致使所述设备执行根据权利要求1至21所述的方法中的任一种方法。
23.一种非暂态存储器,所述非暂态存储器存储一个或多个程序,所述一个或多个程序在由设备的一个或多个处理器执行时致使所述设备执行根据权利要求1至21所述的方法中的任一种方法。
24.一种设备,包括:
一个或多个处理器;
非暂态存储器;和
用于致使所述设备执行根据权利要求1至21所述的方法中的任一种方法的装置。
CN202080029375.4A 2019-06-27 2020-06-18 基于目标观众来修改现有内容 Pending CN113692563A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962867536P 2019-06-27 2019-06-27
US62/867,536 2019-06-27
PCT/US2020/038418 WO2020263671A1 (en) 2019-06-27 2020-06-18 Modifying existing content based on target audience

Publications (1)

Publication Number Publication Date
CN113692563A true CN113692563A (zh) 2021-11-23

Family

ID=71527982

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080029375.4A Pending CN113692563A (zh) 2019-06-27 2020-06-18 基于目标观众来修改现有内容

Country Status (3)

Country Link
US (2) US20220007075A1 (zh)
CN (1) CN113692563A (zh)
WO (1) WO2020263671A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113796088A (zh) * 2019-09-27 2021-12-14 苹果公司 基于观众参与的内容生成
US20210204031A1 (en) * 2019-12-26 2021-07-01 Sling TV L.L.C. Systems and methods for dynamic displaying of a program guide
US11849160B2 (en) * 2021-06-22 2023-12-19 Q Factor Holdings LLC Image analysis system
US20230019723A1 (en) * 2021-07-14 2023-01-19 Rovi Guides, Inc. Interactive supplemental content system
CN113633970B (zh) * 2021-08-18 2024-03-08 腾讯科技(成都)有限公司 动作效果的显示方法、装置、设备及介质
GB2622068A (en) * 2022-09-01 2024-03-06 Sony Interactive Entertainment Inc Modifying game content based on at least one censorship criterion
US11974012B1 (en) 2023-11-03 2024-04-30 AVTech Select LLC Modifying audio and video content based on user input

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103210360A (zh) * 2011-02-25 2013-07-17 英派尔科技开发有限公司 增强现实演出
US20150070516A1 (en) * 2012-12-14 2015-03-12 Biscotti Inc. Automatic Content Filtering
CN105580043A (zh) * 2013-09-11 2016-05-11 微软技术许可有限责任公司 用于推荐系统的基于强度的建模
CN107683166A (zh) * 2015-04-10 2018-02-09 索尼互动娱乐股份有限公司 用于限制头戴式显示器上的视觉活动的过滤和父母控制方法
CN107683449A (zh) * 2015-04-10 2018-02-09 索尼互动娱乐股份有限公司 控制经由头戴式显示器呈现的个人空间内容
CN109241835A (zh) * 2018-07-27 2019-01-18 上海商汤智能科技有限公司 图像处理方法及装置、电子设备和存储介质

Family Cites Families (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5434678A (en) * 1993-01-11 1995-07-18 Abecassis; Max Seamless transmission of non-sequential video segments
US5987211A (en) * 1993-01-11 1999-11-16 Abecassis; Max Seamless transmission of non-sequential video segments
US5911043A (en) * 1996-10-01 1999-06-08 Baker & Botts, L.L.P. System and method for computer-based rating of information retrieved from a computer network
US6493744B1 (en) * 1999-08-16 2002-12-10 International Business Machines Corporation Automatic rating and filtering of data files for objectionable content
US7647340B2 (en) * 2000-06-28 2010-01-12 Sharp Laboratories Of America, Inc. Metadata in JPEG 2000 file format
US20060015904A1 (en) * 2000-09-08 2006-01-19 Dwight Marcus Method and apparatus for creation, distribution, assembly and verification of media
US20050022234A1 (en) * 2002-01-29 2005-01-27 Strothman James Alan Method and apparatus for personalizing rating limits in a parental control system
US20050066357A1 (en) * 2003-09-22 2005-03-24 Ryal Kim Annon Modifying content rating
US20060130119A1 (en) * 2004-12-15 2006-06-15 Candelore Brant L Advanced parental control for digital content
US8041190B2 (en) * 2004-12-15 2011-10-18 Sony Corporation System and method for the creation, synchronization and delivery of alternate content
US20060271520A1 (en) * 2005-05-27 2006-11-30 Ragan Gene Z Content-based implicit search query
US9032430B2 (en) * 2006-08-24 2015-05-12 Rovi Guides, Inc. Systems and methods for providing blackout support in video mosaic environments
US9215512B2 (en) * 2007-04-27 2015-12-15 Invention Science Fund I, Llc Implementation of media content alteration
US8010536B2 (en) * 2007-11-20 2011-08-30 Samsung Electronics Co., Ltd. Combination of collaborative filtering and cliprank for personalized media content recommendation
US9986293B2 (en) * 2007-11-21 2018-05-29 Qualcomm Incorporated Device access control
US8312484B1 (en) * 2008-03-28 2012-11-13 United Video Properties, Inc. Systems and methods for blocking selected commercials
US20090288131A1 (en) * 2008-05-13 2009-11-19 Porto Technology, Llc Providing advance content alerts to a mobile device during playback of a media item
US20090288112A1 (en) * 2008-05-13 2009-11-19 Porto Technology, Llc Inserting advance content alerts into a media item during playback
US20100125531A1 (en) * 2008-11-19 2010-05-20 Paperg, Inc. System and method for the automated filtering of reviews for marketability
US9129644B2 (en) * 2009-06-23 2015-09-08 Disney Enterprises, Inc. System and method for rendering in accordance with location of virtual objects in real-time
US9014546B2 (en) * 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US20140380359A1 (en) * 2013-03-11 2014-12-25 Luma, Llc Multi-Person Recommendations in a Media Recommender
US20120030699A1 (en) * 2010-08-01 2012-02-02 Umesh Amin Systems and methods for storing and rendering atleast an user preference based media content
US20120159530A1 (en) * 2010-12-16 2012-06-21 Cisco Technology, Inc. Micro-Filtering of Streaming Entertainment Content Based on Parental Control Setting
CN103620593A (zh) * 2011-04-19 2014-03-05 诺基亚公司 用于提供基于特征的协同过滤的方法和装置
US20180359477A1 (en) * 2012-03-05 2018-12-13 Google Inc. Distribution of video in multiple rating formats
US9357178B1 (en) * 2012-08-31 2016-05-31 Google Inc. Video-revenue prediction tool
WO2014090262A1 (en) * 2012-12-11 2014-06-19 Unify Gmbh & Co. Kg Method of processing video data, device, computer program product, and data construct
EP3518168A1 (en) * 2013-03-06 2019-07-31 Arthur J. Zito, Jr. Multi-media presentation system
US20140358520A1 (en) * 2013-05-31 2014-12-04 Thomson Licensing Real-time online audio filtering
US10430018B2 (en) * 2013-06-07 2019-10-01 Sony Interactive Entertainment Inc. Systems and methods for providing user tagging of content within a virtual scene
KR102182398B1 (ko) * 2013-07-10 2020-11-24 엘지전자 주식회사 전자 기기 및 그 제어 방법
US9264770B2 (en) * 2013-08-30 2016-02-16 Rovi Guides, Inc. Systems and methods for generating media asset representations based on user emotional responses
AU2014324893B2 (en) * 2013-09-26 2020-05-14 William Knight Foster Providing targeted content based on a user's values
US20150178511A1 (en) * 2013-12-20 2015-06-25 United Video Properties, Inc. Methods and systems for sharing psychological or physiological conditions of a user
US20150181291A1 (en) * 2013-12-20 2015-06-25 United Video Properties, Inc. Methods and systems for providing ancillary content in media assets
US20160037217A1 (en) * 2014-02-18 2016-02-04 Vidangel, Inc. Curating Filters for Audiovisual Content
KR20150108028A (ko) * 2014-03-16 2015-09-24 삼성전자주식회사 컨텐츠의 재생 제어 방법 및 이를 수행하기 위한 컨텐츠 재생 장치
ES2552675B1 (es) * 2014-05-29 2016-10-10 Tecteco Security Systems, S.L. Método de enrutamiento con seguridad y autentificación a nivel de tramas
US9672865B2 (en) * 2014-05-30 2017-06-06 Rovi Guides, Inc. Systems and methods for temporal visualization of media asset content
US9930405B2 (en) * 2014-09-30 2018-03-27 Rovi Guides, Inc. Systems and methods for presenting user selected scenes
US9445151B2 (en) * 2014-11-25 2016-09-13 Echostar Technologies L.L.C. Systems and methods for video scene processing
US9521143B2 (en) * 2015-02-20 2016-12-13 Qualcomm Incorporated Content control at gateway based on audience
US10088983B1 (en) * 2015-02-24 2018-10-02 Amazon Technologies, Inc. Management of content versions
US9363561B1 (en) * 2015-03-31 2016-06-07 Vidangel, Inc. Seamless streaming and filtering
US9336483B1 (en) * 2015-04-03 2016-05-10 Pearson Education, Inc. Dynamically updated neural network structures for content distribution networks
US9955218B2 (en) * 2015-04-28 2018-04-24 Rovi Guides, Inc. Smart mechanism for blocking media responsive to user environment
US10412232B2 (en) * 2015-05-21 2019-09-10 Verizon Patent And Licensing Inc. Converged family network usage insights and actions
US10237280B2 (en) * 2015-06-25 2019-03-19 Websafety, Inc. Management and control of mobile computing device using local and remote software agents
US10223742B2 (en) * 2015-08-26 2019-03-05 Google Llc Systems and methods for selecting third party content based on feedback
US20180376205A1 (en) * 2015-12-17 2018-12-27 Thomson Licensing Method and apparatus for remote parental control of content viewing in augmented reality settings
US11012719B2 (en) * 2016-03-08 2021-05-18 DISH Technologies L.L.C. Apparatus, systems and methods for control of sporting event presentation based on viewer engagement
US11533539B2 (en) * 2016-03-17 2022-12-20 Comcast Cable Communications, Llc Methods and systems for dynamic content modification
BR102016007265B1 (pt) * 2016-04-01 2022-11-16 Samsung Eletrônica da Amazônia Ltda. Método multimodal e em tempo real para filtragem de conteúdo sensível
US10187694B2 (en) * 2016-04-07 2019-01-22 At&T Intellectual Property I, L.P. Method and apparatus for enhancing audience engagement via a communication network
US20170295215A1 (en) * 2016-04-08 2017-10-12 Microsoft Technology Licensing, Llc Audience targeted filtering of content sections
US9621953B1 (en) * 2016-04-28 2017-04-11 Rovi Guides, Inc. Systems and methods for alerting a user and displaying a different version of a segment of a media asset
US10157332B1 (en) * 2016-06-06 2018-12-18 A9.Com, Inc. Neural network-based image manipulation
US10198839B2 (en) * 2016-09-22 2019-02-05 Apple Inc. Style transfer-based image content correction
US10169920B2 (en) * 2016-09-23 2019-01-01 Intel Corporation Virtual guard rails
WO2018084854A1 (en) * 2016-11-04 2018-05-11 Rovi Guides, Inc. Methods and systems for recommending content restrictions
EP4354882A1 (en) * 2016-12-27 2024-04-17 Rovi Guides, Inc. Systems and methods for dynamically adjusting media output based on presence detection of individuals
US10798451B2 (en) * 2017-02-24 2020-10-06 Rovi Guides, Inc. Systems and methods for detecting a reaction by a user to a media asset to which the user previously reacted at an earlier time, and recommending a second media asset to the user consumed during a range of times adjacent to the earlier time
US10225603B2 (en) * 2017-03-13 2019-03-05 Wipro Limited Methods and systems for rendering multimedia content on a user device
US20180276558A1 (en) * 2017-03-21 2018-09-27 International Business Machines Corporation Content rating classification with cognitive computing support
US11651208B2 (en) * 2017-05-19 2023-05-16 Deepmind Technologies Limited Training action selection neural networks using a differentiable credit function
US20180374115A1 (en) * 2017-06-22 2018-12-27 Adobe Systems Incorporated Managing digital package inventory and reservations
US11721090B2 (en) * 2017-07-21 2023-08-08 Samsung Electronics Co., Ltd. Adversarial method and system for generating user preferred contents
US10205988B1 (en) * 2017-08-10 2019-02-12 Rovi Guides, Inc. Systems and methods for automatically resuming appropriate paused content when there are multiple users at a media device
US20190052471A1 (en) * 2017-08-10 2019-02-14 Microsoft Technology Licensing, Llc Personalized toxicity shield for multiuser virtual environments
US20190279084A1 (en) * 2017-08-15 2019-09-12 Toonimo, Inc. System and method for element detection and identification of changing elements on a web page
US10628676B2 (en) * 2017-08-25 2020-04-21 Tiny Pixels Technologies Inc. Content delivery system and method for automated video overlay insertion
US11205254B2 (en) * 2017-08-30 2021-12-21 Pxlize, Llc System and method for identifying and obscuring objectionable content
US10419790B2 (en) * 2018-01-19 2019-09-17 Infinite Designs, LLC System and method for video curation
GB201804433D0 (en) * 2018-03-20 2018-05-02 Microsoft Technology Licensing Llc Imputation using a neutral network
WO2019219965A1 (en) * 2018-05-18 2019-11-21 Deepmind Technologies Limited Meta-gradient updates for training return functions for reinforcement learning systems
WO2019231893A1 (en) * 2018-06-01 2019-12-05 Dakiana Research Llc Method and devices for switching between viewing vectors in a synthesized reality setting
US11601721B2 (en) * 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US11336968B2 (en) * 2018-08-17 2022-05-17 Samsung Electronics Co., Ltd. Method and device for generating content
US11412303B2 (en) * 2018-08-28 2022-08-09 International Business Machines Corporation Filtering images of live stream content
US10440324B1 (en) * 2018-09-06 2019-10-08 Amazon Technologies, Inc. Altering undesirable communication data for communication sessions
US11012748B2 (en) * 2018-09-19 2021-05-18 International Business Machines Corporation Dynamically providing customized versions of video content
US10855836B2 (en) * 2018-09-24 2020-12-01 AVAST Software s.r.o. Default filter setting system and method for device control application
US10986404B2 (en) * 2018-10-24 2021-04-20 Rovi Guides, Inc. Systems and methods for overriding user input of commands in a multi-user environment
US10831208B2 (en) * 2018-11-01 2020-11-10 Ford Global Technologies, Llc Vehicle neural network processing
US10691767B2 (en) * 2018-11-07 2020-06-23 Samsung Electronics Co., Ltd. System and method for coded pattern communication
US11064255B2 (en) * 2019-01-30 2021-07-13 Oohms Ny Llc System and method of tablet-based distribution of digital media content
US11589120B2 (en) * 2019-02-22 2023-02-21 Synaptics Incorporated Deep content tagging
US11312372B2 (en) * 2019-04-16 2022-04-26 Ford Global Technologies, Llc Vehicle path prediction
US11182965B2 (en) * 2019-05-01 2021-11-23 At&T Intellectual Property I, L.P. Extended reality markers for enhancing social engagement
US20200372550A1 (en) * 2019-05-24 2020-11-26 relemind GmbH Systems for creating and/or maintaining databases and a system for facilitating online advertising with improved privacy
US11190840B2 (en) * 2019-07-23 2021-11-30 Rovi Guides, Inc. Systems and methods for applying behavioral-based parental controls for media assets
US11330313B2 (en) * 2019-08-02 2022-05-10 Dell Products L.P. Crowd rating media content based on micro-expressions of viewers

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103210360A (zh) * 2011-02-25 2013-07-17 英派尔科技开发有限公司 增强现实演出
US20150070516A1 (en) * 2012-12-14 2015-03-12 Biscotti Inc. Automatic Content Filtering
CN105580043A (zh) * 2013-09-11 2016-05-11 微软技术许可有限责任公司 用于推荐系统的基于强度的建模
CN107683166A (zh) * 2015-04-10 2018-02-09 索尼互动娱乐股份有限公司 用于限制头戴式显示器上的视觉活动的过滤和父母控制方法
CN107683449A (zh) * 2015-04-10 2018-02-09 索尼互动娱乐股份有限公司 控制经由头戴式显示器呈现的个人空间内容
CN109241835A (zh) * 2018-07-27 2019-01-18 上海商汤智能科技有限公司 图像处理方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
WO2020263671A1 (en) 2020-12-30
US20240179374A1 (en) 2024-05-30
US20220007075A1 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
CN113692563A (zh) 基于目标观众来修改现有内容
US11532137B2 (en) Method and device for utilizing physical objects and physical usage patterns for presenting virtual content
US11949949B2 (en) Content generation based on audience engagement
US20210398360A1 (en) Generating Content Based on State Information
US11710286B2 (en) Virtual object kit
US20240054732A1 (en) Intermediary emergent content
US20210027164A1 (en) Objective-effectuators in synthesized reality settings
US20210042022A1 (en) Configuring objective-effectuators for synthesized reality settings
US20220262081A1 (en) Planner for an objective-effectuator
US11670028B1 (en) Influencing actions of agents
CN111630526B (zh) 在合成现实布景中生成用于目标实现器的目标
US11436813B2 (en) Generating directives for objective-effectuators
US11320977B2 (en) Emergent content containers
US11393135B1 (en) Modifying objects in a graphical environment
US11430184B1 (en) Deformation joints
CN113906370A (zh) 为物理元素生成内容
CN113646733A (zh) 辅助表情

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination