CN117678227A - 电子装置和电子装置的控制方法 - Google Patents
电子装置和电子装置的控制方法 Download PDFInfo
- Publication number
- CN117678227A CN117678227A CN202280049821.7A CN202280049821A CN117678227A CN 117678227 A CN117678227 A CN 117678227A CN 202280049821 A CN202280049821 A CN 202280049821A CN 117678227 A CN117678227 A CN 117678227A
- Authority
- CN
- China
- Prior art keywords
- enhancement
- individual
- maps
- electronic device
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000003062 neural network model Methods 0.000 claims abstract description 71
- 238000012549 training Methods 0.000 claims abstract description 33
- 230000002708 enhancing effect Effects 0.000 claims abstract description 21
- 239000013598 vector Substances 0.000 claims description 81
- 238000010586 diagram Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 239000000470 constituent Substances 0.000 description 5
- 238000002347 injection Methods 0.000 description 5
- 239000007924 injection Substances 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
公开了一种电子装置和电子装置的控制方法。特别地,根据本公开的电子装置包括:存储器,用于存储神经网络模型;以及处理器,获得多个个体图,所述多个个体图示出用户针对多个会话中的每一个会话关于多个内容项的访问历史,基于包括在所述多个个体图中的节点的连接关系和节点的连接的重复次数生成所述多个个体图被集成的集成图,通过基于所述集成图对所述多个个体图中的每一个个体图进行增强来获得多个增强图,并且基于所述多个增强图训练用于提供推荐内容的神经网络模型。
Description
技术领域
本公开涉及一种电子装置和用于控制电子装置的方法,并且更具体地,涉及一种能够使用神经网络模型提供指示推荐内容的信息的电子装置和用于控制电子装置的方法。
背景技术
近年来,已经加速发展了与神经网络模型相关的技术,并且用于使用图神经网络(GNN)模型向用户提供指示推荐内容的信息的技术已经受到关注。
根据相关领域的技术的神经网络模型通过有效地分析用户针对内容的复杂顺序的交互来提供与用户意图相应的推荐内容的能力有限。
提供了一种用于通过增强包括在训练数据中的图来训练神经网络模型以提高神经网络模型的性能的相关技术,但根据相关领域的技术,仅使用特定会话中的信息来增强图,因此存在其不是有效增强方法的限制。
发明内容
技术方案
一个或更多个实施例克服了上述相关技术的限制。一个或更多个实施例提供了一种电子装置以及用于控制电子装置的方法,该电子装置能够基于示出用户针对内容的访问历史的个体图的有效增强来训练神经网络模型,并且相应地预测与用户意图相应的推荐内容。
根据本公开的一个方面,一种电子装置包括:存储器,存储神经网络模型;以及处理器,被配置为:获得基于通过多个会话的针对多个内容的访问历史的多个个体图;基于包括在所述多个个体图中的节点之间的连接关系和所述节点之间的每一个连接被重复的次数,生成所述多个个体图被集成的集成图;通过基于所述集成图对所述多个个体图中的每一个个体图进行增强,获得多个增强图;以及基于所述多个增强图训练用于提供推荐内容的神经网络模型。
处理器还可被配置为:通过将包括在所述集成图中的至少一个节点添加到所述多个个体图中的每一个个体图中包括的多个节点,获得所述多个增强图中的至少一个增强图。
处理器还可被配置为:通过将包括在所述多个个体图中的每一个个体图中的多个节点中的至少一个节点改变为包括在所述集成图中的至少一个节点,获得所述多个增强图中的至少一个增强图。
处理器还可被配置为基于所述多个增强图的对比损失来训练神经网络模型。
处理器还可被配置为:实现编码器、预测模块、增强模块和对比损失获得模块,其中,编码器被配置为获得与所述多个个体图相应的矢量和与所述多个增强图相应的矢量,预测模块被配置为获得与所述多个个体图中的每一个个体图相应的推荐内容信息,增强模块被配置为通过对所述多个个体图中的每一个个体图进行增强来获得所述多个增强图,对比损失获得模块被配置为获得所述多个增强图的对比损失。
处理器还可被配置为:训练编码器以将所述多个增强图之中的与相同个体图相应的增强图与矢量空间上的相距短距离的矢量映射,并且将所述多个增强图之中的与不同个体图相应的增强图与所述矢量空间上的相距长距离的矢量映射。
用于限定与所述多个增强图相应的矢量的矢量空间可不同于用于限定所述多个增强图的对比损失的矢量空间。
处理器还可被配置为:控制增强模块通过用三种或更多种不同的方法对所述多个个体图中的每一个个体图进行增强来获得针对所述多个个体图中的每一个个体图的三个或更多个增强图,以及所述对比损失包括基于与所述三个或更多个增强图相应的矢量限定的两个或更多个正对。
根据本公开的一方面,一种用于控制电子装置使用神经网络模型的方法包括:获得基于通过多个会话的针对多个内容的访问历史的多个个体图;基于包括在所述多个个体图中的节点之间的连接关系和所述节点之间的每一个连接被重复的次数,生成所述多个个体图被集成的集成图;通过基于所述集成图对所述多个个体图中的每一个个体图进行增强,获得多个增强图;以及基于所述多个增强图训练用于提供推荐内容的神经网络模型。
获得所述多个增强图的步骤可包括:通过将包括在所述集成图中的至少一个节点添加到所述多个个体图中的每一个个体图中包括的多个节点,获得所述多个增强图中的至少一个增强图。
获得多个增强图的步骤可包括:通过将所述多个个体图中的每一个个体图中包括的多个节点中的至少一个节点改变为包括在所述集成图中的至少一个节点,获得所述多个增强图中的至少一个增强图。
训练神经网络模型的步骤可包括:基于所述多个增强图的对比损失来训练所述神经网络模型。
所述方法还可包括:控制编码器获得与所述多个个体图相应的矢量和与所述多个增强图相应的矢量;控制预测模块获得与所述多个个体图中的每一个个体图相应的推荐内容信息;控制增强模块通过对所述多个个体图中的每一个个体图进行增强来获得所述多个增强图;以及控制对比损失获得模块获得所述多个增强图的对比损失。
所述方法还可包括:训练编码器以将所述多个增强图之中的与相同个体图相应的增强图与矢量空间上的相距短距离的矢量映射,并且将所述多个增强图之中的与不同个体图相应的增强图与所述矢量空间上的相距长距离的矢量映射。
用于限定与所述多个增强图相应的矢量的矢量空间不同于用于限定所述多个增强图的对比损失的矢量空间。
增强模块可通过用三种或更多种不同的方法对所述多个个体图中的每一个个体图进行增强来获得针对所述多个个体图中的每一个个体图的三个或更多个增强图,以及其中,所述对比损失包括基于与所述三个或更多个增强图相应的矢量所限定的两个或更多个正对。
根据本公开的一个方面,一种非暂时性计算机可读存储介质存储可由处理器运行的程序指令,其中,所述程序指令在由处理器运行时被配置为控制装置进行以下操作:获得基于通过多个会话的针对多个内容的访问历史的多个个体图;基于包括在所述多个个体图中的节点之间的连接关系和所述节点之间的每一个连接被重复的次数,生成所述多个个体图被集成的集成图;通过基于所述集成图对所述多个个体图中的每一个个体图进行增强,获得多个增强图;以及基于所述多个增强图训练用于提供推荐内容的神经网络模型。
附图说明
图1是示意性地示出根据实施例的电子装置的配置的框图。
图2是示出根据实施例的包括在神经网络模型中的多个模块以及多个模块中的每一个模块的输入数据和输出数据的示图。
图3是示出根据各种实施例的个体图(individual graph)的增强处理的示图。
图4是示出根据实施例的电子装置的配置的框图。
图5是示出根据实施例的指示用户的访问历史的信息的示图。
图6是示出用于基于用户的访问历史提供指示推荐内容的信息的用户界面的示例的示图。
图7是示出根据实施例的指示用户的访问历史的信息的示图。
图8是示出用于基于用户的访问历史提供指示推荐内容的信息的用户界面的示例的示图。
图9是示出根据实施例的用于控制电子装置的方法的流程图。
具体实施方式
在下文中,将参照附图更详细地描述实施例。应当注意,该描述不是为了将本公开的范围限制于特定实施例,而是应当被解释为包括本公开的实施例的所有修改、等同物和/或替代方案。关于附图的解释,类似的附图标号可用于类似的元件。
在描述本公开时,当确定相关技术或配置的详细描述可能不必要地模糊本公开的主旨时,可省略该详细描述。
另外,下面的实施例可以以各种形式改变,并且本公开的技术构思的范围不限于下面的实施例。提供实施例以完成本公开并将本公开的技术构思完全转移给本领域技术人员。
本公开中使用的术语仅用于描述具体实施例,并不限制本公开权利的范围。在本公开中,除非另有具体定义,否则单数表达可涵盖复数表达。
在本公开中,诸如“包括”、“可包括”、“由……组成”或“可由……组成”的术语在本文中用于指定相应特征(例如,诸如数量、功能、操作或部分的构成元件)的存在,并且不排除附加特征的存在。
在本公开中,诸如“……中的至少一个”的表达在元件列表之后时修饰整个元件列表,而不是修饰列表中的单一元件。例如,表述“a、b和c中的至少一个”应理解为包括仅a、仅b、仅c、a和b两者、a和c两者、b和c两者,或者a、b和c中的全部。
术语“第1”或“第一”和“第2”或“第二”可使用相应的组件而无论重要性或顺序如何,并且用于将组件与另一组件区分开,而不限制这些组件。
如果描述了某个元件(例如,第一元件)“可操作地或通信地与”另一元件(例如,第二元件)“结合”/“可操作地或通信地结合到”另一元件(例如,第二元件)、或者“连接到”另一元件(例如,第二元件),则应当理解的是,所述某个元件可直接连接到另一元件或者通过又一元件(例如,第三元件)连接到另一元件。
另一方面,如果描述了某个元件(例如,第一元件)“直接结合到”或者“直接连接到”另一元件(例如,第二元件),则可理解的是,在所述某个元件与另一元件之间没有元件(例如,第三元件)。
此外,取决于情况,本公开中使用的表达“被配置为”可与诸如“适合于”、“具有……的能力”、“被设计为”、“适于”、“被制造为”和“能够”的其他表达互换使用。表述“被配置为”不一定是指装置在硬件方面被“专门设计为”。
相反,在一些情况下,表述“被配置为……的装置”可指“能够”与另一装置或组件一起执行操作的装置。例如,短语“被配置(或设置)为执行A、B和C的处理器”可指例如但不限于用于执行相应操作的专用处理器(例如,嵌入式处理器)、可通过运行存储在存储器装置中的一个或更多个软件程序来执行相应操作的通用处理器(例如,中央处理器(CPU)或应用处理器)等。
实施例中的诸如“模块”或“单元”的术语执行至少一个功能或操作,并且可被实现为硬件、软件或者硬件和软件的组合。此外,除了当多个“模块”、“单元”、“部件”等中的每一个需要在单独的特定硬件中实现时,组件均可集成在至少一个模块或芯片中并且在至少一个处理器中实现。
示意性地示出了附图中的各种元件和区域。因此,本公开的技术精神不受附图中所示出的比较尺寸或间隔的限制。
在下文中,参照附图,将详细描述本公开的实施例,以便于本公开所属领域的普通技术人员进行实践。
图1是示意性地示出根据实施例的电子装置100的配置的框图。图2是示出根据实施例的包括在神经网络模型中的多个模块以及多个模块中的每一个模块的输入数据和输出数据的示图。
在下文中,将描述在本公开的描述中使用的关键术语,然后将参照图1和图2描述本公开的各种实施例。
首先,根据本公开的电子装置100是指能够基于用户针对内容的访问历史来提供推荐内容的装置。具体地,电子装置100可使用训练的神经网络模型来提供推荐内容。例如,电子装置100可以是提供内容的服务器。然而,电子装置100不限于服务器,并且可以是另一种类型的电子装置。
神经网络模型是指被训练以基于指示用户针对内容的访问历史的信息来获得指示推荐内容的信息的人工智能模型。神经网络模型的类型可根据实施例而变化,但在下文中,为了便于描述,神经网络模型将被描述为包含图神经网络(GNN)的模型。
图神经网络是指被训练以在输入数据被输入到图时输出与输入数据相应的数据的神经网络模型。就此而言,图神经网络是指可直接应用于图的神经网络。
图是指包括节点(或点)和连接节点的线(或边)的数据结构。具体地,图可包括与图中包括的每一个节点相应的数据和与表示节点之间的连接关系的线相应的数据。将图输入到神经网络模型可用作将与图中包括的每一个节点相应的数据和与表示节点之间的连接关系的线相应的数据输入到神经网络模型的含义。
在本公开中,包括在图中的节点可表示由用户访问的内容,并且连接节点的线可指用户访问的内容之间的按顺序的连接关系。例如,在用户在特定会话中顺序地观看电影A、电影B和电影C的情况下,图可包括与电影A、电影B和电影C相应的三个节点、以及连接与电影A相应的节点和与电影B相应的节点的线、和连接与电影B相应的节点和与电影C相应的节点的线。
用户针对内容的访问历史用于表示用户过去已经访问或当前正在访问的通过电子装置100提供的各种内容的信息。例如,用户针对内容的访问历史可以是图像内容或语音内容并且可包括内容再现历史,并且内容可以是表示产品信息的网页并且可包括网页的加载历史或针对特定产品的用户输入的历史。
用户针对内容的访问被用作用于共同指代表示电子装置100的用户与通过电子装置100提供的内容交互的事件的术语。具体地,可通过积极方法(诸如,根据在多个内容之中选择特定内容的用户输入向用户提供特定内容的情况)来执行用户的访问,并且还可通过被动方法(诸如,以通知或广告的形式向用户提供特定内容的情况)来执行用户的访问。
可根据多个会话对用户针对内容的访问进行划分。在本文中,会话可指在电子装置100与用户之间连续存在一系列交互的时间段。另外,术语连续存在可意味着,在电子装置100与用户之间的交互连续发生的情况下,连续发生的交互之间的间隔是预定阈值时间或更短。就此而言,可根据电子装置100与用户之间的交互是否连续存在对多个会话进行划分,因此,这将在下文中更详细地描述。
可基于执行用户针对内容的访问的时间或者基于用于执行用户针对内容的访问的应用对多个会话进行划分。具体地,当执行了用户针对内容的第一次访问之后经过阈值时间时,第一次访问和经过阈值时间之后的第二次访问可被包括在不同的会话中。另外,通过第一应用执行的访问和通过第二应用执行的访问可被包括在不同的会话中。此外,可不同地设置用于对多个会话进行划分的基础。
例如,在通过电子装置100与用户之间的连续交互执行的用户输入、通过用户输入进行的内部处理、和与用户输入相应的内容的输出之间的间隔不超过阈值时间的情况下,可确定电子装置100与用户之间的交互连续存在并且维持一个会话。当在用于提供内容的应用改变或用于提供内容的服务器改变的情况下,如果用于提供内容的主题或手段改变,则可确定电子装置100与用户之间的交互不连续存在,并且将会话划分为改变应用或改变服务器之前和之后。
参照图1,根据本公开的电子装置100可包括存储器110和处理器120。另外,参照图2,根据本公开的神经网络模型10可包括多个模块,诸如编码器11、预测模块12、增强模块13和对比损失获得模块14。
存储器110可存储用于电子装置100的至少一个指令。另外,存储器110可存储用于驱动电子装置100的操作系统(O/S)。另外,存储器110可存储用于操作根据本公开的各种实施例的电子装置100的各种软件程序或应用。此外,存储器110可包括半导体存储器(诸如,闪存)或磁存储介质(诸如,硬盘)。
存储器110可存储用于操作根据本公开的各种实施例的电子装置100的各种软件模块,并且处理器120可通过运行存储在存储器110中的各种软件模块来控制电子装置100的操作。例如,处理器120可执行存储在存储器110中的软件模块以实现编码器11、预测模块12、增强模块13和对比损失获得模块14。存储器110可由处理器120访问,并且可执行处理器120对数据的读取、记录、编辑、删除或更新。
存储器110可包括电子装置中的只读存储器(ROM)和随机存取存储器(RAM),或者可拆卸地连接到电子装置100的存储卡(例如,微型SD卡或记忆棒)。
具体地,在根据本公开的各种实施例中,存储器110可存储用于神经网络模型10的数据,具体地,指示配置多个模块的层的信息、指示配置每一个层的权重和参数的信息、以及用于多个模块中的每一个模块的输入数据和输出数据。另外,存储器110可存储指示用户针对内容的访问历史的信息、个体图、集成图、增强图、指示推荐内容的信息等。
另外,在实现本公开的目的的范围内所需的各种信息可存储在存储器110中,并且可从外部装置接收存储在存储器110中的信息或根据用户的输入更新存储在存储器110中的信息。
处理器120可控制电子装置100的一般操作。具体地,处理器120可连接到电子装置100的构成元件(包括存储器110),并且通常可通过运行存储在存储器110中的至少一个指令来控制电子装置100的操作。
处理器120可通过各种方法来实现。例如,处理器120可被实现为专用集成电路(ASIC)、嵌入式处理器、微处理器、硬件控制逻辑、硬件有限状态机(FSM)和数字信号处理器(DSP)中的至少一个。处理器120可包括中央处理器(CPU)、图形处理单元(GPU)和主处理单元(MPU)。
特别地,在本公开的各种实施例中,处理器120可加载存储在存储器110中的多个模块的数据,并且根据本公开的各种实施例可通过多个模块来实现。就此而言,多个模块可被实现为软件模块,并且多个模块中的至少一些模块可被实现为处理器120中包括的硬件模块。
处理器120可使用神经网络模型10来提供与用户的访问历史相应的推荐内容。具体地,处理器120可使用包括在神经网络模型10中的编码器11和预测模块12来提供与用户的访问历史相应的推荐内容。
编码器11可获得与个体图相应的矢量,并且特别地,编码器11可包括图神经网络。在本公开中,个体图可指代表示用户单独地通过每一个会话针对多个内容的访问历史的图,并且个体图与下面将描述的集成图和增强图区分开。例如,参照图2,个体图可包括指示用户的访问历史之中的用户在第一会话(F→A→C→D→B)中访问的内容(A、B、C、D和F)、内容之间的按顺序的连接关系(按照F、A、C、D和B的顺序的连接)、以及内容之间的连接次数(针对每一个内容1次)的信息。
具体地,当个体图被输入时,编码器11可输出与输入的个体图相应的矢量。在本文中,通过对输入图的特征整体进行数字化来获得矢量,并且矢量可被指示为诸如表示或特征表示的术语。因此,在图2中,通过编码器11输出的矢量被表示为符号r。除了个体图之外,编码器11还可获得与增强图相应的矢量,并且这将在下面描述。
预测模块12可获得与个体图相应的推荐内容信息。具体地,在与个体图相应的矢量被输入的情况下,预测模块12可输出与输入矢量相应的推荐内容信息。推荐内容信息可指用于在将个体图中包括的内容输入到编码器11之后推荐具有高的用户访问的可能性的内容的信息。可按照如图2所示的矢量的形式输出推荐内容信息,并且通过预测模块12输出的矢量的维度可与通过编码器11输出的矢量的维度不同。通过预测模块12输出的矢量可指诸如目标项的术语,并且通过预测模块12输出的矢量在图2中被表示为符号t。
当推荐内容信息通过预测模块12被获得时,处理器120可通过将获得的推荐内容信息与标签信息进行比较来获得主损失(main loss),并且通过基于主损失的监督学习方法来训练神经网络模型10。在图2中,将与推荐内容信息进行比较的标签信息被表示为符号V。
具体地,处理器120可通过基于获得的主损失执行反向传播以在减少主损失的方向上训练神经网络模型10。就此而言,当基于主损失训练神经网络模型10时,预测模块12可被训练以获得能够减少主损失的推荐内容信息,并且编码器11可被训练以获得能够减少主损失的矢量。
主损失可与对比损失(contrastive loss)中区分开,将在后面描述对比损失,并且通过计算通过预测模块12获得的推荐内容信息与预先存储的标签信息之间的余弦相似性来获得主损失。除了余弦相似性之外,还可使用诸如欧几里得距离或曼哈顿距离的其他相似性计算方法(例如,距离计算方法)。
如上所述,处理器120不仅可基于通过将推荐内容信息与标签信息进行比较而获得的主损失来训练神经网络模型10,而且还可对个体图进行增强,获得增强图,并使用增强图来训练神经网络模型10。在下文中,将描述根据本公开的获得增强图的处理和基于对比损失训练神经网络模型10的处理。
在实施例中,处理器120可获得表示用户通过多个会话针对多个内容的访问历史的多个个体图。具体地,处理器120可收集指示用户在预定时段期间访问多个内容的历史的信息。另外,处理器120可对用户的通过多个会话的访问历史进行划分,并且获得表示通过每一个会话的访问历史的多个个体图。
当多个个体图被获得时,处理器120可基于包括在多个个体图中的节点之间的连接关系和连接次数来生成多个个体图被集成的集成图。
集成图是指共同表示用户针对多个内容的访问历史的图。具体地,处理器120可生成集成图,其中,集成图包括指示与由用户在多个会话期间访问的内容相应的节点、表示节点的连接关系的线、以及节点的连接次数的信息。
参照图2,集成图可包括指示来自多个会话的用户的访问历史中的内容A、B、C、D、E和F、内容之间的按顺序的连接关系、以及内容之间的连接次数的信息。例如,在图2的集成图中,A→C可表示用户访问内容A并然后访问内容C,在A→C中分配的数字2可表示用户在整个会话中访问内容A并然后访问内容C的次数为2。
当集成图被获得时,处理器120可通过基于集成图执行对多个个体图中的每一个的增强,来获得多个增强图。具体地,处理器120可通过增强模块13获得多个增强图。就此而言,增强模块13可指能够通过对多个个体图中的每一个进行增强来获得多个增强图的模块。
增强是指通过将各种算法应用于少量数据来增加数据量的技术。特别地,增强技术可用于解决在训练神经网络模型10时,当训练数据量不足时发生的神经网络模型10的性能劣化或欠拟合或过拟合的问题。
根据本公开的增强图是基于多个个体图生成的图,并且包括在增强图中的节点、节点之间的连接关系和连接次数中的至少一个可与多个个体图不同。当将在下面描述的获得增强图的处理被执行时,神经网络模型10可更好地获得表示输入图的特征的矢量并预测与用户意图相应的推荐内容,因此,将在描述获得增强图的处理之后对此进行更详细的描述。
在实施例中,处理器120可通过将包括在集成图中的至少一个节点添加到多个个体图之中的每一个中包括的多个节点来获得多个增强图中的至少一个增强图。这可被称为注入(injection)方法。
在此,可基于连接到集成图的节点的连接关系和连接次数来确定添加到个体图的节点。例如,增强模块13可基于集成图包括连接关系F→A的要点,通过将与图2的会话A→C→D相应的个体图改变为具有连接关系F→A→C→D的图,来获得增强图。
在实施例中,处理器120可通过将包括在多个个体图中的每一个中的多个节点中的至少一个节点改变为包括在集成图中的至少一个节点来获得多个增强图中的至少一个增强图。这可被称为改变方法。
这里,可基于连接到集成图的节点之间的连接关系和连接次数来确定个体图中改变的节点。例如,增强模块13可通过基于集成图中的针对连接关系C→D的连接次数为2(其大于连接关系C→E的连接次数)的要点将与图2的会话B→C→E相应的个体图改变为具有连接关系B→C→D的图,来获得增强图。
另外,处理器120可通过使用各种增强方法来获得多个增强图,诸如,在多个个体图中的每一个中包括的多个节点之中仅选择一些节点、移除一些节点、或重新排列一些节点的顺序。将参照图3更详细地描述根据本公开的各种增强方法。
当多个增强图被获得时,处理器120可基于多个增强图训练神经网络模型10。具体地,处理器120可通过对比损失获得模块14获得对比损失,并且根据对比学习方法基于获得的对比损失来训练神经网络模型10。因此,对比损失获得模块14是指能够获得多个增强图的对比损失的模块。
对比学习是一种自我监督学习,并且是指这样的方法:通过将不同的增强方法应用于数据来获得增强数据,并训练神经网络模型10使得数据之中的正对(positive pair)的特征表示之间的距离短并且数据中的负对(negative pair)的特征表示之间的距离长。此外,对比损失可被限定为表示增强数据之间的关系的正对和负对的集合。下面将更详细地描述正对和负对。
具体地,当多个增强图通过增强模块13被获得时,处理器120可通过将多个增强图输入到编码器11来获得与多个增强图中的每一个相应的矢量(即,表示)。如图2所示,编码器11可获得矢量ra1、ra2和ra3,它们分别表示与通过第一增强方法获得的增强数据相应的矢量、与通过第二增强方法获得的增强数据相应的矢量、以及与通过第三增强方法获得的增强数据相应的矢量。
当与多个增强图中的每一个相应的矢量被获得时,处理器120可通过将与多个增强图中的每一个相应的矢量输入到对比损失获得模块14以投影到不同维度的矢量空间,来获得配置对比损失的矢量。就此而言,用于限定与多个增强图相应的矢量的矢量空间可不同于用于限定针对多个增强图的对比损失的矢量空间。
另外,用于限定针对多个增强图的对比损失的矢量空间可不同于与预测模块12的输出相应的矢量空间。就此而言,根据本公开,通过编码器11输出的矢量可映射到与相应于预测模块12的输出的矢量空间不同的矢量空间上,然后可执行与基于预测模块12的输出的学习具有独立关系的单独的学习,从而更有效地训练编码器11。下面将更详细地描述基于对比损失的训练处理。
当配置对比损失的矢量通过对比损失获得模块14被获得时,可获得表示多个增强图的关系的对比损失。在图2的示例中,z1、z2、z3和z4分别表示包括在用户的访问历史中的第一会话、第二会话、第三会话和第四会话,并且上标a1、a2和a3分别表示第一增强方法、第二增强方法和第三增强方法。就此而言,在图2的示例中,z1 a1与通过将第一增强方法应用于与第一会话相应的个体图而获得的增强图相应,并且z1 a2与通过将第二增强方法应用于与第一会话相应的个体图而获得的增强图相应。
图2的表格表示通过三种方法对与图2的用户的访问历史相应的多个个体图进行增强而获得的多个增强图之间的关系。在本文中,多个增强图之间的关系可包括表示多个增强图中的与相同个体图相应的增强图的关系(下文中,称为正对)和表示多个增强图中的与不同个体图相应的增强图的关系(下文中,称为负对)。
具体地,在图2的表格中,p表示正对,空白表示负对。例如,z1 a1、z1 a2和z1 a3之间的关系表示正对,z1 a1、z2 a1、z3 a1和z4 a1之间的关系表示负对。
就此而言,通过对比损失获得模块14,可获得多个增强图中的与相同个体图(即,相同会话)相应的增强图是正对并且多个增强图中的与不同个体图(即,不同会话)相应的增强图是负对的对比损失。
特别地,如图2所示,根据本公开的增强模块13可通过用三种或更多种不同方法对多个个体图中的每一个进行增强来获得针对多个个体图中的每一个的三个或更多个增强图,因此,对比损失可包括基于与三个或更多个增强图相应的矢量限定的两个或更多个正对。
当对比损失被获得时,神经网络模型10可被训练以将多个增强图中的与相同个体图相应的增强图(即,正对)与矢量空间上的相距短距离的矢量映射,并将多个增强图中的与不同个体图相应的增强图(即,负对)与矢量空间上的相距长距离的矢量映射。参照图2,例如,神经网络模型10可被训练以按照正对的关系将z1 a1与z1 a2和z1 a3映射为相距短距离的矢量,并且按照负对的关系将z1 a1与z2 a1、z3 a1和z4 a1映射为相距长距离的矢量。
当在执行上述学习处理之后向用户提供实际推荐内容信息时,可停止增强模块13和对比损失获得模块14的使用,并且可通过编码器11和预测模块12获得推荐内容信息。
可同时执行基于推荐内容信息训练神经网络模型10的处理和基于对比损失训练神经网络模型10的处理,并且也可在不同时间执行基于推荐内容信息训练神经网络模型10的处理和基于对比损失训练神经网络模型10的处理。例如,处理器120可在执行基于对比损失训练神经网络模型10的处理之后,执行基于推荐内容信息训练神经网络模型10的处理。
根据上述实施例,电子装置100可对表示用户针对内容的访问历史的个体图进行增强,并且基于针对增强图的输出来有效地训练神经网络模型10。
特别地,电子装置100可在个体图中使用三种或更多种各种增强方法来获得多个增强图,并且基于包括两对或更多对正对的对比损失来训练编码器11。因此,编码器11可更好地获得表示输入图的特征的矢量。另外,在神经网络模型10的预测处理中输入与新会话相应的个体图的情况下,可预测与用户意图相应的推荐内容。
另外,根据本公开的电子装置100可使用来自包括在集成图中的整个会话的信息,而不仅在对个体图进行增强的处理中使用来自每一个会话的信息,因此,可克服仅在会话内传输信息或在数据的增强处理期间丢失一些信息的问题。
图3是示出根据各种实施例的个体图的增强处理的示图。
如上所述,处理器120可基于包括在多个个体图中的节点的连接关系和连接次数来生成多个个体图被集成的集成图,并且基于集成图对多个个体图中的每一个进行增强,从而获得多个增强图。这里,基于集成图的多个个体图的增强可指示增强图是通过在个体图上反映指示包括在集成图中的节点的连接关系和连接次数的信息来获得的。
图3示出个体图的示例和通过将各种增强方法应用于个体图而获得的各种增强图的示例。图3示意性地示出用户在相应会话中按顺序访问的内容,而不是示出特定形状的个体图和增强图。
图3的选择表示:可通过选择个体图(F→A→C→D→B)的作为连续部分的节点A、C和D以及节点A、C和D之间的线来获得增强图。图3的排除表示:可通过排除个体图(F→A→C→D→B)的节点C并连接节点A和节点D之间的线来获得增强图。另外,图3的重新排序表示可通过交换个体图(F→A→C→D→B)的节点A和C来获得增强图。
图3的注入表示:可通过将新节点C添加到个体图(F→A→C→D→B)并连接节点B与新节点C之间的线来获得增强图。图3的改变表示:可通过将个体图(F→A→C→D→B)的节点B改变为新节点E来获得增强图。
特别地,可基于在集成图中连接的节点的连接关系和连接次数来确定在注入和改变的方法中添加到个体图的节点。例如,在图3的示例中,当预先获得的集成图是图2的集成图时,可基于集成图的节点B连接到节点C两次的要点来确定在注入方法中在另一增强图中添加的新节点C。然而,连接关系不限于直接连接关系。在图3的示例中,当预先获得的集成图是图2的集成图时,可基于集成图的节点C不仅连接到节点D而且还连接到节点E的要点来确定在改变方法中在另一增强图中添加的新节点E。
根据上述选择、排除和重新排序的方法,有利的是,可仅使用相应的个体图中的信息来增强个体图,但是因为该方法仅考虑相应的个体图中的信息,所以难以获得各种增强图,并且可发生在增强期间相应的个体图的信息丢失的问题。
相反,根据注入和改变的方法,不仅可使用相应的个体图,而且还可使用在集成了来自多个会话的信息的集成图中包括的信息来增强个体图,因此可获得各种类型的增强图。因此,根据将根据多个会话的按顺序的数据转换到图,可克服仅在会话内进行节点的信息传输的限制,特别是可克服当会话长度较小时可能无法获得增强图的各种变型的限制。
因此,根据本公开的处理器120可不仅使用上述选择、排除和重新排序的方法,还可使用注入和改变的方法来获得增强图。具体地,处理器120可通过增强模块13通过使用上述增强方法随机地生成增强图,并且在这种情况下,可根据增强来预设个体图中将被改变的节点的比例。当增强图被随机生成并且然后基于对比损失执行训练神经网络模型10的处理时,增强模块13可被训练以获得能够减少对比损失的增强图。因此,处理器120可在通过增强模块13保持个体图的特征的同时,在训练处理中获得与现有个体图具有区别的增强图。
根据本公开的增强模块13可通过用三种或更多种不同的方法对多个个体图中的每一个进行增强来获得针对多个个体图中的每一个的三个或更多个增强图,并且因此,对比损失可包括基于与三个或更多个增强图相应的矢量限定的两个或更多个正对,从而使得能够执行个体图的更有效的增强。
在上文中,参照图3,描述了五种增强方法作为示例,但这些仅是示例,并且各种其他增强方法也可应用于本公开。
图4是示出根据实施例的电子装置100的配置的框图。
参照图4,除了存储器110和处理器120之外,根据本公开实施例的电子装置100还可包括通信器130、输入接口140和输出接口150。然而,图1和图4仅仅是示例,并且除了图1和图4中所示出的构成元件之外的各种构成元件可被包括在电子装置100中。
通信器130可包括电路并且可与外部装置通信。具体地,处理器120可从通过通信器130连接的外部装置接收各种数据或信息,并将各种数据或信息发送到外部装置。
通信器130可包括Wi-Fi模块、蓝牙模块、无线通信模块、NFC模块和超宽带(UWB)模块中的至少一个。具体地,Wi-Fi模块和蓝牙模块可分别通过Wi-Fi方法和蓝牙方法进行通信。在使用Wi-Fi模块或蓝牙模块的情况下,可发送或接收各种连接信息(诸如,服务集标识符(SSID))以建立通信连接,然后可使用建立的通信连接发送和接收各种信息。
另外,无线通信模块可根据各种通信标准(诸如,IEEE、Zigbee、第三代(3G)、第三代合作伙伴计划(3GPP)、长期演进(LTE)、第5代(5G))进行通信。NFC模块可使用135kHz、13.56MHz、433MHz、860MHz至960MHz、2.45GHz等的各种RF-ID频带中的13.56MHz频带通过近场通信(NFC)方法进行通信。另外,UWB模块可通过UWB天线之间的通信准确地测量作为脉冲到达目标的时间的到达时间(ToA)和作为脉冲到达角度的到达角度(AoA),并且因此,能够在房间中的几十厘米内的误差范围内识别精确的距离和位置。
具体地,在根据本公开的各种实施例中,处理器120可通过通信器130从外部装置接收根据本公开的指示内容的信息和关于神经网络模型10的信息。另外,在根据本公开的神经网络模型10包括外部服务器的情况下,处理器120可控制通信器130将指示用户的访问历史的信息发送到外部服务器,并通过通信器130接收指示推荐内容的信息。另外,处理器120可通过通信器130从用户终端接收用于提供指示用户的访问历史的信息和指示推荐内容的信息的用户输入。另外,可在外部装置、外部服务器和用户终端之间发送和接收各种信息和数据。
输入接口140可包括电路,并且处理器120可通过输入接口140接收用于控制电子装置100的操作的用户命令。具体地,输入接口140可配置有麦克风、相机和遥控信号接收器的构成元件。另外,输入接口140可被实现为包括在作为触摸屏的显示器中。特别地,麦克风可接收语音信号并将接收到的语音信号转换为电信号。
具体地,在根据本公开的各种实施例中,处理器120可通过输入接口140接收与用户的访问相应的用户输入,并且接收用于提供推荐内容信息的用户输入。例如,处理器120可通过输入接口140接收用户输入(诸如,用于观看内容的用户输入、用于加载网页的用户输入等),并且基于接收到的用户输入获得指示用户的访问历史的信息。
输出接口150可包括电路,并且处理器120可输出电子装置100能够通过输出接口150执行的各种功能。另外,输出接口150可包括显示器、扬声器和指示器(例如,发光二极管)中的至少一个。
显示器可通过处理器120的控制来输出图像数据。具体地,显示器可通过处理器120的控制来输出预先存储在存储器110中的图像。特别地,根据本公开的实施例的显示器可显示存储在存储器110中的用户界面。显示器可被实现为液晶显示器(LCD)面板或有机发光二极管(OLED),并且显示器还可根据情况被实现为柔性显示器、透明显示器等。然而,根据本公开的显示器不限于特定类型。
扬声器可通过处理器120的控制来输出音频数据,并且指示器可通过处理器120的控制来闪烁。
特别地,在本公开的各种实施例中,处理器120可通过输出接口150提供内容和指示推荐内容的信息。例如,处理器120可控制显示器显示内容,并且在显示器上显示内容的同时控制显示器显示指示推荐内容的信息。另外,处理器120可显示用户界面,并且通过用户界面接收用于提供指示推荐内容的信息的用户输入。
在下文中,将参照图5至图8描述与提供指示推荐内容的信息相关的示例。
图5是示出根据实施例的指示用户的访问历史的信息的示图,图6是示出用于基于用户的访问历史提供指示推荐内容的信息的用户界面的示例的示图。
在图5和图6中,将描述神经网络模型10是用于基于用户针对图像内容的访问历史来获得指示推荐内容的信息的神经网络模型的情况作为示例。
具体地,指示用户的访问历史的信息可包括指示用户访问通过电子装置100提供的各种内容的各种信息。
参照图5,指示用户的访问历史的信息可包括指示用户的信息510。具体地,指示用户的信息510可包括用于从多个用户之中识别在特定会话中访问多个内容的用户的信息。例如,指示用户的信息510可包括指示电子装置100的用户或连接到电子装置100的用户终端的简档信息、针对应用/网站的登录信息等。
指示用户的访问历史的信息可包括与用户的访问有关的上下文信息。具体地,与用户的访问相关的上下文信息可包括关于用户访问内容的区域的信息520、关于用户用于访问内容的装置的信息530、以及关于用户访问内容的时间的信息540。
指示用户的访问历史的信息可包括关于根据用户的访问的内容的信息550。具体地,关于根据用户访问的内容的信息550可包括指示用户按顺序访问的内容是什么的信息。图5示出根据用户的访问,可在关于内容的信息550的下端的区域560中基于指示用户的访问历史的信息提供指示推荐内容的信息。
处理器120可基于指示用户的信息510、关于用户访问内容的区域的信息520、关于用户用于访问内容的装置的信息530、关于用户访问内容的时间的信息540以及关于根据用户的访问的内容的信息550,根据用户的访问对会话进行划分,并确定与每一个划分的会话相应的个体图的节点和与节点相应的数据,从而生成与每一个会话相应的个体图。就此而言,除了关于根据用户的访问的内容的信息550之外,与个体图的节点相应的数据还可包括与用户的访问相关的上下文信息。
当与每一个会话相应的个体图被生成时,处理器120可使用根据本公开训练的神经网络模型获得指示与个体图相应的推荐内容的信息,并将该信息提供给用户。另外,可通过诸如图6所示的用户界面来提供指示推荐内容的信息。
参照图6,在电子装置100的显示器上显示内容时,处理器120可控制显示器显示用于接收用户输入的第一用户界面610。除了与频道号(例如,频道13、频道22、频道34、频道45和频道51)相应的UI项之外,第一用户界面610还可包括用于接收推荐内容的UI项(例如,内容推荐)。
当通过第一用户界面610接收到用于选择推荐内容的UI项的用户输入时,处理器120可控制显示器显示指示推荐内容的第二用户界面620。参照图6,第二用户界面可包括多个推荐内容的缩略图图像。
当通过第二用户界面620接收到用于选择多个推荐内容中的一个内容的用户输入时,处理器120可控制显示器显示所述一个内容。
在上文中,参照图5和图6,已经描述了根据本公开的示例的用于提供指示用户的访问历史的信息和指示推荐内容的信息的用户界面的示例,但上述示例仅仅是示例,并且各种其他实施例可应用于本公开。将参照图7和图8描述另一实施例。
图7是示出根据实施例的指示用户的访问历史的信息的示图,并且图8是示出用于基于用户的访问历史提供指示推荐内容的信息的用户界面的示例的示图。
在图7和图8的描述中,将描述神经网络模型10是用于获得指示产品的信息的神经网络模型的情况作为示例,其中,该产品是基于用户对表示产品信息的网页的访问历史的推荐内容。在图7中,产品是鞋710、720和730。然而,这是示例,并且实施例不限于此。
参照图7,指示用户的访问历史的信息可包括指示用户查看关于特定产品的信息的信息(图7的查看)、指示用户将特定产品添加到购物车(图7的添加到购物车)的信息、指示用户执行针对特定产品的交易(图7的交易)的信息、以及指示用户访问特定产品的时间的信息(图7的t1至t7)。
处理器120可基于指示用户查看关于特定产品的信息的信息、指示用户将特定产品添加到购物车的信息、指示用户购买特定产品的信息、以及指示用户访问产品的时间的信息,根据用户的访问对会话进行划分,并确定与每一个划分的会话相应的个体图的节点和与节点相应的数据,从而生成与每一个会话相应的个体图。
例如,当用户执行针对特定产品的交易的时间t5与用户在此之后查看指示特定产品的信息的时间t6之间的间隔超过预定阈值时间时,处理器120可将用户通过针对特定产品进行交易而执行的访问和用户在此之后通过查看指示特定产品的信息而执行的访问划分为不同的会话。
当确定与每一个划分的会话相应的个体图的节点和与节点相应的数据时,与指示用户查看指示特定产品的信息的信息相比,处理器120可将更高的权重施加于指示用户将特定产品添加到购物车的信息,并且与指示用户将特定产品添加到购物车的信息相比,处理器120可将更高的权重施加于指示用户购买特定产品的信息。就此而言,与个体图的节点相应的数据不仅可包括指示用户访问特定产品的信息,而且具体地,还可包括指示用户针对特定产品的访问是哪种操作的信息。
当与每一个会话相应的个体图被生成时,处理器120可使用根据本公开训练的神经网络模型来获得指示与个体图相应的推荐内容的信息,并将该信息提供给用户。另外,可通过图8所示的用户界面提供指示推荐内容的信息。具体地,参照图8,用户界面可包括作为针对用户的推荐内容的产品的图像、以及包括产品的描述、产品的价格等的推荐内容信息。
图9是示出根据实施例的用于控制电子装置100的方法的流程图。
参照图9,电子装置100可获得表示用户通过多个会话针对多个内容的访问历史的多个个体图(S910)。具体地,电子装置100可收集指示用户在预定时段期间访问多个内容的历史的信息。另外,电子装置100可对用户的通过多个会话的访问历史进行划分,并且获得表示针对每一个会话的用户的访问历史的多个个体图。
当多个个体图被获得时,电子装置100可基于包括在多个个体图中的节点之间的连接关系和连接次数来生成多个个体图被集成的集成图(S920)。
当集成图被获得时,电子装置100可通过基于集成图对多个个体图中的每一个进行增强来获得多个增强图(S930)。
当多个增强图被获得时,电子装置100可基于多个增强图训练神经网络模型10。具体地,电子装置100可获得与多个增强图相应的对比损失,并且根据对比学习方法基于获得的对比损失训练神经网络模型10(S940)。
根据实施例的用于控制电子装置100的方法可被实现为程序并且被提供给电子装置100。特别地,包括用于控制电子装置100的方法的程序可被存储和提供在非暂时性计算机可读介质中。
具体地,在包括执行用于控制电子装置100的方法的程序的非暂时性计算机可读介质中,用于控制电子装置100的方法可包括:获得表示用户通过多个会话针对多个内容的访问历史的多个个体图,基于包括在多个个体图中的节点之间的连接关系和连接次数生成多个个体图被集成的集成图,通过基于集成图对多个个体图中的每一个进行增强来获得多个增强图,以及基于多个增强图训练神经网络模型10。
上面简要描述了用于控制电子装置100的方法和包括执行用于控制电子装置100的方法的程序的非暂时性计算机可读介质,但这仅仅是为了不重复重叠的描述,电子装置100的各种示例可应用于用于控制电子装置100的方法和包括执行用于控制电子装置100的方法的程序的计算机可读介质。
可通过存储指令的存储器和执行指令的处理器来执行上述神经网络模型10的功能。
处理器可由一个或更多个处理器形成。一个或更多个处理器可以是通用处理器(诸如,CPU、AP)、图形专用处理器(诸如,GPU或VPU)或人工智能专用处理器(诸如,NPU)等。
一个或更多个处理器可执行控制以根据存储在非易失性存储器和易失性存储器中的预定义动作规则或人工智能模型来处理输入数据。可通过训练来形成预定义动作规则或人工智能模型。
本文中的通过训练来形成可例如指示通过将学习算法应用于多条训练数据来形成用于期望特征的预定义动作规则或人工智能模型。可在展示根据本公开的人工智能的装置中执行这样的训练,或者由单独的服务器和/或系统执行这样的训练。
人工智能模型可包括多个神经网络层。每一层具有多个权重值,并且通过前一层的处理结果和多个权重值之间的处理来执行层的处理。神经网络的示例可包括卷积神经网络(CNN)、深度神经网络(DNN)、递归神经网络(RNN)、受限玻尔兹曼机(RBM)、深度信念网络(DBN)、双向递归深度神经网络(BRDNN)、生成对抗网络(GAN)和深度Q网络,但除非另有说明,否则本公开的神经网络不限于上述示例。
学习算法可以是用于通过使用多条训练数据来训练预定目标机器(例如,机器人)的方法,以允许预定目标装置由它本身进行确定或预测。学习算法的示例包括监督学习、无监督学习、半监督学习或强化学习,但是除非另有说明,否则本公开的学习算法不限于上述示例。
可以以非暂时性存储介质的形式提供机器可读存储介质。这里,非暂时性存储介质是有形的并且可以不包括信号(例如,电磁波),并且该术语不区分数据是半永久地存储在存储介质中还是临时地存储在存储介质中。例如,非暂时性存储介质可包括临时存储数据的缓冲器。
根据实施例,可在计算机程序产品中提供根据本公开中公开的各种实施例的方法。计算机程序产品可作为商业上可获得的产品在卖方与买方之间交换。计算机程序产品可以以机器可读存储介质(例如,光盘只读存储器(CD-ROM))的形式分发,或者通过应用商店(例如,PlayStoreTM)在线分发(例如,下载或上传)或直接在两个用户装置(例如,智能电话)之间分发。在在线分发的情况下,计算机程序产品(例如,可下载应用)的至少一部分可至少临时存储在机器可读存储介质(诸如,制造商的服务器、应用商店的服务器或中继服务器的存储器)中或在机器可读存储介质(诸如,制造商的服务器、应用商店的服务器或中继服务器的存储器)中临时生成。
根据上述各种实施例的每一个元件(例如,模块或程序)可包括单个实体或多个实体,并且可省略上述子元件中的一些子元件,或者在各种实施例中还可包括其他子元件。可选地或另外地,一些元件(例如,模块或程序)可集成到一个实体中,以执行在集成之前由每一个相应元件执行的相同或类似功能。
根据各种实施例,可顺序地执行由模块、程序或其他元件执行的操作,或者可按照并行、重复或启发式方式执行由模块、程序或其他元件执行的操作,或者可按照不同的顺序执行至少一些操作,可省略至少一些操作,或者可添加不同的操作。
在本公开中,术语单元或模块可包括用硬件、软件或固件实现的单元,并且可与例如逻辑、逻辑块、部件或电路的术语互换使用。单元或模块可以是整体形成的部件或最小单元,或者可以是执行一个或更多个功能的部件的一部分。例如,模块可被实现为专用集成电路(ASIC)。
本公开的各种实施例可被实现为包括存储在机器(例如,计算机)可读存储介质中的指令的软件。机器是调用存储在存储介质中的指令并根据调用的指令进行操作的装置,并且可包括根据所公开的实施例的电子装置(例如,电子装置100)。
在指令由处理器运行的情况下,处理器可在处理器的控制下直接或使用其他元件来执行与指令相应的功能。指令可包括由编译器产生的代码或可由解释器执行的代码。
虽然已经示出和描述了实施例的各方面,但应当理解的是,在不脱离所附权利要求的精神和范围的情况下,可在其中进行形式和细节上的各种改变。
Claims (15)
1.一种电子装置,包括:
存储器,存储神经网络模型;以及
处理器,被配置为:
获得多个个体图,所述多个个体图表示用户通过多个会话针对多个内容的访问历史;
基于包括在所述多个个体图中的节点之间的连接关系和所述节点之间的每一个连接被重复的次数,生成所述多个个体图被集成的集成图;
通过基于所述集成图对所述多个个体图中的每一个个体图进行增强,获得多个增强图;以及
基于所述多个增强图训练用于提供推荐内容的所述神经网络模型。
2.根据权利要求1所述的电子装置,其中,处理器被配置为:通过将包括在所述集成图中的至少一个节点添加到包括在所述多个个体图中的每一个个体图中的多个节点,获得所述多个增强图中的至少一个增强图。
3.根据权利要求1所述的电子装置,其中,处理器被配置为:通过将包括在所述多个个体图中的每一个个体图中的多个节点中的至少一个节点改变为包括在所述集成图中的至少一个节点,获得所述多个增强图中的至少一个增强图。
4.根据权利要求1所述的电子装置,其中,处理器被配置为:基于所述多个增强图的对比损失来训练所述神经网络模型。
5.根据权利要求4所述的电子装置,其中,处理器被配置为:实现编码器、预测模块、增强模块和对比损失获得模块,其中,编码器被配置为获得与所述多个个体图相应的矢量和与所述多个增强图相应的矢量,预测模块被配置为获得与所述多个个体图中的每一个个体图相应的推荐内容信息,增强模块被配置为通过对所述多个个体图中的每一个个体图进行增强来获得所述多个增强图,对比损失获得模块被配置为获得所述多个增强图的对比损失。
6.根据权利要求5所述的电子装置,其中,处理器还被配置为:训练所述编码器以将所述多个增强图之中的与相同个体图相应的增强图与矢量空间上的相距短距离的矢量映射,并且将所述多个增强图之中的与不同个体图相应的增强图与所述矢量空间上的相距长距离的矢量映射。
7.根据权利要求5所述的电子装置,其中,用于限定与所述多个增强图相应的矢量的矢量空间不同于用于限定所述多个增强图的对比损失的矢量空间。
8.根据权利要求5所述的电子装置,其中,处理器还被配置为:控制增强模块通过用三种或更多种不同的方法对所述多个个体图中的每一个个体图进行增强来获得针对所述多个个体图中的每一个个体图的三个或更多个增强图,以及
其中,所述对比损失包括基于与所述三个或更多个增强图相应的矢量所限定的两个或更多个正对。
9.一种控制电子装置使用神经网络模型的方法,所述方法包括:
获得多个个体图,所述多个个体图表示用户通过多个会话针对多个内容的访问历史;
基于包括在所述多个个体图中的节点之间的连接关系和所述节点之间的每一个连接被重复的次数,生成所述多个个体图被集成的集成图;
通过基于所述集成图对所述多个个体图中的每一个个体图进行增强,获得多个增强图;以及
基于所述多个增强图训练用于提供推荐内容的所述神经网络模型。
10.根据权利要求9所述的用于控制电子装置的方法,其中,获得所述多个增强图的步骤包括:通过将包括在所述集成图中的至少一个节点添加到包括在所述多个个体图中的每一个个体图中的多个节点,获得所述多个增强图中的至少一个增强图。
11.根据权利要求9所述的用于控制电子装置的方法,其中,获得所述多个增强图的步骤包括:通过将包括在所述多个个体图中的每一个个体图中的多个节点中的至少一个节点改变为包括在所述集成图中的至少一个节点,获得所述多个增强图中的至少一个增强图。
12.根据权利要求9所述的用于控制电子装置的方法,其中,训练所述神经网络模型的步骤包括:基于所述多个增强图的对比损失来训练所述神经网络模型。
13.根据权利要求12所述的用于控制电子装置的方法,还包括:
控制编码器获得与所述多个个体图相应的矢量和与所述多个增强图相应的矢量;
控制预测模块获得与所述多个个体图中的每一个个体图相应的推荐内容信息;
控制增强模块通过对所述多个个体图中的每一个个体图进行增强来获得所述多个增强图;以及
控制对比损失获得模块获得所述多个增强图的对比损失。
14.根据权利要求13所述的用于控制电子装置的方法,还包括:训练所述编码器以将所述多个增强图之中的与相同个体图相应的增强图与矢量空间上的相距短距离的矢量映射,并且将所述多个增强图之中的与不同个体图相应的增强图与所述矢量空间上的相距长距离的矢量映射。
15.根据权利要求13所述的用于控制电子装置的方法,其中,用于限定与所述多个增强图相应的矢量的矢量空间不同于用于限定所述多个增强图的对比损失的矢量空间。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0115908 | 2021-08-31 | ||
KR10-2022-0045188 | 2022-04-12 | ||
KR1020220045188A KR20230032843A (ko) | 2021-08-31 | 2022-04-12 | 전자 장치 및 전자 장치의 제어 방법 |
PCT/KR2022/013026 WO2023033538A1 (ko) | 2021-08-31 | 2022-08-31 | 전자 장치 및 전자 장치의 제어 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117678227A true CN117678227A (zh) | 2024-03-08 |
Family
ID=90069956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280049821.7A Pending CN117678227A (zh) | 2021-08-31 | 2022-08-31 | 电子装置和电子装置的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117678227A (zh) |
-
2022
- 2022-08-31 CN CN202280049821.7A patent/CN117678227A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10268679B2 (en) | Joint language understanding and dialogue management using binary classification based on forward and backward recurrent neural network | |
CN106471526B (zh) | 用于处理图像的方法和系统 | |
US11861474B2 (en) | Dynamic placement of computation sub-graphs | |
CN107969156B (zh) | 用于处理图形数据的神经网络 | |
US11616813B2 (en) | Secure exploration for reinforcement learning | |
KR102607880B1 (ko) | 전자 장치 및 그의 제어 방법 | |
US10825072B2 (en) | System for producing recommendations and predicting purchases of products based on usage patterns | |
US9462015B2 (en) | Distributed association engine | |
CN112070216B (zh) | 一种基于图计算系统训练图神经网络模型的方法及系统 | |
US20210089834A1 (en) | Imagination-based agent neural networks | |
US10675537B1 (en) | Determining action selection policies of an execution device | |
WO2022057433A1 (zh) | 一种机器学习模型的训练的方法以及相关设备 | |
CN112434620B (zh) | 场景文字识别方法、装置、设备和计算机可读介质 | |
US20230297832A1 (en) | Electronic device and controlling method of electronic device | |
CN110489955B (zh) | 应用于电子设备的图像处理、装置、计算设备、介质 | |
US20190205757A1 (en) | Model-free control for reinforcement learning agents | |
US12003885B2 (en) | Video frame interpolation via feature pyramid flows | |
CN112292699A (zh) | 确定执行设备的动作选择方针 | |
US10765949B1 (en) | Determining action selection policies of an execution device | |
CN117678227A (zh) | 电子装置和电子装置的控制方法 | |
WO2022052647A1 (zh) | 一种数据处理方法、神经网络的训练方法以及相关设备 | |
US10719358B1 (en) | Determining action selection policies of an execution device | |
KR20230032843A (ko) | 전자 장치 및 전자 장치의 제어 방법 | |
CN112308942A (zh) | 用于生成图像的方法和装置 | |
CN112036418A (zh) | 用于提取用户特征的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |