CN112631434A - 一种基于深度学习的振动触觉编解码方法 - Google Patents

一种基于深度学习的振动触觉编解码方法 Download PDF

Info

Publication number
CN112631434A
CN112631434A CN202110028453.5A CN202110028453A CN112631434A CN 112631434 A CN112631434 A CN 112631434A CN 202110028453 A CN202110028453 A CN 202110028453A CN 112631434 A CN112631434 A CN 112631434A
Authority
CN
China
Prior art keywords
data
group
predicted
coding
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110028453.5A
Other languages
English (en)
Other versions
CN112631434B (zh
Inventor
赵铁松
王楷
徐艺文
房颖
冯伟泽
郑权斐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202110028453.5A priority Critical patent/CN112631434B/zh
Publication of CN112631434A publication Critical patent/CN112631434A/zh
Application granted granted Critical
Publication of CN112631434B publication Critical patent/CN112631434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明涉及一种基于深度学习的振动触觉编解码方法,具体包括以下步骤:将触觉信号不同维度数据进行联合编码,去除触觉数据三维空间上存在的冗余,同时对其进行预处理;利用门控循环单元网络GRU进行训练,每次均以两组数据输入,得到下一组数据的预测数据,并以下一组数据的真实值作为标签,将预测数据和真实数据进行比较计算残差对预测数据进行补偿,得到重构后的预测数据;将重构的预测数据与和前一组数据打包重新作为下一轮预测的输入数据。本发明较现有技术,在性能上有大幅度的提升。

Description

一种基于深度学习的振动触觉编解码方法
技术领域
本发明涉及视频编码技术领域,特别是一种基于深度学习的振动触觉编解码方法。
背景技术
目前对触觉信息的研究还没有达到与听觉信息相同的高质量水平。特别是触觉编解码器的开发技术同音视频相比,还有相当一段距离,设计和优化还需要进一步的研究。因此,在当下设计一种能够同时满足显著降低数据速率,实现高保真且低延迟的触觉编解码器是十分必要且紧迫的。
目前对于触觉编解码器设计方案,主要分为两类,第一类是以人类触觉感知生理理论为核心的触觉编解码算法,第二类是借鉴音视频编码器的方案,采用将触觉信号转换到频域的压缩算法。
发明内容
有鉴于此,本发明的目的是提出一种基于深度学习的振动触觉编解码方法,较现有技术,在性能上有大幅度的提升。
本发明采用以下方案实现:一种基于深度学习的振动触觉编解码方法,具体包括以下步骤:
将触觉信号不同维度数据进行联合编码,去除触觉数据三维空间上存在的冗余,同时对其进行预处理;
利用门控循环单元网络GRU进行训练,每次均以两组数据输入,得到下一组数据的预测数据,并以下一组数据的真实值作为标签,将预测数据和真实数据进行比较计算残差对预测数据进行补偿,得到重构后的预测数据;将重构的预测数据与和前一组数据打包重新作为下一轮预测的输入数据。
进一步地,所述触觉信号不同维度的数据具体包括X、Y、Z三种维度。
进一步地,所述利用门控循环单元网络GRU进行训练,每次均以两组数据输入,得到下一组数据的预测数据,并以下一组数据的真实值作为标签,将预测数据和真实数据进行比较计算残差对预测数据进行补偿,得到重构后的预测数据,将重构的预测数据与和前一组数据打包重新作为下一轮预测的输入数据具体为:
步骤S1:令i=1;
步骤S2:将第i组数据(Xi,Yi,Zi)与第i+1组数据(Xi+1,Yi+1,Zi+1)一同送入门控循环单元网络GRU,得到第i+2组预测数据(X'i+2,Y'i+2,Z'i+2);
步骤S3:将第i+2组预测数据(X'i+2,Y'i+2,Z'i+2)与第i+2组的真实数据(Xi+2,Yi+2,Zi+2)做残差计算得到残差(ΔX'i+2、ΔY'i+2、ΔZ'i+2);
步骤S4:残差(ΔX'i+2、ΔY'i+2、ΔZ'i+2)进行量化、编码、解码与非量化操作之后对第i+2组预测数据(X'i+2,Y'i+2,Z'i+2)做补偿,得到重构的第i+2组数据的预测值(X”i+2,Y”i+2,Z”i+2),并用重构的第i+2组数据的预测值(X”i+2,Y”i+2,Z”i+2)替换原始的第i+2组数据;
步骤S5:令i=i+1,并返回步骤S2,直至预测结束,解码完成。
进一步地,门控循环单元网络GRU的优化器选择Adam,选择Selu作为激活函数,损失函数采用MSE,隐藏单元个数为10,批次大小为64,迭代次数为100。
进一步地,所述的量化采用非均量化。
进一步地,所述编码采用熵编码。
本发明还提供了一种基于深度学习的振动触觉编解码系统,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现如上文所述的方法步骤。
本发明还提供了一种计算机可读存储介质,其上存储有能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现如上文所述的方法步骤。
与现有技术相比,本发明有以下有益效果:本发明利用循环神经网络非线性映射能力强,具有高效快速的预测能力,将其应用于触觉信号编码,提出一种基于循环神经网络的触觉编解码器,能够实现对触觉信号高效、低延迟、无感知损失的压缩。本发明提出的振动触觉编解码器对触觉信号压缩率达到96%,显著改善重构信号质量,时间延迟在0.3ms以内,能够满足实时编码要求。
附图说明
图1为本发明实施例的方法流程示意图。
图2为本发明实施例的数据预处理流程示意图。
图3为本发明实施例的预测流程示意图。
图4为本发明实施例的基于残差的死区编码示意图。
图5为本发明实施例的解码流程示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种基于深度学习的振动触觉编解码方法,具体包括以下步骤:
将触觉信号不同维度数据进行联合编码,去除触觉数据三维空间上存在的冗余,同时对其进行预处理;
利用门控循环单元网络GRU进行训练,每次均以两组数据输入,得到下一组数据的预测数据,并以下一组数据的真实值作为标签,将预测数据和真实数据进行比较计算残差对预测数据进行补偿,得到重构后的预测数据;将重构的预测数据与和前一组数据打包重新作为下一轮预测的输入数据。
在本实施例中,所述触觉信号不同维度的数据具体包括X、Y、Z三种维度。同时,可采用如图2所示的方法对数据进行预处理,即将原始输入的数据以两组进行打包,再进行打乱(打乱操作仅存在于模型的训练阶段,在模型的预测阶段不包括打乱的预处理过程)。
在本实施例中,如图3所示,所述利用门控循环单元网络GRU进行训练,每次均以两组数据输入,得到下一组数据的预测数据,并以下一组数据的真实值作为标签,将预测数据和真实数据进行比较计算残差对预测数据进行补偿,得到重构后的预测数据,将重构的预测数据与和前一组数据打包重新作为下一轮预测的输入数据具体为:
步骤S1:令i=1;
步骤S2:将第i组数据(Xi,Yi,Zi)与第i+1组数据(Xi+1,Yi+1,Zi+1)一同送入门控循环单元网络GRU,得到第i+2组预测数据(X'i+2,Y'i+2,Z'i+2);
步骤S3:将第i+2组预测数据(X'i+2,Y'i+2,Z'i+2)与第i+2组的真实数据(Xi+2,Yi+2,Zi+2)做残差计算得到残差(ΔX'i+2、ΔY'i+2、ΔZ'i+2);
步骤S4:残差(ΔX'i+2、ΔY'i+2、ΔZ'i+2)进行量化、编码、解码与非量化操作之后对第i+2组预测数据(X'i+2,Y'i+2,Z'i+2)做补偿,得到重构的第i+2组数据的预测值(X”i+2,Y”i+2,Z”i+2),并用重构的第i+2组数据的预测值(X”i+2,Y”i+2,Z”i+2)替换原始的第i+2组数据;
步骤S5:令i=i+1,并返回步骤S2,直至预测结束,解码完成。
其中,图1中下标p代表预测的信号,同时将重构信号与原始信号采用一样的表示方式。
本实施例将预测值作为输入值对新值进行预测,同时为了防止误差引起的迭代,通过将预测数据和真实数据进行比较计算残差对预测数据进行补偿。特别的,本实施例当两个相邻刺激的差异超过韦伯阈值时(即第i组真是数据和第i组重构数据的差值超过预设的韦伯阈值),才传输量化后的残差信号,否则无需传输残差信号,即不计及残差及后续的操作。通过采用这种方式,仅传输必要的残差信号,而对于不重要的残差信号或者对人类感知没有影响的信号不进行传输进一步有效的降低码率,其中的阈值参数设置具体为:
Figure BDA0002891146100000041
式中,Xr,Xo分别代表原始触觉信号和重构信号,δ代表阈值范围百分比,Tn表示传输信号,Q(en)表示经过量化后的残差信号,阈值范围百分比δ=(0.05,0.1,0.2,0.3,0.4)。
在本实施例中,门控循环单元网络GRU的优化器选择Adam,选择Selu作为激活函数,损失函数采用MSE,隐藏单元个数为10,批次大小为64,迭代次数为100。本实施例采用的是标准数据库,将数据经与处理后,利用前80%数据用来训练,另外20%数据用来测试。训练前先缓存2s的数据进行预训练,并保存模型结构和必要参数。这种缓存数据和训练模型的操作在同样的场景下是一次性的,在下一次过程中并不会产生额外的时间消耗。利用GRU进行训练,每次均以两组数据输入,第三组数据作为标签。
化器选择Adam,选择Selu作为激活函数,损失函数采用MSE,隐藏单元个数为10,批次大小为64,迭代次数为100。
在本实施例中,由于触觉信号幅度小,常规的均量化会丢弃大量的有效信息,因此本发明采用非均匀量化。具体为:通过调整最大量化值来控制精度,量化间隔和信号抽样值大小有关,可以得到较好的量化信噪比,重构的信号也更加精准。本实施例提出最大量化值和序列的最大值呈线性关系,也即:
Q_max=k*A_max+b;
这里的Q_max代表最大量化值,k代表斜率,A_max代表触觉数据序列中绝对值最大的值,b代表一定的偏差,经过试验测试,本实施例将k设为15,b设为2.5。
如图4与图5所示,经过非均匀量化后,出现的结果是有限的并且统计方便,因此本实施例采用Huffman编码方式进行触觉信号的编码,即所述编码采用熵编码。最后,在进行解码时,解码器包括所述编码器对应的所有模块,具体为:接收传输的二进制残差数据流,数据流首先经过熵解码器,然后由反量化器反量化得到重构残差数据。进一步将重构的残差数据对预测数据进行补偿。补偿后的数据即为重构数据,同时和前两组数据按照预测环节中既定方式和前两组数组打包作为输入数据继续下一轮预测,直到预测结束,解码完成。
本实施例还提供了一种基于深度学习的振动触觉编解码系统,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现如上文所述的方法步骤。
本实施例还提供了一种计算机可读存储介质,其上存储有能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现如上文所述的方法步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。

Claims (8)

1.一种基于深度学习的振动触觉编解码方法,其特征在于,包括以下步骤:
将触觉信号不同维度数据进行联合编码,去除触觉数据三维空间上存在的冗余,同时对其进行预处理;
利用门控循环单元网络GRU进行训练,每次均以两组数据输入,得到下一组数据的预测数据,并以下一组数据的真实值作为标签,将预测数据和真实数据进行比较计算残差对预测数据进行补偿,得到重构后的预测数据;将重构的预测数据与和前一组数据打包重新作为下一轮预测的输入数据。
2.根据权利要求1所述的一种基于深度学习的振动触觉编解码方法,其特征在于,所述触觉信号不同维度的数据具体包括X、Y、Z三种维度。
3.根据权利要求1所述的一种基于深度学习的振动触觉编解码方法,其特征在于,所述利用门控循环单元网络GRU进行训练,每次均以两组数据输入,得到下一组数据的预测数据,并以下一组数据的真实值作为标签,将预测数据和真实数据进行比较计算残差对预测数据进行补偿,得到重构后的预测数据,将重构的预测数据与和前一组数据打包重新作为下一轮预测的输入数据具体为:
步骤S1:令i=1;
步骤S2:将第i组数据(Xi,Yi,Zi)与第i+1组数据(Xi+1,Yi+1,Zi+1)一同送入门控循环单元网络GRU,得到第i+2组预测数据(X'i+2,Y'i+2,Z'i+2);
步骤S3:将第i+2组预测数据(X'i+2,Y'i+2,Z'i+2)与第i+2组的真实数据(Xi+2,Yi+2,Zi+2)做残差计算得到残差(ΔX'i+2、ΔY'i+2、ΔZ'i+2);
步骤S4:残差(ΔX'i+2、ΔY'i+2、ΔZ'i+2)进行量化、编码、解码与非量化操作之后对第i+2组预测数据(X'i+2,Y'i+2,Z'i+2)做补偿,得到重构的第i+2组数据的预测值(X”i+2,Y”i+2,Z”i+2),并用重构的第i+2组数据的预测值(X”i+2,Y”i+2,Z”i+2)替换原始的第i+2组数据;
步骤S5:令i=i+1,并返回步骤S2,直至预测结束,解码完成。
4.根据权利要求1所述的一种基于深度学习的振动触觉编解码方法,其特征在于,门控循环单元网络GRU的优化器选择Adam,选择Selu作为激活函数,损失函数采用MSE,隐藏单元个数为10,批次大小为64,迭代次数为100。
5.根据权利要求3所述的一种基于深度学习的振动触觉编解码方法,其特征在于,所述的量化采用非均量化。
6.根据权利要求3所述的一种基于深度学习的振动触觉编解码方法,其特征在于,所述编码采用熵编码。
7.一种基于深度学习的振动触觉编解码系统,其特征在于,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现如权利要求1-6所述的方法步骤。
8.一种计算机可读存储介质,其上存储有能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现如权利要求1-6所述的方法步骤。
CN202110028453.5A 2021-01-11 2021-01-11 一种基于深度学习的振动触觉编解码方法 Active CN112631434B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110028453.5A CN112631434B (zh) 2021-01-11 2021-01-11 一种基于深度学习的振动触觉编解码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110028453.5A CN112631434B (zh) 2021-01-11 2021-01-11 一种基于深度学习的振动触觉编解码方法

Publications (2)

Publication Number Publication Date
CN112631434A true CN112631434A (zh) 2021-04-09
CN112631434B CN112631434B (zh) 2022-04-12

Family

ID=75293773

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110028453.5A Active CN112631434B (zh) 2021-01-11 2021-01-11 一种基于深度学习的振动触觉编解码方法

Country Status (1)

Country Link
CN (1) CN112631434B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114046815A (zh) * 2021-11-09 2022-02-15 上海精赋达传感技术有限公司 基于深度学习的编码器自校正方法及装置
WO2023046899A1 (en) * 2021-09-24 2023-03-30 Interdigital Ce Patent Holdings, Sas Location-based haptic signal compression

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108569607A (zh) * 2018-06-22 2018-09-25 西安理工大学 基于双向门控循环神经网络的电梯故障预警方法
CN109559758A (zh) * 2018-11-05 2019-04-02 清华大学 一种基于深度学习的将纹理图像转换成触觉信号的方法
KR20190103083A (ko) * 2019-08-15 2019-09-04 엘지전자 주식회사 딥러닝 기반의 세탁기의 진동 분석 방법과 그 장치
CN110325949A (zh) * 2016-12-29 2019-10-11 谷歌有限责任公司 用于预测触摸解释的多任务机器学习
CN110597240A (zh) * 2019-10-24 2019-12-20 福州大学 一种基于深度学习的水轮发电机组故障诊断方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110325949A (zh) * 2016-12-29 2019-10-11 谷歌有限责任公司 用于预测触摸解释的多任务机器学习
CN108569607A (zh) * 2018-06-22 2018-09-25 西安理工大学 基于双向门控循环神经网络的电梯故障预警方法
CN109559758A (zh) * 2018-11-05 2019-04-02 清华大学 一种基于深度学习的将纹理图像转换成触觉信号的方法
KR20190103083A (ko) * 2019-08-15 2019-09-04 엘지전자 주식회사 딥러닝 기반의 세탁기의 진동 분석 방법과 그 장치
CN110597240A (zh) * 2019-10-24 2019-12-20 福州大学 一种基于深度学习的水轮发电机组故障诊断方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023046899A1 (en) * 2021-09-24 2023-03-30 Interdigital Ce Patent Holdings, Sas Location-based haptic signal compression
CN114046815A (zh) * 2021-11-09 2022-02-15 上海精赋达传感技术有限公司 基于深度学习的编码器自校正方法及装置
CN114046815B (zh) * 2021-11-09 2024-02-09 上海精赋达传感技术有限公司 基于深度学习的编码器自校正方法及装置

Also Published As

Publication number Publication date
CN112631434B (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
Lu et al. Dvc: An end-to-end deep video compression framework
Hu et al. Learning end-to-end lossy image compression: A benchmark
US10599935B2 (en) Processing artificial neural network weights
CN112631434B (zh) 一种基于深度学习的振动触觉编解码方法
KR100529311B1 (ko) 신경 회로망을 이용하여 가변 길이 부호화 비트 스트림의길이를 선택하는 장치 및 방법
TWI615834B (zh) 編碼裝置及方法、解碼裝置及方法、以及程式
TW202042559A (zh) 用以壓縮類神經網路參數之方法與裝置
CN103188494A (zh) 跳过离散余弦变换对深度图像编码/解码的设备和方法
CN110290386B (zh) 一种基于生成对抗网络的低码率人体运动视频编码系统及方法
US20220360788A1 (en) Image encoding method and image decoding method
CN112565777A (zh) 基于深度学习模型视频数据传输方法、系统、介质及设备
KR20200005402A (ko) 도구 단위의 dnn 기반 이미지 또는 비디오 코딩을 위한 시스템 및 방법
Zong et al. JND-based multiple description image coding
CN117354523A (zh) 一种频域特征感知学习的图像编码、解码、压缩方法
Ranjbar Alvar et al. Joint image compression and denoising via latent-space scalability
US10469874B2 (en) Method for encoding and decoding a media signal and apparatus using the same
Mahmoud et al. Learning algorithm effect on multilayer feed forward artificial neural network performance in image coding
CN106664099B (zh) 使用统计特性编码脉冲矢量的方法
CN116437089B (zh) 一种基于关键目标的深度视频压缩方法
Lu et al. Image Compression Based on Mean Value Predictive Vector Quantization.
Gulia et al. Comprehensive Analysis of Flow Incorporated Neural Network based Lightweight Video Compression Architecture
CN117915107B (zh) 图像压缩系统、图像压缩方法、存储介质与芯片
US11862183B2 (en) Methods of encoding and decoding audio signal using neural network model, and devices for performing the methods
KR102487689B1 (ko) 신경망 모델을 이용한 오디오 신호의 부호화 및 복호화 방법 및 이를 수행하는 부호화기 및 복호화기
CN114663536B (zh) 一种图像压缩方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant