CN109447892A - 半导体装置 - Google Patents

半导体装置 Download PDF

Info

Publication number
CN109447892A
CN109447892A CN201810274218.4A CN201810274218A CN109447892A CN 109447892 A CN109447892 A CN 109447892A CN 201810274218 A CN201810274218 A CN 201810274218A CN 109447892 A CN109447892 A CN 109447892A
Authority
CN
China
Prior art keywords
processor
register
data
semiconductor device
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810274218.4A
Other languages
English (en)
Other versions
CN109447892B (zh
Inventor
金贤弼
沈炫宇
安成祐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN109447892A publication Critical patent/CN109447892A/zh
Application granted granted Critical
Publication of CN109447892B publication Critical patent/CN109447892B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • G06F1/3225Monitoring of peripheral devices of memory devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/30007Arrangements for executing specific machine instructions to perform operations on data operands
    • G06F9/3001Arithmetic instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3275Power saving in memory, e.g. RAM, cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3293Power saving characterised by the action undertaken by switching to a less power-consuming processor, e.g. sub-CPU
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30098Register arrangements
    • G06F9/30101Special purpose registers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

一种半导体装置包括:第一处理器,具有第一寄存器,所述第一处理器被配置成使用所述第一寄存器执行感兴趣区域计算;以及第二处理器,具有第二寄存器,所述第二处理器被配置成使用所述第二寄存器执行算术计算。所述第一寄存器是由所述第二处理器所共享,且所述第二寄存器是由所述第一处理器所共享。所述半导体装置能够提供对图像处理、视觉处理及神经网络处理进行高效控制并提高数据利用率的集成处理环境。

Description

半导体装置
[相关申请的交叉参考]
本申请主张对在2017年3月31日在韩国知识产权局提出申请的韩国专利申请第10-2017-0041748号的优先权,所述韩国专利申请的全部内容并入本申请供参考。
技术领域
本发明概念涉及一种半导体装置,且更具体来说,涉及一种对图像数据执行图像处理、视觉处理及神经网络处理的半导体装置。
背景技术
涉及图像处理、视觉处理及神经网络处理的应用(application)可例如在包含指令以及专用于矩阵计算的存储器结构的系统上实现或者作为所述系统的一部分实现。然而,尽管涉及图像处理、视觉处理及神经网络处理的应用可使用相似的计算方法,然而施行这些处理的系统在许多情形中包括多个处理器,所述多个处理器是分别孤立的且被实现为单独地施行图像处理、视觉处理及神经网络处理。这是因为,尽管涉及图像处理、视觉处理及神经网络处理的应用具有功能相似性,然而相应的应用所需的例如数据处理速率、存储器带宽、同步化(synchronization)等细节是不同的。难以实现能够集成图像处理、视觉处理及神经网络处理于一体的单个处理器。因此,对于其中需要进行图像处理、视觉处理及神经网络处理中的每一者的系统来说,需要提供可满足各个应用各自的要求的集成处理环境及方法。
发明内容
本发明概念的实施例提供一种半导体装置,所述半导体装置能够提供对图像处理、视觉处理及神经网络处理进行高效控制并提高数据利用率的集成处理环境。
本发明概念的实施例提供一种半导体装置,所述半导体装置包括:第一处理器,具有第一寄存器,所述第一处理器被配置成使用所述第一寄存器执行感兴趣区域(region ofinterest,ROI)计算;以及第二处理器,具有第二寄存器,所述第二处理器被配置成使用所述第二寄存器执行算术计算。所述第一寄存器是由所述第二处理器所共享,且所述第二寄存器是由所述第一处理器所共享。
本发明概念的实施例提供一种半导体装置,所述半导体装置包括:第一处理器,具有第一寄存器,所述第一处理器被配置成使用所述第一寄存器执行感兴趣区域(ROI)计算;以及第二处理器,具有第二寄存器,所述第二处理器被配置成使用所述第二寄存器执行算术计算。所述第一处理器及所述第二处理器共享相同的指令集架构(instruction setarchitecture,ISA)。
本发明概念的实施例提供一种半导体装置,所述半导体装置包括:加载存储单元,被配置成向存储器装置传送图像数据以及从所述存储器装置接收图像数据;内部寄存器,被配置成存储从所述加载存储单元提供的所接收的所述图像数据;数据排列层,被配置成将来自所述内部寄存器的所存储的所述图像数据重新排列成N个数据行,其中所述数据行分别具有多个道;以及多个算术逻辑单元(arithmetic logic unit,ALU),所述多个算术逻辑单元具有N个算术逻辑单元群组。所述N个算术逻辑单元群组分别被配置成处理N个数据行的经重新排列的图像数据。
本发明概念的实施例提供一种半导体装置,所述半导体装置包括:第一处理器,具有第一寄存器,所述第一处理器被配置成使用所述第一寄存器执行感兴趣区域(ROI)计算;以及第二处理器,具有第二寄存器,所述第二处理器被配置成使用所述第二寄存器执行算术计算。所述第一处理器包括:数据排列层,被配置成将来自第一寄存器的图像数据重新排列成N个数据行,其中所述N个数据行分别具有多个道;以及多个算术逻辑单元(ALU),具有N个算术逻辑单元群组,所述N个算术逻辑单元群组分别被配置成处理N个数据行的经重新排列的图像数据。所述第一寄存器是由所述第二处理器所共享,且所述第二寄存器是由所述第一处理器所共享。
本发明概念的实施例提供一种半导体装置的感兴趣区域(ROI)计算方法。所述半导体装置包括:内部寄存器,被配置成存储图像数据;数据排列层,被配置成将所存储的图像数据重新排列成N个数据行,所述N个数据行分别具有多个道;以及多个算术逻辑单元(ALU),具有被配置成处理N个数据行的N个算术逻辑单元群组。所述方法包括:由数据排列层重新排列所存储的图像数据的第一数据以提供经重新排列的第一图像数据,所述第一数据具有n×n矩阵大小,其中n是自然数;由算术逻辑单元使用所述经重新排列的第一图像数据执行第一映射计算以产生第一输出数据;由数据排列层重新排列所存储的所述图像数据的第三数据以提供经重新排列的第二图像数据,所述第三数据及所述第一数据被包括为所存储的所述图像数据的第二数据的一些部分,所述第二数据具有(n+1)×(n+1)矩阵大小,且所述第三数据不属于所述第一数据;由算术逻辑单元使用所述经重新排列的第二图像数据执行第二映射计算以产生第二输出数据;以及由算术逻辑单元使用所述第一输出数据及所述第二输出数据执行归纳计算(reduce calculation)以产生最终图像数据。
附图说明
通过参照附图来详细阐述本发明概念的示例性实施例,本发明概念的以上及其他目的、特征、及优点对所属领域的普通技术人员来说将变得更显而易见。
图1示出用于解释根据本发明概念实施例的半导体装置的示意图。
图2示出用于解释根据本发明概念实施例的半导体装置的第一处理器的示意图。
图3示出用于解释根据本发明概念实施例的半导体装置的第二处理器的视图。
图4示出用于解释根据本发明概念实施例的半导体装置的架构的示意图。
图5A、图5B、图5C及图5D示出用于解释根据本发明概念实施例的半导体装置的寄存器的结构的示意图。
图6示出用于解释其中将数据存储在根据本发明概念实施例的半导体装置中的实现方式的示意图。
图7示出用于解释其中将数据存储在根据本发明概念另一个实施例的半导体装置中的实施方式的示意图。
图8A示出用于解释对各种大小的矩阵进行的感兴趣区域(ROI)计算的数据图案(data pattern)的示意图。
图8B及图8C示出用于解释根据本发明概念实施例的感兴趣区域计算的数据图案的示意图。
图8D、图8E、图8F及图8G示出用于解释根据本发明概念另一个实施例的感兴趣区域计算的数据图案的示意图。
图8H示出用于解释根据本发明概念实施例的半导体装置的上移计算(shiftupcalculation)的示意图。
图9示出用于解释其中使用根据本发明概念各个实施例的半导体装置执行哈里斯角点检测(Harris corner detection)的示例性操作的流程图。
图10A及图10B示出用于解释用于图8D中的5×5矩阵的卷积计算的实际汇编指令的实例的视图。
图11示出用于解释使用根据本发明概念实施例的半导体装置的示例性感兴趣区域(ROI)计算的流程图。
[附图标记的说明]
1:半导体装置;
100:第一处理器;
105:存储器层次结构;
110:寄存器文件/内部寄存器;
112:图像寄存器;
114:系数寄存器;
116:输出寄存器;
120:加载存储单元;
130:数据排列层;
140:映射层;
150:归纳层;
160、ALU1_1、ALU1_2、ALU1_3~ALU1_64、ALU1_128、ALU2_1、ALU2_2、ALU2_3~ALU2_64、ALU2_128、ALU3_1~ALU3_64、ALU3_128、ALU8_1、ALU8_2、ALU8_3~ALU8_64、ALU8_128、ALU9_1、ALU9_2、ALU9_3~ALU9_64、ALU9_128:算术逻辑单元;
160a:第一算术逻辑单元群组/算术逻辑单元群组;
160b~160c:第二算术逻辑单元群组~第八算术逻辑单元群组/算术逻辑单元群组;
160d:第九算术逻辑单元群组/算术逻辑单元群组;
170、300:控制器;
190:数据排列模块;
192:图像数据排列器;
194:系数数据排列器;
200:第二处理器;
212:标量寄存器/第二寄存器;
214:向量寄存器/第二寄存器;
220:提取单元;
230:解码器;
240a:槽位/第一槽位;
240b:槽位/第二槽位;
240c:槽位/第三槽位;
240d:槽位/第四槽位;
242a、242b、242d:标量功能单元;
242c:柔性卷积引擎单元;
244a、244b、244c:向量功能单元;
244d:控制单元;
246a、246b、246c、246d:移动单元;
400:存储器总线;
500:存储器装置;
1100:框架;
A1、B1、C1:要素/第一要素;
A2、B2、C2:要素/第二要素;
A3、A4、A64、A128、B3、B4、B64、B128、C3、C4、C64、C128、D4、D64、D128:要素;
CR[0]、CR[1]、CR[2]、CR[3]、CR[4]、CR[5]、CR[6]、CR[7]、CR[8]、CR[9]、CR[10]、CR[11]、CR[12]、CR[13]、CR[14]、CR[15]、dm、IR[0]、IR[1]、IR[2]、IR[3]、IR[4]、IR[5]、IR[6]、IR[7]、IR[8]、IR[9]、IR[10]、IR[11]、IR[12]、IR[13]、IR[14]、IR[15]、Ve[0]、Ve[2]、Ve[4]、Ve[6]、Ve[8]、Ve[10]、Ve[12]、Ve[14]、Vo[1]、Vo[3]、Vo[5]、Vo[7]、Vo[9]、Vo[11]、Vo[13]、Vo[15]、W[0]、W[1]、W[2]、W[3]、W[4]、W[5]、W[6]、W[7]:项;
CSR0、CSR1、ISR0、ISR1、OSR0、OSR1、Ve、Vo:寄存器文件;
W:W寄存器;
D1:要素/第一要素/区;
D2:要素/第二要素/区;
D3:要素/区;
DATA 1:第一数据行/数据行;
DATA 2:第二数据行/数据行;
DATA 3~DATA9:第三数据行~第九数据行/数据行;
M1、M2、M3、M4、M5、M6、M7、M11、M12、M13、M31、M32:矩阵;
N11、N12、N13、N14、N15、N16、N17、N18、N19、N21、N22、N23、N24、N25、N26、N27:数据项/图像数据;
N28、N29、N31、N32、N33、N34、N35、N36、N37、N38、N39、N41、N42、N43、N44、N45、N46、N47、N48、N49、N51、N52、N53、N54、N55、N56、N57、N58、N59、N61、N62、N63、N64、N65、N66、N67、N68、N69、N71、N72、N73、N74、N75、N76、N77、N78、N79、N81、N82、N83、N84、N85、N86、N87、N88、N89、N91、N92、N93、N94、N95、N96、N97、N98、N99、NA1、NA2、NA3、NA4、NA5、NA6、NA7、NA8、NA9、NB1、NB2、NB3、NB4、NB5、NB6、NB7、NB8、NB9、NC1、NC2、NC3、NC4、NC5、NC6、NC7、NC8、NC9、ND1、ND2、ND3、ND4、ND5、ND6、ND7、ND8、ND9、NE1、NE2、NE3、NE4:图像数据;
ORh[0]、ORh[1]、ORh[2]、ORh[3]、ORh[4]、ORh[5]、ORh[6]、ORh[7]、ORh[8]、ORh[9]、ORh[10]、ORh[11]、ORh[12]、ORh[13]、ORh[14]、ORh[15]:部分/上部部分;
ORl[0]、ORl[1]、ORl[2]、ORl[3]、ORl[4]、ORl[5]、ORl[6]、ORl[7]、ORl[8]、ORl[9]、ORl[10]、ORl[11]、ORl[12]、ORl[13]、ORl[14]、ORl[15]:部分/下部部分;
R1:第一区;
R2:第二区;
S901、S903、S905、S907、S909、S911、S913、S1201、S1203、S1205、S1207、S1209:步骤。
具体实施方式
按照本发明概念的领域中的传统,可采用施行所阐述的一种或多种功能的区块来阐述及说明各实施例。这些区块(在本文中可被称为单元、或模块等)是由例如逻辑门、集成电路、微处理器、微控制器、存储器电路、无源电子组件、有源电子组件、光学组件、硬接线电路(hardwired circuit)等模拟及/或数字电路以实体方式实现,且可视需要通过固件及/或软件来驱动。所述电路可例如被实现于一个或多个半导体芯片中、或例如印刷电路板等衬底支撑件(substrate support)上。构成区块的电路可由专用硬件、或由处理器(例如,一个或多个经过编程的微处理器及相关联的电路系统)、或者由用于执行所述区块的一些功能的专用硬件与用于执行所述区块的其他功能的处理器的组合来实现。所述实施例中的每一区块可在不背离本发明概念的范围的条件下在实体上分成两个或更多个交互作用且分立的区块。同样地,所述实施例的区块可在不背离本发明概念的范围的条件下在实体上组合成更复杂的区块。
图1示出用于解释根据本发明概念实施例的半导体装置的示意图。参照图1,半导体装置1包括第一处理器100、第二处理器200、控制器300及存储器总线400。控制器300控制第一处理器100、第二处理器200及存储器总线400的总体操作。存储器总线400可连接到存储器装置500。在一些实施例中,存储器装置500可独立于包括控制器300、第一处理器100、第二处理器200及存储器总线400的半导体装置1设置。在其他实施例中,存储器装置500可被设置为半导体装置1的一部分。
第一处理器100可以是专用于在图像处理、视觉处理及神经网络处理中所主要使用的感兴趣区域(ROI)计算的处理器。举例来说,第一处理器100可执行一维滤波器计算(one-dimensional filter calculation)、二维滤波器计算(two-dimensional filtercalculation)、统计变换计算(census transform calculation)、最小/最大滤波器计算(min/max filter calculation)、绝对误差和(sum of absolute difference,SAD)计算、误差平方和(sum of squared difference,SSD)计算、非极大值抑制(nonmaximumsuppression,NMS)计算、矩阵乘法计算(matrix multiplication calculation)等。
第一处理器100可包括第一寄存器112、114及116,且可使用第一寄存器112、114及116执行感兴趣区域计算。在一些示例性实施例中,第一寄存器可包括图像寄存器(imageregister,IR)112、系数寄存器(coefficient register,CR)114及输出寄存器(outputregister,OR)116中的至少一者。
举例来说,图像寄存器112可存储被输入的用于在第一处理器100处进行处理的图像数据,且系数寄存器114可存储用于对图像数据进行计算的滤波器的系数。另外,输出寄存器116可存储在第一处理器100处进行处理之后对图像数据执行计算的结果。
第一处理器100还可包括数据排列模块(data arrange module,DA)190,数据排列模块190产生用于在第一处理器100处进行处理的数据图案。数据排列模块190可产生用于对各种大小的矩阵高效地执行感兴趣区域计算的数据图案。
具体来说,在一些示例性实施例中,举例来说,数据排列模块190可包括图像数据排列器(image data arranger,IDA)192,图像数据排列器192通过对被输入的用于在第一处理器100处进行处理并被存储在图像寄存器112中的图像数据进行排列来产生用于在第一处理器100处进行高效感兴趣区域计算的数据图案。另外,举例来说,数据排列模块190可包括系数数据排列器(coefficient data arranger,CDA)194,系数数据排列器194通过对被存储在系数寄存器114中的用于对图像数据进行计算的滤波器的系数数据进行排列来产生用于在第一处理器114处进行高效感兴趣区域计算的数据图案。以下将参照图6至图8E阐述对于由数据排列模块190产生的数据图案的具体解释。第一处理器100可以是柔性卷积引擎(flexible convolution engine,FCE)单元。
第二处理器200是适用于执行算术计算的通用处理器。在一些示例性实施例中,第二处理器200可被实现为专用于包含例如向量专用指令的向量计算处理(例如预测计算(prediction calculation)、向量重组计算(vector permute calculation)、向量位运算计算(vector bit manipulation calculation)、蝶形计算(butterfly calculation)、分类计算(sorting calculation)等)的向量处理器(vector processor)。在一些示例性实施例中,第二处理器200可采用以下结构:单指令多数据(single instruction multipledata,SIMD)架构或多槽位超长指令字(multi-slot very long instruction word,multi-slot VLIW)架构。
第二处理器200可包括第二寄存器212及214,且可使用第二寄存器212及214执行算术计算。在一些示例性实施例中,第二寄存器可包括标量寄存器(scalar register,SR)212及向量寄存器(vector register,VR)214中的至少一者。
举例来说,标量寄存器212可以是在第二处理器200的标量计算中使用的寄存器,且向量寄存器214可以是在第二处理器200的向量计算中使用的寄存器。
在一些示例性实施例中,第一处理器100与第二处理器200可共享相同的指令集架构(instruction set architecture,ISA)。因此,专用于感兴趣区域计算的第一处理器100与专用于算术计算的第二处理器200可在指令层次上共享,因而有利于控制第一处理器100及第二处理器200。
同时,在一些示例性实施例中,第一处理器100与第二处理器200可共享寄存器。也就是说,第一处理器100的第一寄存器112、114及116可由第二处理器200所共享(即,由第二处理器200使用),且第二处理器200的第二寄存器212及214可由第一处理器100所共享(即,由第一处理器100使用)。因此,专用于感兴趣区域计算的第一处理器100与专用于算术计算的第二处理器200可共享各自的内部寄存器,此转而可提高数据利用率并减少对存储器进行存取的次数。
在一些示例性实施例中,第一处理器100及第二处理器200可被实现为使得第一处理器100与第二处理器200由单独的或相应的独立电源驱动。因此,可根据具体操作情况切断向第一处理器100及第二处理器200中的未被使用的一者供应的电力。
图2示出用于解释根据本发明概念实施例的半导体装置的第一处理器的示意图。参照图2,半导体装置1(图1所示)的第一处理器100包括内部寄存器110、加载存储单元(load store unit,LSU)120、数据排列层130、映射层140及归纳层(reduce layer)150。
内部寄存器110包括以上参照图1所阐述的图像寄存器112、系数寄存器114及输出寄存器116。
加载存储单元120可向存储器装置(例如,图1所示存储器装置500)传送数据以及从所述存储器装置接收数据。举例来说,加载存储单元120可通过例如图1所示存储器总线400来读取存储在存储器装置(图中未示出)中的数据。加载存储单元120及存储器总线400可对应于以下将参照图4阐述的存储器层次结构(memory hierarchy)105。
在一些示例性实施例中,加载存储单元120可同时读取1024位数据。同时,在一些示例性实施例中,加载存储单元120可通过支持n个端口(例如,n为2、4、8等)来同时读取1024×n位数据。由于加载存储单元120可同时读取以每1024位为单位的数据,因此以下将要阐述的数据排列层130可根据单指令多数据(SIMD)架构以其中一行由1024位构成的排列形式来对数据进行重新排列。
数据排列层130可对应于在图1中被示出为数据排列模块190的元件,且可对用于在第一处理器100处进行处理的数据进行重新排列。具体来说,数据排列层130可产生用于对将由第一处理器100处理的各种大小的数据(例如,矩阵)高效地执行感兴趣区域计算的数据图案。根据作为数据图案而产生的数据的类型,数据排列层130可包括分别与在图1中被示出为图像数据排列器192及系数数据排列器194的元件对应的子单元。
具体来说,数据排列层130可根据单指令多数据架构以分别包含多个数据的多个数据行的形式来对用于在第一处理器100处进行处理的数据进行重新排列。举例来说,数据排列层130可根据单指令多数据架构以分别包含多个数据的多个数据行的形式来对图像数据进行重新排列,以使得第一处理器100高效地执行感兴趣区域计算,同时还根据单指令多数据架构以分别包含多个数据的多个数据行的形式来对用于对图像数据进行计算的滤波器的系数数据进行重新排列。
尽管在图2中仅示出单个算术逻辑单元(ALU)160,然而第一处理器100可包括多个算术逻辑单元(ALU)160,所述多个算术逻辑单元160相对于彼此并行地排列从而与多个数据行中的每一者对应。所述多个算术逻辑单元160中的每一者可包括映射层140及归纳层150。算术逻辑单元160可执行映射计算、归纳计算等,从而使用映射层140及归纳层150来并行地处理存储在多个数据行中的每一个数据行中的数据。
通过采用对数据进行重新排列的结构,尤其可对例如在图像处理、视觉处理、及神经网络处理中经常使用的3×3矩阵、4×4矩阵、5×5矩阵、7×7矩阵、8×8矩阵、9×9矩阵、11×11矩阵执行高效处理。以下将参照图4、图6及图7阐述具体解释。
图3示出用于解释根据本发明概念实施例的半导体装置的第二处理器的视图。参照图3,半导体装置1(图1所示)的第二处理器200包括提取单元220及解码器230。
解码器230可对从提取单元220提供的指令进行解码。在一些示例性实施例中,指令可根据超长指令字架构由四个槽位240a、240b、240c及240d来进行处理,由此提取单元220会向解码器230提供超长指令字指令。举例来说,当由提取单元220提取的指令是128位时,解码器230可将所提取的指令解码成分别由32位构成的四个指令,且所述四个指令可分别由槽位240a、240b、240c及240d来进行处理。也就是说,提取单元220可被配置成向解码器230提供超长指令字指令,且解码器230可被配置成将超长指令字指令解码成多个指令。
尽管为解释方便起见,实施例示出所提取的指令被解码成四个指令且由四个槽位进行处理,然而第二处理器200并非仅限于在四个槽位处进行处理。举例来说,指令可被实现为在不少于2的任意数目的槽位处进行处理。
在一些示例性实施例中,四个槽位240a、240b、240c、240d可同时执行除了在控制单元(control unit,CT)244d处执行的控制指令之外的所有指令。为高效进行这种并行处理,在四个槽位240a、240b、240c及240d中可设置有标量功能单元(scalar functionalunit,SFU)242a、242b及242d、向量功能单元(vector functional unit,VFU)244a、244b及244c、以及移动单元(move unit,MV)246a、246b、246c及246d。
具体来说,第一槽位240a可包括标量功能单元242a、向量功能单元244a、及移动单元246a,且第二槽位240b可包括标量功能单元242b、向量功能单元244b及移动单元246b。第三槽位240c可包括柔性卷积引擎(FCE)单元242c、向量功能单元244c及移动单元246c,此对应于使用第一处理器100对指令进行的处理。第四槽位240d可包括标量功能单元242d、与控制指令对应的控制单元(control unit,CT)244d以及移动单元246d。
在此实例中,第三槽位240c的柔性卷积引擎单元242c可对应于第一处理器100。另外,除了第三槽位240c之外的槽位(即,第一槽位240a、第二槽位240b及第四槽位240d)可对应于第二处理器200。举例来说,在第三槽位240c的柔性卷积引擎单元242c中设置的指令可由第一处理器100执行,且在第四槽位240d中设置的指令可由第二处理器200执行。
另外,第一处理器100与第二处理器200可使用槽位240a、240b、240c及240d中的每一者中所包括的移动单元246a、246b、246c及246d来共享彼此的数据。因此,如果需要,则可通过槽位240c的柔性卷积引擎单元242c来使原本可能打算由第二处理器200处理的工作转而由第一处理器100来处理。另外,在这种情形中,原本可能打算由第二处理器200处理的数据也可由第一处理器100分担。
由标量功能单元242a、242b及242d进行处理的结果可存储在相对于图1所阐述的标量寄存器212中,且由向量功能单元244a、244b及244c进行处理的结果可存储在也相对于图1所阐述的向量寄存器214中。当然,存储在标量寄存器212及向量寄存器214中的结果可根据需要由第一处理器100及第二处理器200中的至少一者使用。
应理解,图3中所示出的配置仅是为解释方便而呈现的本发明概念的各种实施例中的一者,且第二处理器200不应仅限于图2所示实施例。
图4示出用于解释根据本发明概念实施例的半导体装置的架构的示意图。参照图4,根据本发明概念实施例的半导体装置的架构可包括存储器层次结构105、寄存器文件(register file)110、数据排列层130、多个算术逻辑单元160以及用于控制这些元件的总体操作的控制器170。
举例来说,存储器层次结构105可提供(或包括)以上参照图1及图2阐述的存储器接口、存储器装置(例如,图1所示存储器装置500)、存储器总线400、加载存储单元120等。
寄存器文件110可对应于包括以上参照图2阐述的图像寄存器112、系数寄存器114及输出寄存器116的内部寄存器110。另外,寄存器文件110可包括以下参照图5A至图5D阐述的示例性结构。
数据排列层130可对应于以上参照图2阐述的数据排列层130,且可产生用于对用于在第一处理器100处进行处理的各种大小的数据(例如,矩阵)高效地执行感兴趣区域计算的数据图案。
多个算术逻辑单元160可对应于以上参照图2阐述的多个算术逻辑单元160,可包括映射层140及归纳层150,且可执行映射计算、归纳计算等。
图4所示架构使得能够使用可由多个算术逻辑单元160共享的寄存器文件110来实现准确的流程控制及复杂的算术计算,同时还使得能够使用数据排列层130对存储在寄存器文件110中的数据进行图案化(patternizing),从而提高输入数据的重复利用率。
举例来说,数据排列层130可产生数据图案以使得用于进行处理的数据(具体来说,用于感兴趣区域计算的数据)可分别由属于第一算术逻辑单元群组160a、第二算术逻辑单元群组160b、...、第八算术逻辑单元群组160c及第九算术逻辑单元群组160d的多个算术逻辑单元进行处理。算术逻辑单元群组160a、160b、160c及160d被示出为分别包括例如64个算术逻辑单元,但是在本发明概念的其他实施例中,算术逻辑单元群组可包括任意其他适合数目的算术逻辑单元。以下将参照图6至图8E具体阐述如何产生适于由九个算术逻辑单元群组160a、160b、160c及160d处理的数据图案。
图5A、图5B、图5C及图5D示出用于解释根据本发明概念实施例的半导体装置的寄存器的结构的示意图。
参照图5A,图1所示半导体装置1的图像寄存器(IR)112被设置成存储特别地用于在第一处理器100处处理感兴趣区域计算的输入图像数据。应理解,本实施例中的图像寄存器112被表征为图像寄存器‘IR’,这是因为图像寄存器112用于存储输入图像数据,但在其他实施例中,可根据具体实现方式来对图像寄存器112进行不同的命名。
根据本发明概念的实施例,举例来说,图像寄存器112可被实施为包含16个项。另外,举例来说,项IR[i](其中,i是值为0到15的整数)中的每一者的大小可被实施为1024位。
在这些项中,项IR[0]到IR[7]可被定义为并用作寄存器文件ISR0来支持各种感兴趣区域计算的图像数据大小。同样地,项IR[8]到IR[15]可被定义为并用作寄存器文件ISR1来支持各种感兴趣区域计算的图像数据大小。
然而,应理解,对寄存器文件ISR0及寄存器文件ISR1的定义并非被限制为对于图5A所阐述,而是可根据所处理的数据的大小来以各种方式对寄存器文件ISR0及寄存器文件ISR1进行分组及定义。也就是说,考虑到例如图像数据大小、矩阵计算特征、滤波器计算特征等,可将寄存器文件ISR0及寄存器文件ISR1定义成具有与图5A所示结构不同的结构。
接下来,参照图5B,图1所示半导体装置1的系数寄存器(CR)114被设置成存储用于对存储在图像寄存器112中的图像数据进行计算的滤波器的系数。应理解,本实施例中的系数寄存器114被表征为系数寄存器‘CR’,这是因为系数寄存器114用于存储系数,但在其他实施例中,可根据具体实现方式来对系数寄存器114进行不同的命名。
根据本发明概念的实施例,举例来说,系数寄存器114可被实现为包含16个项。另外,举例来说,项CR[i](其中,i是值为0到15的整数)中的每一者的大小可被实现为1024位。
在这些项中,项CR[0]到CR[7]可被定义为并用作寄存器文件CSR0来支持各种感兴趣区域计算的图像数据大小,如在图像寄存器112的情形中一样。同样地,项CR[8]到CR[15]可被定义为并用作寄存器文件CSR1来支持各种感兴趣区域计算的图像数据大小。
然而,应理解,对寄存器文件CSR0及寄存器文件CSR1的定义并非被限制为对于图5B所阐述,而是可根据所处理的数据的大小来以各种方式对寄存器文件CSR0及寄存器文件CSR1进行分组及定义。也就是说,考虑到例如图像数据大小、矩阵计算特征、滤波器计算特征等,可将寄存器文件CSR0及寄存器文件CSR1定义成具有与图5B所示结构不同的结构。
接下来,参照图5C,图1所示半导体装置1的输出寄存器(OR)116被设置成存储来自在第一处理器100处对图像数据进行的处理的计算结果。应理解,本实施例中的输出寄存器116被表征为输出寄存器‘OR’,这是因为输出寄存器116用于存储计算结果,但在其他实施例中,可根据具体实现方式来对输出寄存器116进行不同的命名。
根据本发明概念的实施例,举例来说,输出寄存器116可被实现为包含16个项。输出寄存器116的各个项可包括对应的部分ORh[i]及ORl[i],如图5C所示。包括对应的部分ORh[i]及ORl[i]的项在下文中可笼统地被表征为项OR[i](其中,i是值为0到15的整数)。另外,举例来说,项OR[i]中的每一者的大小可被实现为2048位。在本发明概念的实施例中,输出寄存器116的大小可以是图像寄存器112的大小的整数倍。
在本发明概念的一些示例性实施例中,输出寄存器116可用作图4所示数据排列层130的输入寄存器。在这种情形中,为高效地重复使用存储在输出寄存器116中的计算结果,输出寄存器116的每一个项OR[i]可被划分成上部部分ORh[i]及下部部分ORl[i]。举例来说,项OR[0]可包括具有1024位的上部部分ORh[0]以及具有1024位的下部部分ORl[0]。为实现与以下将参照图5D阐述的W寄存器的兼容性,可实现将每一个项OR[i]划分成上部部分ORh[i]及下部部分ORl[i]的这种划分。W寄存器是指存储对寄存器文件Ve中所包含的对应项与在寄存器文件Vo中所包含的对应项进行整合的结果的相应的单个项,如图5D所示。
通过将输出寄存器116的各个项定义成使得各个项具有与图像寄存器112的各个项及系数寄存器114的各个项中的每一个项相同的大小,可更容易且更方便地实现在图像寄存器112、系数寄存器114及输出寄存器116之间移动数据。也就是说,由于输出寄存器116的各个项可与图像寄存器112的各个项及系数寄存器114的各个项兼容,因此可高效、方便地移动数据。
在这些项中,项OR[0](如图中所示包括部分ORh[0]及ORl[0])到OR[7](如图中所示包括部分ORh[7]及ORl[7])可被定义为并用作寄存器文件OSR0来支持各种感兴趣区域计算的图像数据大小,如在图像寄存器112及系数寄存器114的情形中一样。同样地,项OR[8](如图中所示包括部分ORh[8]及ORl[8])到OR[15](如图中所示包括部分ORh[15]及ORl[15])可被定义为并用作寄存器文件OSR1来支持各种感兴趣区域计算的图像数据大小。
然而,应理解,对寄存器文件OSR0及寄存器文件OSR1的定义并非被限制为对于图5C所阐述,而是可根据所处理的数据的大小来以各种方式对寄存器文件OSR0及寄存器文件OSR1进行分组及定义。也就是说,考虑到例如图像数据大小、矩阵计算特征、滤波器计算特征等,可将寄存器文件OSR0及寄存器文件OSR1定义成具有与图5C所示结构不同的结构。
另外,图像寄存器112、系数寄存器114及输出寄存器116的项的大小、及/或构成寄存器文件的项的数目并非仅限于上述实施例,且项的大小及/或数目可根据实现方式的具体目的而有所变化。
在图5A至图5C中基于图像寄存器112、系数寄存器114及输出寄存器116的用途单独阐述了图像寄存器112、系数寄存器114及输出寄存器116。然而,在一些示例性实施例中,可实现寄存器虚拟化(virtualization)以使得从第一处理器100的角度来说,可感知到犹如存在具有相同大小的四组寄存器一样。
现参照图5D,向量寄存器(VR)214被设置成存储用于在第二处理器200处执行向量计算的数据。
根据实施例,向量寄存器214可被实现为包含16个项。举例来说,所述16个项如图5D所示可包含在下文中可笼统地被表征为项Ve[i](其中,i是0与15之间的偶数整数(即,偶数编号的索引))的项Ve[0]、Ve[2]、Ve[4]、Ve[6]、Ve[8]、Ve[10]、Ve[12]及Ve[14]、以及在下文中可笼统地被表征为项Vo[i](其中,i是0与15之间的奇数整数(即,奇数编号的索引))的项Vo[1]、Vo[3]、Vo[5]、Vo[7]、Vo[9]、Vo[11]、Vo[13]及Vo[15]。另外,举例来说,项Ve[i]及Vo[i]中的每一者的大小可被实现为1024位。
根据实施例,所述16个项中的与偶数编号的索引对应的8个项Ve[i]可被定义为寄存器文件Ve,且所述16个项中的与奇数编号的索引对应的8个项Vo[i]可被定义为寄存器文件Vo。另外,可实现W寄存器,W寄存器包含在下文中可笼统地被表征为项W[i](i是值为0到7的整数)的相应的单个项并存储对寄存器文件Ve中所包含的对应项与寄存器文件Vo中所包含的对应项进行整合的结果。
举例来说,可定义存储对项Ve[0]与项Vo[1]进行整合的结果的一个项W[0],且可定义存储对项Ve[2]与项Vo[3]进行整合的结果的一个项W[1],由此建立如图中所示包含总共8个项W[i]的W寄存器。
向量寄存器214的项的大小、及/或构成寄存器文件的项的数目并非仅限于上述实施例,且项的大小及/或数目可根据实现方式的具体目的而有所变化。
如以上在图5A至图5C中阐述的图像寄存器112、系数寄存器114及输出寄存器116的情形中一样,对于向量寄存器214来说,可实现寄存器虚拟化以使得从第一处理器100及第二处理器200的角度来说,可感知到犹如存在具有相同大小的五组寄存器一样。
在以上情形中,存储在虚拟寄存器中的数据可通过图3所示移动单元246a、246b、246c及246d在图像寄存器112、系数寄存器114、输出寄存器116及向量寄存器214之间移动。因此,第一处理器100与第二处理器200可使用虚拟寄存器共享数据或对所存储的数据进行重复使用,而非对存储器装置(例如,图1所示存储器装置500)进行存取或使用所述存储器装置。
图6示出用于解释其中将数据存储在根据本发明概念实施例的半导体装置中的实现方式的示意图。参照图6,由数据排列层130重新排列的数据可构成9个并行排列的数据行(DATA1到DATA9)。
数据行(DATA 1到DATA 9)中的每一者在垂直方向上可具有多个道。举例来说,第一数据行DATA 1的第一要素A1、第二数据行DATA 2的第一要素B1、第三数据行DATA 3的第一要素C1、...及第九数据行DATA 9的第一要素D1可形成第一道,且第一数据行DATA 1的第二要素A2、第二数据行DATA 2的第二要素B2、第三数据行DATA 3的第二要素C3、...及第九数据行DATA 9的第二要素D2可形成第二道。在图6中,由数据排列层130重新排列的数据包括64个道。
根据实施例,每一个道的宽度可以是16位。也就是说,第一数据行DATA 1的第一要素A1可以16位数据形式存储。在这种情形中,第一数据行DATA 1可包括分别具有16位数据形式的64个要素A1、A2、A3、...及A64。相似地,第二数据行DATA 2可包括分别具有16位数据形式的64个要素B1、B2、B3、...及B64,第三数据行DATA 3可包括分别具有16位数据形式的64个要素C1、C2、C3、...及C64,且第九数据行DATA 9可包括分别具有16位数据形式的64个要素D1、D2、D3、...及D64。
第一处理器100可包括用于处理由数据排列层130重新排列的数据的多个算术逻辑单元,且所述多个算术逻辑单元可包括分别与9个数据行(DATA 1到DATA 9)对应的9×64个算术逻辑单元。举例来说,图4所示第一算术逻辑单元群组160a可对应于第一数据行DATA1,且图4所示第二算术逻辑单元群组160b可对应于第二数据行DATA2。另外,图4所示第八算术逻辑单元群组160c可对应于第八数据行DATA8(图中未示出),且图4所示第九算术逻辑单元群组160d可对应于第九数据行DATA9。
另外,第一算术逻辑单元群组160a的64个算术逻辑单元(即,ALU1_1到ALU1_64)可分别并行地处理与第一数据行DATA1的64个要素对应的数据,且第二算术逻辑单元群组160b的64个算术逻辑单元(即,ALU2_1到ALU2_64)可分别并行地处理与第二数据行DATA2的64个要素对应的数据。另外,第八算术逻辑单元群组160c的64个算术逻辑单元(即,ALU8_1到ALU8_64)可并行地处理与第八数据行DATA8的64个要素对应的数据,且第九算术逻辑单元群组160d的64个算术逻辑单元可分别并行地处理与第九数据行DATA9的64个要素对应的数据。因此,在对于图4及图6阐述的实施例中,半导体装置1包括分别具有M个道的N个数据行、以及分别处理N个数据行的N个算术逻辑单元群组,其中N个算术逻辑单元群组分别包括M个算术逻辑单元。在图4及图6的实施例中,N是9且M是64。
根据各种实施例,在由数据排列层130重新排列的数据中的数据行的数目并非仅限于9,且可根据实现方式的具体目的而有所变化。另外,分别与多个数据行对应的多个算术逻辑单元的数目可根据实现方式的目的而有所变化。
同时,如以下参照图8A所阐述,当由数据排列层130重新排列的数据的数据行的数目是9时,效率可得到提高,在各种大小的矩阵的感兴趣区域计算中尤其如此。
图7示出用于解释其中将数据存储在根据本发明概念另一个实施例的半导体装置中的实现方式的示意图。
参照图7,由数据排列层130重新排列的数据可构成9个并行排列的数据行(DATA1到DATA 9)。
参照图7,仅阐述图6所示实现方式与图7所示实现方式之间的差异。在图7中,数据行(DATA 1到DATA 9)中的每一者在垂直方向上可具有多个道,且根据实施例,每一个道的宽度可以是8位。也就是说,第一数据行DATA 1的第一要素A1可以8位数据形式存储。在这种情形中,第一数据行DATA 1可包括分别具有8位数据形式的128个要素。
第一处理器100可包括用于处理由数据排列层130重新排列的数据的多个算术逻辑单元,且多个算术逻辑单元可包括分别与9个数据行(DATA1到DATA 9)对应的9×128个算术逻辑单元。
根据各种实施例,在由数据排列层130重新排列的数据中的数据行的数目并非仅限于9,且可根据实现方式的具体目的而有所变化。另外,分别与多个数据行对应的多个算术逻辑单元的数目可根据实现方式的具体目的而有所变化。
如以下参照图8A所阐述,当由数据排列层130重新排列的数据的数据行的数目是9时,效率可得到提高,在各种大小的矩阵的感兴趣区域计算中尤其如此。
图8A示出为解释对各种大小的矩阵进行的感兴趣区域计算的数据图案而提供的示意图,图8B及图8C示出用于解释根据本发明概念实施例的感兴趣区域计算的数据图案的示意图,且图8D、图8E、图8F及图8G示出用于解释根据本发明概念另一个实施例的感兴趣区域计算的数据图案的示意图。参照图8A至图8G,可根据在与图像处理、视觉处理、及神经网络处理相关联的应用中最频繁使用的矩阵大小来确定使用由数据排列层130重新排列的数据的图案。
参照图8A,矩阵M1包含将通过感兴趣区域计算执行的图像大小3×3所需的图像数据,且矩阵M2包含将通过感兴趣区域计算执行的图像大小4×4所需的图像数据。矩阵M3包含将通过感兴趣区域计算执行的图像大小5×5所需的图像数据,矩阵M4包含将通过感兴趣区域计算执行的图像大小7×7所需的图像数据,且矩阵M5包含将通过感兴趣区域计算执行的图像大小8×8所需的图像数据。同样地,矩阵M6包含将通过感兴趣区域计算执行的图像大小9×9所需的图像数据,且矩阵M7包含将通过感兴趣区域计算执行的图像大小11×11所需的图像数据。举例来说,假设图8A所示图像数据存储在存储器装置(例如图1所示存储器装置500)中。如图8B所示,当对3×3大小的矩阵(例如,M11、M12及M13)执行感兴趣区域计算时,第一处理器100可读取存储在存储器装置中的图8A所示图像数据,并将所述图像数据存储在图像寄存器112中。
在这种情形中,参照图8C,与矩阵M11对应的图像数据(N11到N19)可排列在9个并行排列的数据行(DATA1到DATA 9)的位于第一方向上的第一道处。接下来,与矩阵M12对应的图像数据N12、N13、N21、N15、N16、N22、N18、N19及N23可排列在第二道处。接下来,与矩阵M13对应的图像数据N13、N21、N31、N16、N22、N32、N19、N23及N33可排列在第三道处。
因此,例如图4所示的多个算术逻辑单元(ALU1_1到ALU9_1)可对包含与矩阵M11对应的图像数据的第一道执行感兴趣区域计算,且多个算术逻辑单元(ALU1_2到ALU9_2)可对包含与矩阵M12对应的图像数据的第二道执行感兴趣区域计算。另外,多个算术逻辑单元(ALU1_3到ALU9_3)可对包含与矩阵M13对应的图像数据的第三道执行感兴趣区域计算。
由于图像数据是如在以上实施例中所阐述的一样被处理,因此当假设将通过感兴趣区域计算执行的矩阵具有3×3大小时,第一处理器100每一个循环可对三个图像行执行矩阵计算。在此实例中,使用多个算术逻辑单元来并行处理9个数据行(DATA 1到DATA 9)会提供100%的效率。
如图8D所示,当对5×5大小的矩阵(例如,M31及M32)执行感兴趣区域计算时,第一处理器100可读取存储在存储器装置中的图8A所示图像数据,并将所述图像数据存储在图像寄存器112中。
在这种情形中,参照图8E、图8F、及图8G,5×5矩阵计算总共执行三个循环。在如图8E所示的第一循环期间,计算是利用与对于图8B及图8C所阐述的用于3×3矩阵的方法相同方法来执行。在如图8F所示的第二循环期间,图8A所示矩阵M2中的除了图8A所示矩阵M1的图像数据之外的图像数据(N21、N22、N23、N27、N26、N25及N24)被分配到算术逻辑单元(ALU1_1到ALU9_1)或者被分配到第一向量道,且图像数据N31、N32、N33、N34、N27、N26及N25的数据被分配到算术逻辑单元(ALU1_2到ALU9_2)或者被分配到第二向量道。在第二循环期间,数据是使用相同的方法被连续地分配到各个道。在如图8G所示的第三循环期间,矩阵M3中的除了矩阵M2的图像数据之外的图像数据(N31、N32、N33、N34、N37、N36、N35、N29及N28)被分配到算术逻辑单元(ALU1_1到ALU9_1)或者被分配到第一向量道,且对于后续道来说,分配及处理是以相同的方式继续进行。
由于图像数据是以根据以上实施例阐述的方式进行处理,因此当假设将通过感兴趣区域计算执行的矩阵具有5×5大小时,第一处理器100在第二循环期间跳过对仅两个数据(如在图8F中由项dm表示)的计算,且因此,获得93%的算术逻辑单元使用效率((64个道×9个列×3个循环-64个道×2个列)×100/64×9×3)。
在相同的上下文中,当假设将通过感兴趣区域计算执行的矩阵具有4×4大小时,第一处理器100通过两个循环来执行矩阵计算,同时跳过对仅两个数据的计算,在这种情形中,获得89%的算术逻辑单元使用效率。
当假设将通过感兴趣区域计算执行的矩阵具有7×7大小时,第一处理器100通过六个循环来执行矩阵计算,同时跳过对仅五个数据的计算,在这种情形中,获得91%的算术逻辑单元使用效率。
当假设将通过感兴趣区域计算执行的矩阵具有8×8大小时,第一处理器100通过八个循环来执行矩阵计算,同时跳过对仅八个数据的计算,在这种情形中,获得89%的算术逻辑单元使用效率。
当假设将通过感兴趣区域计算执行的矩阵具有9×9大小时,第一处理器100通过九个循环来对九个图像行执行9×9矩阵计算,同时使用所有的数据,在这种情形中,获得100%的算术逻辑单元使用效率。
当假设将通过感兴趣区域计算执行的矩阵具有11×11大小时,第一处理器100通过14个循环来执行矩阵计算,同时跳过对来自11个图像行的仅八个数据的计算,在这种情形中,获得96%的算术逻辑单元使用效率。
如以上参照图8A至图8G所阐述,在对包含在与图像处理、视觉处理、及神经网络处理相关联的应用中最频繁使用的矩阵大小即3×3、4×4、5×5、7×7、8×8、9×9、11×11这些大小在内的各种矩阵大小执行感兴趣区域计算时,当由数据排列层130重新排列的数据的数据行的数目是9时,可维持第一处理器100的90%的算术逻辑单元使用效率。
在一些示例性实施例中,当所计算的矩阵的大小增大时,仅对从之前的矩阵大小增大的部分执行数据排列。举例来说,为对图8A所示矩阵M2执行第二计算,在对矩阵M1执行第一计算之后,可仅对第二计算所需的图像数据(N21、N22、N23、N27、N26、N25及N24)执行额外的数据排列。
在一些示例性实施例中,多个算术逻辑单元可使用存储在图像寄存器112中的图像数据以及存储在系数寄存器114中的过滤器系数执行计算,并将结果存储在输出寄存器116中。
图8H示出用于解释根据本发明概念实施例的半导体装置的上移计算的示意图。
参照图8H,由根据本发明概念实施例的半导体装置执行的上移计算可控制用于读取存储在图像寄存器112中的数据的方法以对来自存储器装置的之前存储在图像寄存器112中的图像数据进行高效处理。
为具体解释上移计算,当需要对例如图8D所示5×5矩阵M31及M32进行感兴趣区域计算时,与图8H所示第一区R1对应的所有图像数据可能均已经过处理,且当需要处理与图8H所示第二区R2对应的图像数据时,从存储器向图像寄存器112读取额外需要的仅第六行数据(即,图像数据N38、N39、N46、N47、N48、N49、N56、N76、N96、NA6及NB6)。
举例来说,当与第一区R1对应的第一行到第五行的数据分别存储在图5A所示的IR[0]到IR[4]中时,第六行的数据可预先存储在IR[5]中。这样,仅通过将图像寄存器112的读取区调整到第二区R2便可针对第二行到第六行来对5×5矩阵M31及M32连续地执行感兴趣区域计算,同时避免额外的存储器存取。
图9示出用于解释其中使用根据本发明概念各个实施例的半导体装置执行哈里斯角点检测的示例性操作的流程图。应理解,哈里斯角点检测是所属领域中的技术人员所熟知的,且因此此处将不再具体解释。
参照图9,哈里斯角点检测的实施例在S901处包括输入图像。举例来说,用于角点检测的图像通过图1所示存储器总线400(例如,从例如图1所示存储器装置500等存储器装置)被输入到第一处理器100。
在S903处,计算推导值(derivative value)DV。举例来说,第一处理器100可根据需要例如从由数据排列层130重新排列的图像数据来对沿X轴及Y轴的像素计算推导值DV。在此实例中,可通过应用例如索贝尔滤波器(Sobel filter)等一维滤波器、通过将每一个图像乘以在x轴方向上的推导系数(Ix=Gx*I)以及在y轴方向上的推导系数(Iy=Gy*I)来容易地获得推导值(derivative)。所输入的图像被存储在图像寄存器112中,推导系数(Gx及Gy)被存储在系数寄存器114中,且相乘的结果(Ix及Iy)被存储在输出寄存器116中。
接下来,在S905处,对推导乘积(derivation product)DP进行计算。举例来说,根据需要,第一处理器100可从由数据排列层130重新排列的推导值DV来对每一个像素计算推导乘积DP。基于S903的结果,对x轴结果及y轴结果(即,推导值)求平方(Ix2,Iy2),且将x轴求平方结果与y轴求平方结果彼此相乘(Ixy=Ix2*Iy2),由此提供DP值。在此实例中,通过重复使用存储在输出寄存器116中的S903的结果,使用输出寄存器116的图像数据排列器192/系数数据排列器194图案来将计算的x轴结果及y轴结果用作向量算术逻辑单元输入,且计算的结果被再次存储在输出寄存器116中。
接下来,在S907处,计算误差平方和(SSD)。举例来说,第一处理器100使用推导乘积DP计算误差平方和。与在S905处的运算相似,误差平方和计算(Sx2=Gx*Ix2、Sy2=Gy*Iy2、Sxy=Gxy*Ix*Iy)也对存储在输出寄存器116中的数据进行处理作为S905中的运算结果,且图像数据排列器192将数据分配到例如图3所示的向量功能单元(VFU)244a、244b及244c,乘以存储在系数寄存器114中的推导系数,并再次将结果存储在输出寄存器116中。
在S909处,定义关键点矩阵。另外,由于确定关键点矩阵难以仅利用专用于感兴趣区域处理的第一处理器100来执行,因此确定关键点矩阵可通过第二处理器200来执行。也就是说,第二处理器200定义关键点矩阵。
在这种情形中,在第一处理器100的输出寄存器116中存储的所得值可由第二处理器200所共享并被重复使用。举例来说,可使用图3所示移动单元246a、246b、246c及246d将存储在第一处理器100的输出寄存器116中的所得值移动到第二处理器200的向量寄存器214。作为另外一种选择,可被直接输入有输出寄存器116的值的向量功能单元(VFU)244a、244b及244c可使用第一处理器100处的结果,而无需经过移动单元246a、246b、246c及246d。
接下来,在S911处,计算响应函数(R=Det(H)–k(Trace(H)2))。举例来说,第二处理器200使用存储在向量寄存器214中的S909的所得值来计算响应函数。在这一阶段,由于仅使用第二处理器200,因此所有计算的中间结果及最终结果均存储在向量寄存器214中。
接下来,在S913处,通过执行非极大值抑制(NMS)计算来检测关键点。S913处的操作可再次由第一处理器100来处理。
在这种情形中,在第二处理器200的向量寄存器214中存储的所得值可由第一处理器100所共享并被重复使用。举例来说,可使用图3所示移动单元246a、246b、246c及246d将存储在第二处理器200的向量寄存器214中的所得值移动到第一处理器100的输出寄存器116。作为另外一种选择,可通过图像数据排列器192/系数数据排列器194来将所得值从向量寄存器214直接分配到向量功能单元244a、244b及244c。
由于在以上述方式完成输入图像的角点检测工作之前仅使用第一处理器100的寄存器(即,图像寄存器112、系数寄存器114及输出寄存器116)以及第二处理器200的寄存器(即,标量寄存器212及向量寄存器214),因此不需要对存储器装置进行存取。因此,在对存储器装置进行存取时花费的例如开销及功耗等成本可明显降低。
表一
表一示出用于解释由根据本发明概念实施例的半导体装置所支持的在与视觉处理及神经网络处理相关联的应用中使用的用于高效地处理矩阵计算的指令的实现方式的视图。
参照表一,第一处理器100支持在与视觉处理及神经网络处理相关联的应用中使用的用于高效地处理矩阵计算的指令。所述指令可主要被划分成三种类型的指令(或阶段)。
MAP指令是例如用于使用多个算术逻辑单元160计算数据的指令,且支持由例如Add、Sub、Abs、AbsDiff、Cmp、Mul、Sqr等操作码(opcode)标识的计算。MAP指令以第一处理器100的输出寄存器116作为目标寄存器,且使用从图像数据排列器192及系数数据排列器194中的至少一者产生的数据图案作为操作数(operand)。另外,可额外地(可选地)包含字段来指示所处理数据的单位是8位还是16位。
REDUCE指令是例如用于树计算的指令,且支持由例如添加树(Addtree)、最小化树(minimum tree)、最大化树(maximum tree)等操作码标识的计算。REDUCE指令以第一处理器100的输出寄存器116及第二处理器200的向量寄存器214中的至少一者作为目标寄存器,且使用从图像数据排列器192及系数数据排列器194中的至少一者产生的数据图案。另外,可额外地包含字段来指示所处理数据的单位是8位还是16位。
MAP_REDUCE指令是用于对映射计算及归纳计算进行组合的指令。MAP_REDUCE指令以第一处理器100的输出寄存器116及第二处理器200的向量寄存器214中的至少一者作为目标寄存器,且使用从图像数据排列器192及系数数据排列器194中的至少一者产生的数据图案。另外,可额外地包含字段来指示所处理数据的单位是8位还是16位。
根据上述各个实施例,第一处理器100与第二处理器200共享相同的指令集架构以使得专用于感兴趣区域计算的第一处理器100与专用于算术计算的第二处理器200在指令层次上共享,从而有利于进行控制。另外,通过共享寄存器,第一处理器100与第二处理器200可提高数据利用率并减少存储器存取次数。另外,通过使用对用于在第一处理器100处进行处理的各种大小的数据(例如,矩阵)高效地执行感兴趣区域计算的数据图案,便可有可能对在图像处理、视觉处理、及神经网络处理中频繁使用的矩阵大小即3×3矩阵、4×4矩阵、5×5矩阵、7×7矩阵、8×8矩阵、9×9矩阵、11×11矩阵专门地执行高效处理。
图10A及图10B示出用于解释用于图8D中的5×5矩阵的卷积计算的实际汇编指令的实例的视图。
参照表一及图10A,在框架1100中,在第一行处的MAPMUL_ReduceAcc16(IDA_Conv3(IR),CDA_Conv3(CR,w16))指令(即,第一汇编指令)中,MAPMUL_ReduceAcc16指示将根据表一所示阶段、目标寄存器、操作数1、操作数2、及操作码在MAP阶段及REDUCE阶段执行的指令。因此,对于16位数据,在MAP阶段执行Mul指令且在REDUCE阶段执行添加树,其中由于对之前的加法结果进行累加而使用了Acc指令。每一行的运算符“.”是用于对将在第一处理器100及第二处理器200的槽位240a、240b、240c及240d中的每一者中进行处理的指令进行区分的运算符。因此,计算操作是使用单指令多数据的指令集与多槽位超长指令字结构在第一处理器100及第二处理器200中执行的。举例来说,MAPMul_ReducedAcc16被分配到第一处理器100所在的槽位,且ShUpReg=1指令被分配到与第二处理器200对应的槽位。指令‘ShUpReg’是如以上在图8F中所阐述的用于改变在计算中使用的寄存器数据区(寄存器窗口)的上移寄存器指令,且可被实现成由第一处理器100或第二处理器200执行。除了MAPMul_ReducedAcc16之外的其他指令可在与第二处理器200对应的槽位中执行,但并非仅限于此。根据实现方式的方法而定,所述其他指令也可在第一处理器100中执行。
在此实例中,从虚拟寄存器接收到输入值,IDA_Conv3(IR)及CDA_Conv3(CR,w16)。Conv3指示图8B中的3×3矩阵(即,n×n矩阵)的数据图案是从图像寄存器112及系数寄存器114输入的。当执行第一汇编指令时,图8B所示矩阵M11的数据被存储在第一道处,矩阵M12的数据被存储在第二道处,矩阵M13的数据被存储在第三道处,且其他对应的数据同样地存储在之后的道中。
第二汇编指令MAPMUL_reduceAcc16(IDA_Conv4(IR),CDA_Conv4(CR,w16))是在仅改变输入数据图案的同时以相同的方法计算。在此实例中,如以上对于5×5矩阵计算所阐述,4×4矩阵(即,(n+1)×(n+1)矩阵)的数据中除了3×3矩阵的数据之外的其余数据(例如,图10B中D2区的不包含D1区的区的图像数据)被输入到向量功能单元的每一个道,且对应的结果根据添加树与3×3结果一同被存储在输出寄存器116中。这一结果表示对4×4大小的卷积计算的结果。
最终的MAPMUL_ReduceAcc16(IDA_Conv5(IR),CDA_Conv5(CR,w16))执行与之前的对5×5矩阵的数据中除了4×4矩阵的数据之外的其余数据的计算相同的计算。
当执行这三个指令时,对于所输入的5个行的5×5矩阵,卷积滤波器的结果被存储在输出寄存器116中。稍后当计算窗口下移一行且再次开始与第一行到第五行对应的5×5矩阵计算时,仅新输入第五行来实现这一目的,而之前使用的第一行到第四行则利用寄存器上移指令来重复使用,如以上参照图8H所阐述。
根据实施例,数据一旦被输入,则将不再从存储器装置重新读取,从而可降低对存储器装置进行存取的频率,且性能及电源效率可得到最大化。
图11示出用于解释使用根据本发明概念实施例的半导体装置的示例性感兴趣区域(ROI)计算的流程图。
感兴趣区域计算可根据对于图6至图8H、图10A、图10B及表一所进一步阐述的特征,使用半导体装置(例如对于图1至图5D阐述的半导体装置1)来执行。半导体装置在此实施例中可包括:内部寄存器110,被配置成存储从存储器装置500提供的图像数据;数据排列层130,被配置成将所存储的图像数据重新排列成N个数据行,所述N个数据行分别具有多个道;以及多个算术逻辑单元(ALU)160,被排列成用以处理N个数据行的N个算术逻辑单元群组160a、160b、160c、及160d。
参照图11,在S1201处,数据排列层130被配置成对内部寄存器110中的所存储的图像数据的第一数据进行重新排列以提供经重新排列的第一图像数据。第一数据可具有n×n矩阵大小,其中n是自然数。举例来说,第一数据可以是3×3矩阵,且可例如对应于图10B所示的D1区的图像数据。
在图11所示S1203处,算术逻辑单元160被配置成使用经重新排列的第一图像数据执行第一映射计算以产生第一输出数据。
在图11所示S1205处,数据排列层130被配置成对内部寄存器110中的所存储的图像数据的第三数据进行重新排列以提供经重新排列的第二图像数据。此处,第三数据及第一数据被包含为内部寄存器110中所存储的图像数据的第二数据的部分。举例来说,第二数据可具有(n+1)×(n+1)矩阵大小。举例来说,第二数据可以是图10B所示包含数据项N11、N12、N13、N21、N14、N15、N16、N22、N17、N18、N19、N23、N24、N25、N26及N27的4×4矩阵。在此实例中,第三数据可对应于图10B所示D2区的数据项N21、N22、N23、N27、N26、N25及N24。对于此实例还应注意,D2区的第三数据不属于D1区的第一数据。也就是说,D2区的第三数据不包含在由图10B所示D1区的第一数据组成的3×3矩阵中。
在图11所示S1207处,算术逻辑单元160被配置成使用经重新排列的第二图像数据执行第二映射计算以产生第二输出数据。
在图11所示S1209处,算术逻辑单元160被配置成使用第一输出数据及第二输出数据执行归纳计算以产生最终图像数据。
尽管已参照本发明概念的示例性实施例具体示出并阐述了本发明概念,然而所属领域的普通技术人员应理解,在不背离由以上权利要求书所界定的本发明概念的精神及范围的条件下,在本文中可作出形式及细节上的各种变化。因此,期望本实施例在所有方面均被视为例示性的而非限制性的,并应参照随附权利要求书而非上述说明来指示本发明概念的范围。

Claims (20)

1.一种半导体装置,其特征在于,包括:
第一处理器,包括第一寄存器,所述第一处理器被配置成使用所述第一寄存器执行感兴趣区域计算;以及
第二处理器,包括第二寄存器,所述第二处理器被配置成使用所述第二寄存器执行算术计算,其中所述第一寄存器是由所述第二处理器所共享,且所述第二寄存器是由所述第一处理器所共享。
2.根据权利要求1所述的半导体装置,其特征在于,所述第一处理器及所述第二处理器共享相同的指令集架构。
3.根据权利要求1所述的半导体装置,其特征在于,所述第一寄存器包括图像寄存器、系数寄存器及输出寄存器中的至少一者。
4.根据权利要求1所述的半导体装置,其特征在于,所述第二寄存器包括标量寄存器及向量寄存器中的至少一者。
5.根据权利要求1所述的半导体装置,其特征在于,所述第一处理器及所述第二处理器分别由相应的独立电源驱动。
6.根据权利要求5所述的半导体装置,其特征在于,所述第一处理器及所述第二处理器中未被使用的一者的所述相应的独立电源中的电源被切断。
7.根据权利要求1所述的半导体装置,其特征在于,所述第一处理器被配置成执行以下中的至少一者:一维滤波器计算、二维滤波器计算、统计变换计算、最小/最大滤波器计算、绝对差值和计算、误差平方和计算、非极大值抑制计算及矩阵乘法计算,且
所述第二处理器被配置成执行以下中的至少一者:预测计算、向量重组计算、向量位运算计算、蝶形计算及分类计算。
8.根据权利要求1所述的半导体装置,其特征在于,所述第二处理器被配置成根据超长指令字架构来处理指令。
9.根据权利要求8所述的半导体装置,其特征在于,所述第二处理器处理的所述指令包括两个或更多个槽位。
10.根据权利要求9所述的半导体装置,其特征在于,所述两个或更多个槽位中的至少一个槽位是使用所述第一处理器来执行。
11.一种半导体装置,其特征在于,包括:
第一处理器,包括第一寄存器,所述第一处理器被配置成使用所述第一寄存器执行感兴趣区域计算;以及
第二处理器,包括第二寄存器,所述第二处理器被配置成使用所述第二寄存器执行算术计算,其中所述第一处理器与所述第二处理器共享相同的指令集架构。
12.根据权利要求11所述的半导体装置,其特征在于,所述第一寄存器是由所述第二处理器共享,且所述第二寄存器是由所述第一处理器共享。
13.根据权利要求11所述的半导体装置,其特征在于,所述第一寄存器包括图像寄存器、系数寄存器及输出寄存器中的至少一者。
14.根据权利要求11所述的半导体装置,其特征在于,所述第二寄存器包括标量寄存器及向量寄存器中的至少一者。
15.根据权利要求11所述的半导体装置,其特征在于,所述第一处理器包括数据排列单元,所述数据排列单元被配置成对用于处理的数据进行重新排列。
16.根据权利要求15所述的半导体装置,其特征在于,所述第一处理器包括多个算术逻辑单元,所述多个算术逻辑单元相对于彼此并行地排列,且
所述多个算术逻辑单元被配置成并行地处理来自所述数据排列单元的经重新排列的所述数据。
17.根据权利要求11所述的半导体装置,其特征在于,所述第二处理器根据超长指令字架构来处理指令。
18.根据权利要求17所述的半导体装置,其特征在于,所述第二处理器包括:
提取单元,被配置成提供超长指令字指令;以及
解码器,被配置成将所述超长指令字指令解码成多个指令。
19.根据权利要求18所述的半导体装置,其特征在于,所述指令是由所述第二处理器在两个或更多个槽位处处理。
20.根据权利要求19所述的半导体装置,其特征在于,所述两个或更多个槽位中的至少一个槽位是使用所述第一处理器来执行。
CN201810274218.4A 2017-03-31 2018-03-29 半导体装置 Active CN109447892B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170042125A KR102235803B1 (ko) 2017-03-31 2017-03-31 반도체 장치
KR10-2017-0042125 2017-03-31

Publications (2)

Publication Number Publication Date
CN109447892A true CN109447892A (zh) 2019-03-08
CN109447892B CN109447892B (zh) 2023-11-28

Family

ID=63865574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810274218.4A Active CN109447892B (zh) 2017-03-31 2018-03-29 半导体装置

Country Status (5)

Country Link
US (4) US10409593B2 (zh)
JP (1) JP7154788B2 (zh)
KR (1) KR102235803B1 (zh)
CN (1) CN109447892B (zh)
TW (1) TWI776838B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11175915B2 (en) * 2018-10-10 2021-11-16 Micron Technology, Inc. Vector registers implemented in memory
US20220334634A1 (en) * 2021-04-16 2022-10-20 Maxim Integrated Products, Inc. Systems and methods for reducing power consumption in embedded machine learning accelerators

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0656584B1 (en) * 1993-11-30 2001-10-04 Texas Instruments Incorporated Conditional memory store from a register pair
WO2001098892A1 (en) * 2000-06-16 2001-12-27 Bops, Inc. Methods and apparatus for data dependent address operations and efficient variable length code decoding in a vliw processor
CN1716229A (zh) * 2004-06-28 2006-01-04 富士通株式会社 可重配置处理器和半导体器件
JP2007004542A (ja) * 2005-06-24 2007-01-11 Renesas Technology Corp 半導体信号処理装置
CN101051265A (zh) * 2006-04-06 2007-10-10 财团法人工业技术研究院 共享一组合寄存器文件的操作数存取端口的装置
CN101055535A (zh) * 2006-04-13 2007-10-17 国际商业机器公司 并行计算机和定位并行计算机中硬件故障的方法
US20080244220A1 (en) * 2006-10-13 2008-10-02 Guo Hui Lin Filter and Method For Filtering
US20080252747A1 (en) * 1997-07-15 2008-10-16 Silverbrook Research Pty Ltd Vliw image processor
US20090180539A1 (en) * 2008-01-11 2009-07-16 Arun Shankar Kudana Interpolated Skip Mode Decision in Video Compression
JP2010015257A (ja) * 2008-07-01 2010-01-21 Canon Inc 画像処理装置、画像処理方法、及びプログラム
US20100211623A1 (en) * 2009-02-16 2010-08-19 Renesas Technology Corp. Filter processing module and semiconductor device
US20120133660A1 (en) * 2010-11-30 2012-05-31 Samsung Electronics Co., Ltd. Data processing method and apparatus in heterogeneous multi-core environment
CN102707931A (zh) * 2012-05-09 2012-10-03 刘大可 一种基于并行数据通道的数字信号处理器
US20120260061A1 (en) * 2011-04-04 2012-10-11 Arm Limited Data processing apparatus and method for performing vector operations
CN106447599A (zh) * 2015-08-11 2017-02-22 瑞萨电子株式会社 半导体装置

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3167363B2 (ja) * 1991-08-29 2001-05-21 株式会社東芝 関心領域設定方法及び画像処理装置
JP2889842B2 (ja) 1994-12-01 1999-05-10 富士通株式会社 情報処理装置及び情報処理方法
JP3209205B2 (ja) 1998-04-28 2001-09-17 日本電気株式会社 プロセッサにおけるレジスタ内容の継承装置
US6139498A (en) 1998-12-29 2000-10-31 Ge Diasonics Israel, Ltd. Ultrasound system performing simultaneous parallel computer instructions
JP2001014139A (ja) 1999-06-28 2001-01-19 Nec Corp ワークファイルを使用するマルチスレッドソート処理方式及び処理方法
US6901422B1 (en) 2001-03-21 2005-05-31 Apple Computer, Inc. Matrix multiplication in a vector processing system
US6898691B2 (en) 2001-06-06 2005-05-24 Intrinsity, Inc. Rearranging data between vector and matrix forms in a SIMD matrix processor
JP3805314B2 (ja) * 2003-02-27 2006-08-02 Necエレクトロニクス株式会社 プロセッサ
US7162573B2 (en) 2003-06-25 2007-01-09 Intel Corporation Communication registers for processing elements
GB2409066B (en) 2003-12-09 2006-09-27 Advanced Risc Mach Ltd A data processing apparatus and method for moving data between registers and memory
US7873812B1 (en) 2004-04-05 2011-01-18 Tibet MIMAR Method and system for efficient matrix multiplication in a SIMD processor architecture
US7386842B2 (en) 2004-06-07 2008-06-10 International Business Machines Corporation Efficient data reorganization to satisfy data alignment constraints
EP1779256A4 (en) * 2004-07-13 2007-11-28 3Plus1 Technology Inc PROGRAMMABLE PROCESSOR ARCHITECTURE
JP2006236715A (ja) 2005-02-23 2006-09-07 Matsushita Electric Works Ltd 照明器具
US20070116357A1 (en) * 2005-11-23 2007-05-24 Agfa-Gevaert Method for point-of-interest attraction in digital images
US7624250B2 (en) 2005-12-05 2009-11-24 Intel Corporation Heterogeneous multi-core processor having dedicated connections between processor cores
KR100739785B1 (ko) 2006-01-09 2007-07-13 삼성전자주식회사 관심 영역 기반 영상 부호화, 복호화 방법 및 장치
TW200813724A (en) * 2006-07-28 2008-03-16 Samsung Electronics Co Ltd Multipath accessible semiconductor memory device with host interface between processors
US8725991B2 (en) 2007-09-12 2014-05-13 Qualcomm Incorporated Register file system and method for pipelined processing
US8248422B2 (en) 2008-01-18 2012-08-21 International Business Machines Corporation Efficient texture processing of pixel groups with SIMD execution unit
US9652231B2 (en) 2008-10-14 2017-05-16 International Business Machines Corporation All-to-all permutation of vector elements based on a permutation pattern encoded in mantissa and exponent bits in a floating-point SIMD architecture
US9152427B2 (en) * 2008-10-15 2015-10-06 Hyperion Core, Inc. Instruction issue to array of arithmetic cells coupled to load/store cells with associated registers as extended register file
US7930519B2 (en) * 2008-12-17 2011-04-19 Advanced Micro Devices, Inc. Processor with coprocessor interfacing functional unit for forwarding result from coprocessor to retirement unit
JP5445469B2 (ja) 2009-01-13 2014-03-19 日本電気株式会社 Simd型並列データ処理装置及びデータソート方法並びにプロセッシングエレメント
KR101110550B1 (ko) 2009-04-08 2012-02-08 한양대학교 산학협력단 프로세서 장치, 멀티 프로세서 시스템 및 멀티 프로세서 시스템의 공유메모리 접근 방법
KR101027906B1 (ko) 2009-04-28 2011-04-12 한국과학기술원 물체 인식 방법 및 장치
KR101662769B1 (ko) 2010-03-09 2016-10-05 삼성전자주식회사 고속 정렬 장치 및 방법
KR101079691B1 (ko) 2010-06-01 2011-11-04 공주대학교 산학협력단 데이터 정렬 방법과 상기 방법을 수행할 수 있는 장치들
JP5648465B2 (ja) 2010-12-17 2015-01-07 富士通セミコンダクター株式会社 グラフィックスプロセッサ
US9141389B2 (en) 2011-04-07 2015-09-22 Via Technologies, Inc. Heterogeneous ISA microprocessor with shared hardware ISA registers
WO2013046475A1 (en) * 2011-09-27 2013-04-04 Renesas Electronics Corporation Apparatus and method of a concurrent data transfer of multiple regions of interest (roi) in an simd processor system
JP5708450B2 (ja) 2011-11-10 2015-04-30 富士通株式会社 マルチコアプロセッサシステム、レジスタ利用方法、およびレジスタ利用プログラム
JP5554358B2 (ja) 2012-03-23 2014-07-23 株式会社東芝 マルチプロセッサシステムおよび電力制御方法
US9405538B2 (en) 2012-12-28 2016-08-02 Intel Corporation Functional unit having tree structure to support vector sorting algorithm and other algorithms
KR20140092135A (ko) 2013-01-15 2014-07-23 한국전자통신연구원 빅 데이터를 위한 병렬 정렬 방법 및 장치
KR101482229B1 (ko) 2013-04-29 2015-01-14 주식회사 실리콘아츠 컴퓨터 실행 가능한 데이터 정렬 방법, 이를 수행하는 데이터 정렬 시스템 및 이를 저장하는 기록매체
JP6462979B2 (ja) 2013-09-06 2019-01-30 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記憶媒体
KR102122406B1 (ko) 2013-11-06 2020-06-12 삼성전자주식회사 셔플 명령어 처리 장치 및 방법
KR102310246B1 (ko) 2014-04-23 2021-10-08 삼성전자주식회사 세컨더리 인덱스 생성 방법 및 세컨더리 인덱스 저장 장치
KR101573618B1 (ko) 2014-07-04 2015-12-01 한양대학교 산학협력단 메모리 구조에 기반한 외부 퀵 정렬의 방법 및 장치
US9563953B2 (en) * 2014-08-28 2017-02-07 Qualcomm Incorporated Systems and methods for determining a seam
KR20160054850A (ko) * 2014-11-07 2016-05-17 삼성전자주식회사 다수의 프로세서들을 운용하는 장치 및 방법
JP2016091488A (ja) 2014-11-11 2016-05-23 アズビル株式会社 データソート方法およびプログラム
JP2016112285A (ja) 2014-12-17 2016-06-23 日立アロカメディカル株式会社 超音波診断装置
KR102332523B1 (ko) * 2014-12-24 2021-11-29 삼성전자주식회사 연산 처리 장치 및 방법
KR101665207B1 (ko) 2014-12-31 2016-10-14 (주)베라시스 복수개의 검출윈도우를 통한 관심영역에서의 차량식별방법
KR101645517B1 (ko) * 2015-04-01 2016-08-05 주식회사 씨케이앤비 특징점 추출 장치 및 방법과 이를 이용한 콘텐츠의 온라인 유통 현황 분석을 위한 이미지 매칭 시스템
US9569661B2 (en) * 2015-05-21 2017-02-14 Futurewei Technologies, Inc. Apparatus and method for neck and shoulder landmark detection
US20170337156A1 (en) * 2016-04-26 2017-11-23 Onnivation Llc Computing machine architecture for matrix and array processing

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0656584B1 (en) * 1993-11-30 2001-10-04 Texas Instruments Incorporated Conditional memory store from a register pair
US20080252747A1 (en) * 1997-07-15 2008-10-16 Silverbrook Research Pty Ltd Vliw image processor
WO2001098892A1 (en) * 2000-06-16 2001-12-27 Bops, Inc. Methods and apparatus for data dependent address operations and efficient variable length code decoding in a vliw processor
CN1716229A (zh) * 2004-06-28 2006-01-04 富士通株式会社 可重配置处理器和半导体器件
JP2007004542A (ja) * 2005-06-24 2007-01-11 Renesas Technology Corp 半導体信号処理装置
CN101051265A (zh) * 2006-04-06 2007-10-10 财团法人工业技术研究院 共享一组合寄存器文件的操作数存取端口的装置
CN101055535A (zh) * 2006-04-13 2007-10-17 国际商业机器公司 并行计算机和定位并行计算机中硬件故障的方法
US20080244220A1 (en) * 2006-10-13 2008-10-02 Guo Hui Lin Filter and Method For Filtering
US20090180539A1 (en) * 2008-01-11 2009-07-16 Arun Shankar Kudana Interpolated Skip Mode Decision in Video Compression
JP2010015257A (ja) * 2008-07-01 2010-01-21 Canon Inc 画像処理装置、画像処理方法、及びプログラム
US20100211623A1 (en) * 2009-02-16 2010-08-19 Renesas Technology Corp. Filter processing module and semiconductor device
US20120133660A1 (en) * 2010-11-30 2012-05-31 Samsung Electronics Co., Ltd. Data processing method and apparatus in heterogeneous multi-core environment
US20120260061A1 (en) * 2011-04-04 2012-10-11 Arm Limited Data processing apparatus and method for performing vector operations
CN102707931A (zh) * 2012-05-09 2012-10-03 刘大可 一种基于并行数据通道的数字信号处理器
CN106447599A (zh) * 2015-08-11 2017-02-22 瑞萨电子株式会社 半导体装置

Also Published As

Publication number Publication date
JP7154788B2 (ja) 2022-10-18
US10409593B2 (en) 2019-09-10
KR102235803B1 (ko) 2021-04-06
US20180300128A1 (en) 2018-10-18
US11645072B2 (en) 2023-05-09
KR20180111321A (ko) 2018-10-11
TWI776838B (zh) 2022-09-11
CN109447892B (zh) 2023-11-28
US20190347096A1 (en) 2019-11-14
TW201837716A (zh) 2018-10-16
US10990388B2 (en) 2021-04-27
US20210216312A1 (en) 2021-07-15
JP2018173956A (ja) 2018-11-08
US20230236832A1 (en) 2023-07-27

Similar Documents

Publication Publication Date Title
JP7146999B2 (ja) 畳み込みニューラルネットワークのための効率的データレイアウト
CN1914592B (zh) 执行具有单元大小控制的紧缩数据操作的方法和设备
CN1894659B (zh) 在寄存器和存储器之间移动数据的数据处理设备和方法
CN1890630B (zh) 在寄存器和存储器之间移动数据的数据处理设备和方法
US8423752B2 (en) Apparatus and method for performing permutation operations in which the ordering of one of a first group and a second group of data elements is preserved and the ordering of the other group of data elements is changed
CN107992943A (zh) 用于卷积神经网络的缓冲器寻址
US10248384B2 (en) Arithmetic processing device and control method for arithmetic processing device
CN109240744A (zh) 排序加速处理器、方法、系统和指令
US20210304498A1 (en) Reducing level of detail of a polygon mesh to decrease a complexity of rendered geometry within a scene
CN107077334A (zh) 从多维阵列预取多维元素块的硬件装置和方法
US7675524B1 (en) Image processing using enclosed block convolution
CN106846235A (zh) 一种利用NVIDIA Kepler GPU汇编指令加速的卷积优化方法及系统
Sander Graph layout for applications in compiler construction
CN109447892A (zh) 半导体装置
US10649771B2 (en) Semiconductor device
CN107924308A (zh) 数据元素比较处理器、方法、系统和指令
KR20190129240A (ko) 행 단위 연산 뉴럴 프로세서 및 이를 이용한 데이터 처리 방법
CN110058886A (zh) 用于计算两个区块操作数中的半字节的数量积的系统和方法
CN109992243A (zh) 用于矩阵操作的系统、方法和装置
US9690752B2 (en) Method and system for performing robust regular gridded data resampling
CN108292228A (zh) 用于基于通道的步进收集的系统、设备和方法
CN101527031A (zh) 一种光线投射多核并行体绘制方法
JP2021022362A (ja) 複数の畳み込みウィンドウ内の画像データの並行抽出方法、装置、機器及びコンピュータ可読記憶媒体
KR101547366B1 (ko) 병렬 프로세서용 어드레싱 디바이스
Tokura et al. Gpu-accelerated bulk computation of the eigenvalue problem for many small real non-symmetric matrices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant