KR102216281B1 - 딥 러닝 칩을 검출하는 방법, 장치, 전자 기기 및 컴퓨터 저장 매체 - Google Patents

딥 러닝 칩을 검출하는 방법, 장치, 전자 기기 및 컴퓨터 저장 매체 Download PDF

Info

Publication number
KR102216281B1
KR102216281B1 KR1020200016999A KR20200016999A KR102216281B1 KR 102216281 B1 KR102216281 B1 KR 102216281B1 KR 1020200016999 A KR1020200016999 A KR 1020200016999A KR 20200016999 A KR20200016999 A KR 20200016999A KR 102216281 B1 KR102216281 B1 KR 102216281B1
Authority
KR
South Korea
Prior art keywords
deep learning
chip
units
learning chip
logic units
Prior art date
Application number
KR1020200016999A
Other languages
English (en)
Other versions
KR20210001882A (ko
Inventor
용 왕
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210001882A publication Critical patent/KR20210001882A/ko
Application granted granted Critical
Publication of KR102216281B1 publication Critical patent/KR102216281B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C29/00Checking stores for correct operation ; Subsequent repair; Testing stores during standby or offline operation
    • G11C29/70Masking faults in memories by using spares or by reconfiguring
    • G11C29/88Masking faults in memories by using spares or by reconfiguring with partially good memories
    • G11C29/883Masking faults in memories by using spares or by reconfiguring with partially good memories using a single defective memory device with reduced capacity, e.g. half capacity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/2263Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/2273Test methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0751Error or fault detection not based on redundancy
    • G06F11/0754Error or fault detection not based on redundancy by exceeding limits
    • G06F11/076Error or fault detection not based on redundancy by exceeding limits by exceeding a count or rate limit, e.g. word- or bit count limit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0793Remedial or corrective actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/142Reconfiguring to eliminate the error
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/2205Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested
    • G06F11/2236Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested to test CPU or processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/26Functional testing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/08Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers from or to individual record carriers, e.g. punched card, memory card, integrated circuit [IC] card or smart card
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Neurology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Tests Of Electronic Circuits (AREA)
  • Test And Diagnosis Of Digital Computers (AREA)

Abstract

본 개시의 실시예는 딥 러닝 칩을 검출하는 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 저장 매체에 관한 것이다. 당해 방법은 딥 러닝 칩 내의 복수의 논리 유닛을 검출하는 단계를 포함하고, 복수의 논리 유닛은 딥 러닝의 추론 조작과 트레이닝 조작 중 적어도 하나의 조작을 수행한다. 당해 방법은 복수의 논리 유닛에서 검출에 실패한 에러 유닛을 획득하는 단계를 더 포함한다. 또한, 당해 방법은 에러 유닛의 개수가 복수의 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 낮거나 같은 것에 응답하여, 딥 러닝 칩을 합격 칩으로 결정하는 단계를 더 포함할 수 있다. 본 개시의 기술안은 딥 러닝 칩에 복수의 같은 또는 중복되는 논리 유닛이 포함되는 특성을 이용함으로써 칩 이용률을 현저히 향상시킨다.

Description

딥 러닝 칩을 검출하는 방법, 장치, 전자 기기 및 컴퓨터 저장 매체{METHOD AND APPARATUS FOR DETECTING DEPTH LEARNING CHIP, ELECTRONIC DEVICE AND COMPUTER STORAGE MEDIUM}
본 개시의 실시예는 주로 칩 검출 분야에 관한 것으로, 더 구체적으로, 딥 러닝 칩을 검출하는 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 저장 매체에 관한 것이다.
칩의 가용성(또는 '수율'로 지칭됨)은 통상적으로 하나의 웨이퍼, 하나의 배치(batch) 또는 제품의 한 라이프사이클에서 테스트에 합격된 칩과 전체 칩의 비율을 가리킨다. 생산 환경에 무작위로 떨어지는 분진 또는 기타의 파티클이 있을 수 있고 집적회로의 설계 과정에 결함이 존재할 수 있으므로 칩 이용률이 보다 낮아지게 된다. 현재의 딥 러닝 칩(또는 '인공지능 칩'으로 지칭됨)에 있어서, 통상적으로 복수의 추론 논리 유닛과 복수의 트레이닝 논리 유닛이 포함되는바, 칩 내의 어느 하나의 논리 유닛에 하자가 존재해도 당해 칩은 테스트에 실패한 것으로 표기된다. 칩의 비용은 칩 이용률에 선형으로 연관된다. 이용률이 낮을수록 비용이 더 높다. 따라서 칩 이용률은 칩 비용에 거대한 영향을 끼치는 것으로, 칩 이용률을 향상시키는 것은 칩의 경쟁력을 향상시키는 데 있어서 매우 중요하다.
본 개시의 예시적인 실시예에 따르면, 딥 러닝 칩을 검출하는 방안이 제공된다.
본 개시의 제1 측면으로, 딥 러닝 칩을 검출하는 방법이 제공된다. 당해 방법은, 딥 러닝 칩 내의 복수의 논리 유닛을 검출하는 단계 - 복수의 논리 유닛은 딥 러닝의 추론 조작과 트레이닝 조작 중 적어도 하나의 조작을 수행함 - 를 포함한다. 당해 방법은 복수의 논리 유닛에서 검출에 실패한 에러 유닛을 획득하는 단계를 더 포함한다. 또한, 당해 방법은 에러 유닛의 개수가 복수의 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 낮거나 같은 것에 응답하여, 딥 러닝 칩을 합격 칩으로 결정하는 단계를 더 포함할 수 있다.
본 개시의 제2 측면으로, 딥 러닝 칩을 검출하는 장치가 제공된다. 당해 장치는 딥 러닝 칩 내의 복수의 논리 유닛을 검출하도록 구성되는 논리 유닛 검출 모듈 - 복수의 논리 유닛은 딥 러닝의 추론 조작과 트레이닝 조작 중 적어도 하나의 조작을 수행함 - ; 복수의 논리 유닛에서 검출에 실패한 에러 유닛을 획득하도록 구성되는 에러 유닛 획득 모듈; 및 에러 유닛의 개수가 복수의 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 낮거나 같은 것에 응답하여, 딥 러닝 칩을 합격 칩으로 결정하도록 구성되는 합격 칩 결정 모듈을 포함한다.
본 개시의 제3 측면으로, 기기가 제공되는바, 이는, 하나 또는 복수의 프로세서; 및 하나 또는 복수의 프로그램을 저장하는 저장 장치를 포함하고, 하나 또는 복수의 프로그램이 하나 또는 복수의 프로세서에 의해 실행될 경우, 하나 또는 복수의 프로세서가 본 개시의 제1 측면의 방법을 구현한다.
본 개시의 제4 측면으로, 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능 저장 매체가 제공되는바, 당해 프로그램이 프로세서에 의해 실행될 경우 본 개시의 제1 측면의 방법이 구현된다.
발명 내용 부분에서 설명하는 내용은 본 개시의 실시예의 핵심 또는 중요 특징을 한정하기 위한 것이 아니며 본 개시의 범위를 제한하기 위한 것도 아님을 이해하여야 한다. 본 개시의 기타 특징은 이하의 설명을 통하여 이해하기 쉽게 될 것이다.
첨부 도면을 결부하고 이하 상세한 설명을 참조하면, 본 개시의 각 실시예의 상술한 및 기타의 특징, 이점 및 측면은 더욱 분명해질 것이다. 첨부 도면에서, 동일 또는 유사한 도면 부호는 동일 또는 유사한 요소를 표시하는 바, 여기서:
도 1은 본 개시의 복수의 실시예가 구현될 수 있는 예시 환경의 개략도를 도시한다.
도 2는 본 개시의 실시예에 따른 딥 러닝 칩의 개략도를 도시한다.
도 3은 본 개시의 실시예에 따른 딥 러닝 칩을 검출하는 과정의 흐름도를 도시한다.
도 4는 본 개시의 실시예에 따른 딥 러닝 칩을 검출하는 장치의 개략적인 블록도를 도시한다.
도 5는 본 개시의 복수의 실시예를 실시 가능한 컴퓨팅 기기의 블록도를 도시한다.
아래, 첨부 도면을 참조하여 본 개시의 실시예에 대해 더 상세하게 설명하고자 한다. 비록 첨부 도면에 본 개시의 어떤 실시예가 도시되었지만, 본 개시는 여러 가지 형식으로 구현 가능한 것으로, 여기서 서술하는 실시예에 한정되는 것으로 해석되어서는 안 되고, 반대로, 이러한 실시예를 제공하는 것은 본 개시를 더욱 투철하게 그리고 완전하게 이해시키기 위한 것임을 이해하여야 한다. 본 개시의 첨부 도면 및 실시예는 예시적 작용을 위한 것으로, 본 개시의 보호 범위를 제한하기 위한 것이 아님을 이해하여야 한다.
본 개시의 실시예의 설명에서, 전문 용어 '포함' 및 그 유사 용어는 개방적 포괄, 즉, '포함하나 이에 한정되지 않음'으로 이해하여야 한다. 전문 용어 '에 따라'는 '적어도 부분적으로 ...에 따라'로 이해하여야 한다. 전문 용어 '하나의 실시예' 또는 '당해 실시예'는 '적어도 하나의 실시예'로 이해하여야 한다. 전문 용어 '제1', '제2' 등은 부동한 또는 동일한 대상을 지칭할 수 있다. 후술은 또한, 기타의 명확한 및 묵시적인 정의를 포함할 수 있다.
상술한 바와 같이, 고속도 고효율 저비용으로 딥 러닝 칩을 검출함으로써 칩 이용률을 향상시키는 딥 러닝 칩을 검출하는 방법이 시급히 필요하다. 전통적인 딥 러닝 칩을 검출하는 방법은 통상적으로 딥 러닝 칩을 검출하여, 당해 딥 러닝 칩이 검출에 실패하면 당해 딥 러닝 칩을 사용 불가능한 것으로 간주한다. 당해 딥 러닝 칩에 단지 하나의 논리 유닛만이 에러 유닛이고 나머지 논리 유닛은 모두 완전하고 손상이 없는 것일 지라도, 당해 딥 러닝 칩은 여전히 고장 칩으로 간주된다. 따라서, 전통적인 딥 러닝 칩을 검출하는 방법은 딥 러닝 칩을 크게 낭비하게 된다.
본 개시의 실시예에 따르면, 딥 러닝 칩을 검출하는 방안이 제기된다. 당해 방안은, 검출할 딥 러닝 칩 내의 복수의 논리 유닛을 검출할 수 있는바, 에러 유닛이 발견되는 경우, 에러 유닛의 개수와 딥 러닝 칩의 논리 유닛의 전체 수량의 비율을 소정의 비율과 비교하여 소정 역치를 초과하지 않으면 당해 딥 러닝 칩을 여전히 합격 칩으로 간주한다. 구체적으로, 딥 러닝 칩의 복수의 추론 논리 유닛을 검출을 검출할 수 있다. 현재의 딥 러닝 칩은 전력 소비의 제한이 있으므로 그에 있는 모든 추론 논리 유닛은 통상적으로 전부가 동작하지는 않으며, 따라서 개별적인 추론 논리 유닛이 에러 유닛으로 검출되더라도 에러 칩의 정보를 저장하고 당해 딥 러닝 칩이 사용될 때 당해 에러 유닛을 사용 금지시키기만 하면 된다. 본 개시의 칩 검출 방안은 칩의 불합격을 판정하는 표준을 상세화시킴으로써 칩 이용률을 향상시키고 상당한 비용을 절감시킨다.
아래, 첨부 도면을 참조하여 본 개시의 실시예에 대해 구체적으로 설명하고자 한다. 도 1은 본 개시의 복수의 실시예가 구현될 수 있는 예시 환경(100)의 개략도를 도시한다. 도 1에 도시한 바와 같이, 예시 환경(100)은 검출 기기(110), 검출할 칩(120) 및 검출 결과(130)를 포함한다. 검출할 칩(120)은 데이터 센터에 사용되는 딥 러닝 칩일 수 있는바, 이는 음성 인식, 이미지 처리, 기계 번역, 검색 추천 등 딥 러닝 알고리즘에 기반하는 업무 시나리오를 지원 가능하다. 검출 기기(110)는 검출할 칩(120)을 받아서 예를 들면 자동 시험 장치(ATE)로 검색하는 기술에 의해 검출할 칩(120)의 검출 결과(130)를 결정할 수 있다.
도 1에서, 검출할 칩(120)의 검출 결과(130)를 생성하는 관건은 두 가지가 있다. 하나는, 검출 기기(110)가 검출할 칩(120)의 복수의 논리 유닛을 검출하는 것이다. 유의하여야 할 점은, 여기서 검출하려는 검출할 칩(120)은 검출을 받은 적이 없는 칩일 수도 있고 전통적인 검출 기기에 의한 검출에 실패한 칩일 수도 있다. 다른 하나로는, 고장이 발생한 논리 유닛이 검출되면 검출 기기(110)는 나아가 고장 유닛이 모든 논리 유닛에서 차지하는 비율이 충분히 작은지를 판단하여야 하는바, 충분히 작은 경우, 당해 검출할 칩(120)은 여전히 합격 칩으로 결정될 수 있다. 따라서 검출 결과(130)에 반영되는 칩 이용률이 현저히 향상된다. 아래, 도 2를 통해 복수의 논리 유닛을 포함하는 검출할 칩(120)의 구조를 상세히 설명하고자 한다.
도 2는 본 개시의 실시예에 따른 딥 러닝 칩(120)의 개략도를 도시한다. 도 2에 도시한 바와 같이, 딥 러닝 칩(120)은 복수의 딥 러닝의 추론 조작을 수행하는 추론 논리 유닛(210, 211, ..., M) 및 딥 러닝의 트레이닝 조작을 수행하는 트레이닝 논리 유닛(220, 221, ..., N)을 포함함다. 또한, 딥 러닝 칩(120)은 에러 유닛의 정보를 기록하는, 온칩(on-chip)형의 전기적 프로그래밍 가능 퓨즈(eFUSE)와 같은 저장 유닛(230)을 더 포함한다
분명하게 하고자, 본 개시의 도 2는 몇몇 논리 유닛 및 저장 유닛만을 도시하고 기타의 기능 유닛은 도시하지 않았다. 또한, 예시의 목적으로 딥 러닝 칩(120)의 구조와 기능을 설명한 것으로 본 명세서에서 설명하는 주제의 범위를 한정하고자 하는 것이 아님을 이해하여야 한다. 본 명세서에서 설명하는 주제는 부동한 구조 및/또는 기능에서 구현될 수 있다. 예시로, 저장 유닛(230)과 기타의 필수 컴포넌트 외에, 딥 러닝 칩(120)은 복수의 딥 러닝의 추론 조작을 수행하는 추론 논리 유닛(210, 211, ..., M) 또는 딥 러닝의 트레이닝 조작을 수행하는 트레이닝 논리 유닛(220, 221, ..., N)만을 포함할 수 있다. 상술한 방안의 원리를 더 분명하게 해석하기 위해, 아래, 도 3을 참조하여 딥 러닝 칩을 검출하는 과정에 대해 더 상세히 설명하고자 한다.
도 3은 본 개시의 실시예에 따른 딥 러닝 칩을 검출하는 과정(300)의 흐름도를 도시한다. 과정(300)은 도 1의 검출 기기(110)에 의해 구현 가능하다. 설명의 편의를 위해, 도 1 및 도 2를 결부하여 과정(300)에 대해 설명하도록 한다.
단계 310에서, 검출 기기(110)는 검출할 칩(120)으로서의 딥 러닝 칩 내의 복수의 논리 유닛을 검출한다. 예시로, 검출할 칩(120)은 딥 러닝에 사용되는 추론 칩일 수 있는바, 이때 당해 복수의 논리 유닛은 딥 러닝의 추론 조작을 수행한다. 또한, 검출할 칩(120)은 딥 러닝에 사용되는 트레이닝 칩일 수도 있는바, 이때 당해 복수의 논리 유닛은 딥 러닝의 트레이닝 조작을 수행한다. 또한, 검출할 칩(120)은 추론 및 트레이닝 칩일 수도 있는바, 추론 조작 및 트레이닝 조작 중의 적어도 하나의 조작을 수행한다. 도 2에 도시한 바와 같이, 검출 기기(110)는 검출할 칩(120)에 포함된, 딥 러닝의 추론 조작을 수행하는 추론 논리 유닛(210, 211, ..., M) 및 딥 러닝의 트레이닝 조작을 수행하는 트레이닝 논리 유닛(220, 221, ..., N)을 검출한다.
단계 320에서, 검출 기기(110)는 상술한 복수의 논리 유닛에서 검출에 실패한 에러 유닛을 획득한다. 예시로, 도 2의 임의의 추론 논리 유닛(210, 211, ..., M) 또는 임의의 트레이닝 논리 유닛(220, 221, ..., N)은 모두 에러 유닛으로 검출될 수 있다. 이후, 검출 기기(110)는 에러 유닛의 개수를 통계할 수 있다. 이러한 방식으로, 검출 기기(110)는 검출할 칩(120) 내의 각 논리 유닛을 모두 검출하는바, 이는 검출 과정을 상세화시킴으로써 후속의 더욱 정확한 검출 결과에 도움이 된다.
단계 330에서, 검출 기기(110)는 에러 유닛의 개수가 검출할 칩(120)의 논리 유닛의 전체 수량에서 차지하는 비율을 소정의 비율과 비교한다. 예시로, 당해 소정의 비율은 5%, 10%, 15% 또는 기타의 비율일 수 있고, 당해 소정의 비율의 크기는 검출할 칩(120)의 전력 제한에 따라 결정된다. 추론 논리 유닛을 예로 들면, 검출할 칩(120)은 딥 러닝 칩으로서 전력 제한을 가지므로 검출할 칩(120) 내의 모든 추론 논리 유닛이 동시에 동작하지는 않으며, 따라서 검출할 칩(120)에는 거의 영원히 유휴(idle)한 추론 논리 유닛이 존재하여 에러 유닛을 교체할 수 있다. 따라서, 에러 유닛의 개수가 지나치게 많은 것만 아니면 에러 유닛을 교체할만한 유휴한 추론 논리 유닛이 충분히 있게 된다. 또한, 칩의 제조 비용을 대폭 상승시킬 것이므로 전통적인 리던던시(redundancy) 설계 방식은 딥 러닝 칩 내의 각 논리 유닛에 적용되기에는 부적합하다. 계속하여, 만약 당해 비율이 소정의 비율보다 낮거나 같다면, 단계 340으로 진입한다.
단계 340에서, 검출 기기(110)는 검출할 칩(120)으로서의 딥 러닝 칩을 합격 칩으로 결정한다. 추론 논리 유닛을 예로 들면, 검출할 칩(120) 내의 상술한 복수의 논리 유닛이 추론 조작을 수행하는 복수의 추론 논리 유닛만을 포함하고 에러 유닛의 개수가 검출할 칩(120)의 추론 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 낮거나 같다면 에러 유닛의 정보를 검출할 칩(120)의 저장 유닛(230)에 기록하여, 검출할 칩(120)에 의해 추론 조작이 수행되는 경우 당해 에러 유닛을 사용 금지시키도록 한다. 이러한 방식에 따르면, 전통적인 검출 기기에 실패한 상당히 많은 칩이 재이용될 수 있어서 불필요한 낭비가 줄게 된다.
또한, 트레이닝 논리 유닛을 예로 들면, 검출할 칩(120) 내의 상술한 복수의 논리 유닛이 트레이닝 조작을 수행하는 복수의 트레이닝 논리 유닛만을 포함하고, 에러 유닛의 개수가 검출할 칩(120)의 트레이닝 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 낮거나 같다면 에러 유닛의 정보를 검출할 칩(120)의 저장 유닛(230)에 기록하여, 검출할 칩(120)에 의해 트레이닝 조작이 수행되는 경우 에러 유닛을 사용 금지시키도록 한다. 이러한 방식에 따르면, 마찬가지로 칩 이용률을 향상시킬 수 있고 낭비를 피할 수 있다.
일부 실시예에서, 검출할 칩(120)은 추론 논리 유닛도 포함하고 트레이닝 논리 유닛도 포함하는 딥 러닝 칩일 수 있는바, 따라서 상술한 복수의 논리 유닛은 도 2에 도시한 바와 같이 추론 조작을 수행하는 복수의 추론 논리 유닛(210, 211, ..., M)을 포함할 수도 있고 트레이닝 조작을 수행하는 복수의 트레이닝 논리 유닛(220, 221, ..., N)을 포함할 수도 있다. 이때, 복수의 추론 논리 유닛(210, 211, ..., M)에 에러 유닛이 존재한다면 검출할 칩(120)을 딥 러닝의 트레이닝 조작만을 수행하는 것으로 설정하고, 복수의 트레이닝 논리 유닛(220, 221, ..., N)에 에러 유닛이 존재한다면 검출할 칩(120)을 딥 러닝의 추론 조작만을 수행하는 것으로 설정한다. 대안으로 또는 추가적으로, 복수의 트레이닝 논리 유닛(220, 221, ..., N)에 에러 유닛이 존재하지 않는다면 검출할 칩(120)을 딥 러닝의 추론 조작과 트레이닝 조작 중 적어도 하나의 조작을 수행하는 것으로 설정한다. 이러한 방식에 따르면, 딥 러닝 칩의 일부 기능을 선택적으로 포기할 수 있고, 그러나 딥 러닝 칩의 기타의 부분은 여전히 사용 가능하다.
일부 실시예에서, 에러 유닛의 개수가 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 높은 경우, 검출 기기(110)는 검출할 칩(120)으로서의 딥 러닝 칩을 고장 칩으로 결정한다.
본 개시에서, 저장 유닛(230)은 온칩형의 전기적 프로그래밍 가능 퓨즈일 수 있고 복수의 추론 논리 유닛(210, 211, ..., M)은 인공지능 보조처리 유닛 SDCDNN 및 인공지능 프로세서 XPU 중의 적어도 하나의 유닛일 수 있다.
본 개시의 하나 또는 복수의 구현 방식에 따르면, 검출 결과(130)를 획득할 수 있다. 딥 러닝 칩에 복수의 같은 또는 중복되는 논리 유닛이 포함되는 특성이 이용되므로, 검출 기기(110)는 검출할 칩(120)에 소량의 에러 유닛이 존재하는 상황을 허용하는 것으로, 이로써 당해 검출 결과(130)에서의 칩 이용률은 전통적인 검출 기기에 의한 검출 결과에 비하여 현저히 높게 된다.
전통 기술에 비하면, 본 개시의 방안은, 칩 검출 조작을 딥 러닝 칩 내의 각 논리 유닛에 대한 검출로 상세화시킴으로써 칩 면적을 증가시키지 않고 칩의 정상적인 동작 성능에 영향을 주지 않으면서 본 명세서에서 언급되는 딥 러닝 칩에서 SRAM 외 기타의 칩 면적의 70%를 차지하는 논리 유닛으로 하여금 에러가 발생되는 가능성을 가질 수 있도록 하고 에러 유닛을 가지는 대부분의 칩이 모두 이용될 수 있도록 함으로써, 딥 러닝 칩의 이용률을 현저히 향상시키고 칩 비용을 절감시키는바, 나아가 칩의 시장 경쟁력을 증가시키는 데 있어서 그 의미가 있다.
상기에서는 일부 예시 시나리오에 있어서 추론 논리 유닛과 트레이닝 논리 유닛을 종합한 딥 러닝 칩의 검출 방안에 대해 설명하였다. 그러나, 이해하여야 할 바는, 이러한 시나리오에 대한 설명은 단지 예시의 방식으로 본 개시의 실시예를 해석하고 설명하기 위한 것일 뿐이다. 실제 필요에 따라, 부동한 또는 유사한 시나리오에서 부동한 검출 객체를 선택할 수도 있다. 본 개시의 기술안은 딥 러닝 칩 내의 기타의 중복되는 유닛을 검출하는 데 응용되는 경우 마찬가지로 상기에서 언급되는 여러 가지 이점을 가질 수 있다.
도 4는 본 개시의 실시예에 따른 딥 러닝 칩을 검출하는 장치(400)의 개략적인 블록도를 도시한다. 장치(400)는 도 1의 검출 기기(110)에 포함되거나 또는 검출 기기(110)로 구현될 수 있다. 도 4에 도시한 바와 같이, 장치(400)는 딥 러닝 칩 내의 복수의 논리 유닛을 검출하도록 구성되는 논리 유닛 검출 모듈(410)을 포함할 수 있고, 당해 복수의 논리 유닛은 딥 러닝의 추론 조작과 트레이닝 조작 중 적어도 하나의 조작을 수행한다. 장치(400)는 당해 복수의 논리 유닛에서 검출에 실패한 에러 유닛을 획득하도록 구성되는 에러 유닛 획득 모듈(420)을 더 포함할 수 있다. 또한, 장치(400)는 에러 유닛의 개수가 복수의 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 낮거나 같은 것에 응답하여, 딥 러닝 칩을 합격 칩으로 결정하도록 구성되는 합격 칩 결정 모듈(430)을 더 포함할 수 있다.
일부 실시예에서, 당해 복수의 논리 유닛은 추론 조작을 수행하는 복수의 추론 논리 유닛을 포함할 수 있고, 합격 칩 결정 모듈(430)은 딥 러닝 칩에 의해 추론 조작이 수행되는 경우 당해 에러 유닛의 사용이 금지되도록, 에러 유닛의 정보를 딥 러닝 칩의 저장 유닛에 기록하도록 구성되는 제1 정보 기록 모듈(미도시)을 포함할 수 있다.
일부 실시예에서, 당해 복수의 논리 유닛은 트레이닝 조작을 수행하는 복수의 트레이닝 논리 유닛을 포함할 수 있고, 합격 칩 결정 모듈(430)은 딥 러닝 칩에 의해 트레이닝 조작이 수행되는 경우 에러 유닛의 사용이 금지되도록, 에러 유닛의 정보를 딥 러닝 칩의 저장 유닛에 기록하도록 구성되는 제2 정보 기록 모듈(미도시)을 포함할 수 있다.
일부 실시예에서, 당해 복수의 논리 유닛은 추론 조작을 수행하는 복수의 추론 논리 유닛 및 트레이닝 조작을 수행하는 복수의 트레이닝 논리 유닛을 포함할 수 있고, 당해 장치(400)는 복수의 추론 논리 유닛에 에러 유닛이 존재하는 것에 응답하여, 딥 러닝 칩을 딥 러닝의 트레이닝 조작만 수행하도록 설정하는 트레이닝 조작 설정 모듈(미도시)을 더 포함할 수 있다. 또는, 당해 장치(400)는 복수의 트레이닝 논리 유닛에 에러 유닛이 존재하는 것에 응답하여, 딥 러닝 칩을 딥 러닝의 추론 조작만 수행하도록 설정하는 추론 조작 설정 모듈(미도시)을 더 포함할 수 있다.
일부 실시예에서, 당해 장치(400)는 복수의 트레이닝 논리 유닛에 에러 유닛이 존재하지 않는 것에 응답하여, 딥 러닝 칩을 딥 러닝의 추론 조작과 트레이닝 조작 중 적어도 하나의 조작을 수행하도록 구성되는 조작 설정 모듈(미도시)을 더 포함할 수 있다.
일부 실시예에서, 당해 장치(400)는 에러 유닛의 개수가 복수의 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 높은 것에 응답하여, 딥 러닝 칩을 고장 칩으로 결정하도록 구성되는 고장 칩 결정 모듈(미도시)을 더 포함할 수 있다.
일부 실시예에서, 저장 유닛은 온칩형의 전기적 프로그래밍 가능 퓨즈일 수 있고, 복수의 추론 논리 유닛은 인공지능 보조처리 유닛 SDCDNN 및 인공지능 프로세서 XPU 중 적어도 하나를 포함할 수 있다.
본 개시의 하나 또는 복수의 구현 방식에 따르면, 상술한 각 실시예의 장치(400)가, 딥 러닝 칩에 복수의 같은 또는 중복되는 논리 유닛이 포함되는 특성을 이용하므로, 장치(400)는 딥 러닝 칩에 소량의 에러 유닛이 존재하는 상황을 허용하는 것으로, 이로써 검출 결과에서의 칩 이용률은 전통적인 검출 기기에 의한 검출 결과에 비하여 현저히 높게 된다.
도 5은 본 개시의 실시예를 구현 가능한 예시 기기(500)의 개략적 블록도를 도시한다. 기기(500)는 도 1에 도시한 컴퓨팅 기기(110)를 구현할 수 있다. 도시한 바와 같이, 기기(500)는 중앙 처리 유닛(CPU)(501)을 포함하는바, 이는 읽기 전용 메모리(ROM)(502)에 저장된 컴퓨터 프로그램 명령어 또는 저장 유닛(508)로부터 랜덤 액세스 메모리(RAM)(503)에 로딩된 컴퓨터 프로그램 명령어에 따라 여러 가지 적당한 동작과 처리를 실행한다. RAM(503)에는 또한 기기(500) 조작에 필요한 여러 가지 프로그램과 데이터를 저장할 수 있다. CPU(501), ROM(502) 및 RAM(503)는 버스(504)를 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(505)도 버스(504)에 연결된다.
기기(500) 중의 복수의 부품은 I/O 인터페이스(505)에 연결되는바, 입력 유닛(506), 예를 들어 키보드, 마우스 등; 출력 유닛(507), 예를 들어 여러 가지 유형의 디스플레이, 스피커 등; 저장 유닛(508), 예를 들어 자기 디스크, 광디스크 등; 및 통신 유닛(509), 예를 들어 네트워크 카드, 모뎀, 무선 통신 송수신기 등을 포함한다. 통신 유닛(509)은 기기(500)가 인터넷과 같은 컴퓨터 네트워크 및/또는 여러 가지 전기 통신 네트워크를 통하여 기타 기기와 정보/데이터를 교환하도록 허용한다.
CPU(501)은 상기에서 설명된 각각의 방법 및 처리를 실행하는바, 예를 들어 과정(300)이다. 예를 들어, 일부 실시예에서, 과정(300)은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있는바, 이는 기계 판독 가능 매체, 예를 들어 저장 유닛(508)에 유형적으로 포함된다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전부가 ROM(502) 및/또는 통신 유닛(509)을 통하여 기기(500)에 로딩 및/또는 설치될 수 있다. 컴퓨터 프로그램이 RAM(503)에 로딩되어 CPU(501)에 의해 실행될 시, 상기에서 설명된 과정(300)의 하나 또는 복수의 단계를 실행할 수 있다. 대안적으로, 기타 실시예에서, CPU(501)는 기타 임의의 적당한 방식을 통해(예를 들어, 펌웨어의 도움으로) 과정(300)을 실행하도록 구성될 수 있다.
본 명세서 상기에서 설명된 기능은 적어도 일부가 하나 또는 복수의 하드웨어 논리 부품에 의하여 수행될 수 있다. 예를 들어,비한정적으로,사용 가능한 시범 유형의 하드웨어 논리 부품은 필드 프로그램 가능 게이트 어레이(FPGA), 주문형 집적 회로(ASIC), 특정 용도 표준 제품(ASSP), 시스템 온 칩(SOC), 복합 프로그래머블 논리 디바이스(CPLD) 등을 포함한다.
본 개시의 방법을 구현하기 위한 프로그램 코드는 하나 또는 복수의 프로그래밍 언어의 임의의 조합을 적용하여 작성할 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그램 가능 데이터 처리 장치의 프로세서 또는 제어기에 제공되어 프로그램 코드가 프로세서 또는 제어기에 의해 실행될 시 흐름도 및/또는 블록도에 규정한 기능/조작이 구현되도록 할 수 있다. 프로그램 코드는 기계에서 전부 실행되거나, 기계에서 일부 실행되거나, 독립적인 소프트웨어 패키지로서 일부는 기계에서 실행되고 일부는 원격 기계에서 실행되거나, 혹은 원격 기계 또는 서버에서 전부 실행될 수 있다.
본 개시의 전반 서술에서, 기계 판독 가능 매체는 유형의 매체일 수 있는바, 이는, 명령어 실행 시스템, 장치 또는 기기에 사용하기 위한, 또는 명령어 실행 시스템, 장치 또는 기기와 결합하여 사용하기 위한 프로그램을 포함 또는 저장할 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자의, 자성의, 광학의, 전자기의, 적외선의 또는 반도체의 시스템, 장치 또는 기기, 또는 상술한 내용의 임의의 적합한 조합을 포함할 수 있으나 이에 한정되지 않는다. 기계 판독 가능 저장 매체의 더 구체적인 예시는 휴대형 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 소거 및 프로그램 가능 읽기 전용 메모리(EPROM 또는 플래시 메모리), 휴대용 콤팩트 디스크 읽기 전용 메모리(CD-ROM), 광학 저장 기기, 자기 저장 기기, 또는 상술한 내용의 임의의 적합한 조합을 포함하게 된다.
이 외에, 비록 각 조작을 묘사함에 있어서 특정 순서를 적용하였지만, 이러한 조작이 도시된 특정 순서로 또는 순차적 순서로 실행되어야 하거나, 또는 모든 도시한 조작이 실행되어야 하는 것으로, 이로써 기대하는 결과를 취득하기 위한 것임을 이해하여야 한다. 일정한 환경에서는, 다중 태스크 및 병렬 처리가 유익할 수 있다. 마찬가지로, 비록 상기의 설명에는 약간의 구체 구현 디테일이 포함되지만, 이러한 것은 본 개시의 범위에 대한 제한으로 해석되어서는 안된다. 단독의 실시예의 전반 서술에서 설명되는 어떤 특징 또한, 조합 가능하게 하나의 구현에 구현될 수 있다. 반대로, 하나의 구현의 전반 서술에서 설명되는 여러 가지 특징도 단독으로 또는 임의의 적합한 서브조합의 방식으로 복수의 실시예에 의해 구현될 수 있다.
비록 이미 구조적 특징 및/또는 방법론적 동작에 특정된 언어를 적용하여 본 주제에 대해 설명하였지만, 첨부된 특허청구범위가 한정하는 주제는 상기에서 설명한 특정 특징 또는 동작에 한정되는 것이 아님을 이해하여야 한다. 반대로, 위에서 설명한 특정 특징 및 동작은 단지 특허청구범위의 예시 형식을 구현하는 것일 뿐이다.

Claims (16)

  1. 딥 러닝 칩을 검출하는 방법에 있어서,
    상기 딥 러닝 칩 내의 복수의 논리 유닛을 검출하는 단계 - 상기 복수의 논리 유닛은 딥 러닝의 추론 조작과 트레이닝 조작 중 적어도 하나의 조작을 수행함 - ;
    상기 복수의 논리 유닛에서 검출에 실패한 에러 유닛을 획득하는 단계; 및
    상기 에러 유닛의 개수가 상기 복수의 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 낮거나 같은 것에 응답하여, 상기 딥 러닝 칩을 합격 칩으로 결정하는 단계
    를 포함하고,
    상기 복수의 논리 유닛은,
    상기 추론 조작을 수행하는 복수의 추론 논리 유닛, 및
    상기 트레이닝 조작을 수행하는 복수의 트레이닝 논리 유닛
    을 포함하고,
    상기 방법은,
    상기 복수의 추론 논리 유닛에 상기 에러 유닛이 존재하는 것에 응답하여, 상기 딥 러닝 칩을 딥 러닝의 상기 트레이닝 조작만 수행하도록 설정하는 단계; 또는
    상기 복수의 트레이닝 논리 유닛에 상기 에러 유닛이 존재하는 것에 응답하여, 상기 딥 러닝 칩을 딥 러닝의 상기 추론 조작만 수행하도록 설정하는 단계
    를 더 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 방법.
  2. 제1항에 있어서,
    상기 복수의 논리 유닛은,
    상기 추론 조작을 수행하는 복수의 추론 논리 유닛
    을 포함하고,
    상기 딥 러닝 칩을 상기 합격 칩으로 결정하는 단계는,
    상기 딥 러닝 칩에 의해 상기 추론 조작이 수행되는 경우 상기 에러 유닛의 사용이 금지되도록, 상기 에러 유닛의 정보를 상기 딥 러닝 칩의 저장 유닛에 기록하는 단계
    를 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 방법.
  3. 제1항에 있어서,
    상기 복수의 논리 유닛은,
    상기 트레이닝 조작을 수행하는 복수의 트레이닝 논리 유닛
    을 포함하고,
    상기 딥 러닝 칩을 상기 합격 칩으로 결정하는 단계는,
    상기 딥 러닝 칩에 의해 상기 트레이닝 조작이 수행되는 경우 상기 에러 유닛의 사용이 금지되도록, 상기 에러 유닛의 정보를 상기 딥 러닝 칩의 저장 유닛에 기록하는 단계
    를 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 복수의 트레이닝 논리 유닛에 상기 에러 유닛이 존재하지 않는 것에 응답하여, 상기 딥 러닝 칩을 딥 러닝의 상기 추론 조작과 상기 트레이닝 조작 중의 적어도 하나의 조작을 수행하도록 설정하는 단계
    를 더 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 방법.
  6. 제1항에 있어서,
    상기 에러 유닛의 개수가 상기 복수의 논리 유닛의 전체 수량에서 차지하는 비율이 상기 소정의 비율보다 높은 것에 응답하여, 상기 딥 러닝 칩을 고장 칩으로 결정하는 단계
    를 더 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 방법.
  7. 제2항에 있어서,
    상기 저장 유닛은 온칩형의 전기적 프로그래밍 가능 퓨즈이고,
    상기 복수의 추론 논리 유닛은 인공지능 보조처리 유닛 SDCDNN 및 인공지능 프로세서 XPU 중 적어도 하나를 포함하는,
    것을 특징으로 하는 딥 러닝 칩을 검출하는 방법.
  8. 딥 러닝 칩을 검출하는 장치에 있어서,
    상기 딥 러닝 칩 내의 복수의 논리 유닛을 검출하도록 구성되는 논리 유닛 검출 모듈 - 상기 복수의 논리 유닛은 딥 러닝의 추론 조작과 트레이닝 조작 중 적어도 하나의 조작을 수행함 - ;
    상기 복수의 논리 유닛에서 검출에 실패한 에러 유닛을 획득하도록 구성되는 에러 유닛 획득 모듈; 및
    상기 에러 유닛의 개수가 상기 복수의 논리 유닛의 전체 수량에서 차지하는 비율이 소정의 비율보다 낮거나 같은 것에 응답하여, 상기 딥 러닝 칩을 합격 칩으로 결정하도록 구성되는 합격 칩 결정 모듈
    을 포함하고,
    상기 복수의 논리 유닛은,
    상기 추론 조작을 수행하는 복수의 추론 논리 유닛, 및
    상기 트레이닝 조작을 수행하는 복수의 트레이닝 논리 유닛
    을 포함하고
    상기 장치는,
    상기 복수의 추론 논리 유닛에 상기 에러 유닛이 존재하는 것에 응답하여, 상기 딥 러닝 칩을 딥 러닝의 상기 트레이닝 조작만 수행하도록 설정하는 트레이닝 조작 설정 모듈; 또는
    상기 복수의 트레이닝 논리 유닛에 상기 에러 유닛이 존재하는 것에 응답하여, 상기 딥 러닝 칩을 딥 러닝의 상기 추론 조작만 수행하도록 설정하는 추론 조작 설정 모듈
    을 더 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 장치.
  9. 제8항에 있어서,
    상기 복수의 논리 유닛은,
    상기 추론 조작을 수행하는 복수의 추론 논리 유닛
    을 포함하고,
    상기 합격 칩 결정 모듈은,
    상기 딥 러닝 칩에 의해 상기 추론 조작이 수행되는 경우 상기 에러 유닛의 사용이 금지되도록, 상기 에러 유닛의 정보를 상기 딥 러닝 칩의 저장 유닛에 기록하도록 구성되는 제1 정보 기록 모듈
    을 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 장치.
  10. 제8항에 있어서,
    상기 복수의 논리 유닛은,
    상기 트레이닝 조작을 수행하는 복수의 트레이닝 논리 유닛
    을 포함하고,
    상기 합격 칩 결정 모듈은,
    상기 딥 러닝 칩에 의해 상기 트레이닝 조작이 수행되는 경우 상기 에러 유닛의 사용이 금지되도록, 상기 에러 유닛의 정보를 상기 딥 러닝 칩의 저장 유닛에 기록하도록 구성되는 제2 정보 기록 모듈
    을 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 장치.
  11. 삭제
  12. 제8항에 있어서,
    상기 복수의 트레이닝 논리 유닛에 상기 에러 유닛이 존재하지 않는 것에 응답하여, 상기 딥 러닝 칩을 딥 러닝의 상기 추론 조작과 상기 트레이닝 조작 중의 적어도 하나의 조작을 수행하도록 설정하는 조작 설정 모듈
    을 더 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 장치.
  13. 제8항에 있어서,
    상기 에러 유닛의 개수가 상기 복수의 논리 유닛의 전체 수량에서 차지하는 비율이 상기 소정의 비율보다 높은 것에 응답하여, 상기 딥 러닝 칩을 고장 칩으로 결정하도록 구성되는 고장 칩 결정 모듈
    을 더 포함하는 것을 특징으로 하는 딥 러닝 칩을 검출하는 장치.
  14. 제9항 또는 제10항에 있어서,
    상기 저장 유닛은 온칩형의 전기적 프로그래밍 가능 퓨즈이고,
    상기 복수의 추론 논리 유닛은 인공지능 보조처리 유닛 SDCDNN 및 인공지능 프로세서 XPU 중 적어도 하나를 포함하는,
    것을 특징으로 하는 딥 러닝 칩을 검출하는 장치.
  15. 전자 기기에 있어서,
    하나 또는 복수의 프로세서; 및
    하나 또는 복수의 프로그램을 저장하는 저장 장치
    를 포함하고,
    상기 하나 또는 복수의 프로그램이 상기 하나 또는 복수의 프로세서에 의해 실행될 경우, 상기 하나 또는 복수의 프로세서가 제1항 내지 제3항, 제5항 내지 제7항 중 어느 한 항의 방법을 구현하는,
    것을 특징으로 하는 전자 기기.
  16. 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1항 내지 제3항, 제5항 내지 제7항 중 어느 한 항의 방법이 구현되는,
    것을 특징으로 하는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램.

KR1020200016999A 2019-06-26 2020-02-12 딥 러닝 칩을 검출하는 방법, 장치, 전자 기기 및 컴퓨터 저장 매체 KR102216281B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910559182.9A CN112148536A (zh) 2019-06-26 2019-06-26 检测深度学习芯片的方法、装置、电子设备和计算机存储介质
CN201910559182.9 2019-06-26

Publications (2)

Publication Number Publication Date
KR20210001882A KR20210001882A (ko) 2021-01-06
KR102216281B1 true KR102216281B1 (ko) 2021-02-16

Family

ID=70056810

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200016999A KR102216281B1 (ko) 2019-06-26 2020-02-12 딥 러닝 칩을 검출하는 방법, 장치, 전자 기기 및 컴퓨터 저장 매체

Country Status (5)

Country Link
US (1) US11615296B2 (ko)
EP (1) EP3758003B1 (ko)
JP (1) JP6993472B2 (ko)
KR (1) KR102216281B1 (ko)
CN (1) CN112148536A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116609642B (zh) * 2023-07-18 2023-09-19 上海孤波科技有限公司 芯片测试误差的补偿方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309867A (ja) * 2004-04-22 2005-11-04 Fujitsu Ltd マルチコア・プロセサ試験方法
KR101820221B1 (ko) * 2014-12-14 2018-02-28 비아 얼라이언스 세미컨덕터 씨오., 엘티디. 프로그래머블 로드 리플레이 억제 메커니즘
CN109684087A (zh) * 2018-12-17 2019-04-26 北京中科寒武纪科技有限公司 运算方法、装置及相关产品

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067633A (en) * 1998-03-31 2000-05-23 International Business Machines Corp Design and methodology for manufacturing data processing systems having multiple processors
US7610537B2 (en) 2006-04-04 2009-10-27 International Business Machines Corporation Method and apparatus for testing multi-core microprocessors
JP2011215853A (ja) 2010-03-31 2011-10-27 Renesas Electronics Corp 半導体装置、半導体装置の制御方法
US8856602B2 (en) * 2011-12-20 2014-10-07 International Business Machines Corporation Multi-core processor with internal voting-based built in self test (BIST)
US9575120B2 (en) * 2013-03-29 2017-02-21 International Business Machines Corporation Scan chain processing in a partially functional chip
US10541044B2 (en) * 2016-10-31 2020-01-21 Qualcomm Incorporated Providing efficient handling of memory array failures in processor-based systems
US10552270B2 (en) * 2016-12-22 2020-02-04 Intel Corporation Systems and methods for in-field core failover
EP3998539A1 (en) * 2016-12-30 2022-05-18 INTEL Corporation Deep learning hardware
JP6854473B2 (ja) 2017-04-17 2021-04-07 セレブラス システムズ インク. 加速化ディープラーニングのデータフロー・トリガー・タスク
JP2019003588A (ja) 2017-06-12 2019-01-10 正仁 櫨田 Cpuチップ上のコア・ブロックの1個が動作していなかったり、コア・ブロック内のトランジスターが熱崩壊をして異常な消費電流値を示してコア・ブロックが熱破壊した場合等に、cpuのコア・ブロックの今現在の全部の状態をレジスター群に保存してcpuのコア・ブロック自体へのシステム・クロックの供給や電力供給を停止してcpu自体の発熱や消費電力を抑え、cpuの動作を元の状態に復元してプログラムを再実行する時には、外部割込みに依り、cpuのコア・ブロックにシステム・クロックを再供給してレジスター群から情報を読み込んでcpuの状態を戻して、システム・クロックに従ってプログラム・カウンターの値から、メモリー上のプログラムを再起動する方法。
US20190303741A1 (en) * 2018-03-30 2019-10-03 International Business Machines Corporation Defect resistant designs for location-sensitive neural network processor arrays
US11442889B2 (en) * 2018-09-28 2022-09-13 Intel Corporation Dynamic deep learning processor architecture

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309867A (ja) * 2004-04-22 2005-11-04 Fujitsu Ltd マルチコア・プロセサ試験方法
KR101820221B1 (ko) * 2014-12-14 2018-02-28 비아 얼라이언스 세미컨덕터 씨오., 엘티디. 프로그래머블 로드 리플레이 억제 메커니즘
CN109684087A (zh) * 2018-12-17 2019-04-26 北京中科寒武纪科技有限公司 运算方法、装置及相关产品

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
비특허문헌(2018.05.22)*

Also Published As

Publication number Publication date
CN112148536A (zh) 2020-12-29
US20200410332A1 (en) 2020-12-31
EP3758003B1 (en) 2022-03-02
JP2021005379A (ja) 2021-01-14
US11615296B2 (en) 2023-03-28
KR20210001882A (ko) 2021-01-06
JP6993472B2 (ja) 2022-01-13
EP3758003A1 (en) 2020-12-30

Similar Documents

Publication Publication Date Title
Lin et al. Predicting node failure in cloud service systems
US10235277B2 (en) Method of detecting false test alarms using test step failure analysis
US20150006451A1 (en) Document classification system with user-defined rules
WO2019056720A1 (zh) 自动化测试用例管理方法、装置、设备及存储介质
US8935643B2 (en) Parameter matching hotspot detection
CN111897493B (zh) 存储空间管理方法、装置及电子设备、存储介质
US20210263837A1 (en) Real time fault localization using combinatorial test design techniques and test case priority selection
US8509517B2 (en) Method and system for systematic defect identification
KR102216281B1 (ko) 딥 러닝 칩을 검출하는 방법, 장치, 전자 기기 및 컴퓨터 저장 매체
CN108829903B (zh) 判定fpga冗余设计的代码与综合后电路一致性的方法和系统
CN112380127B (zh) 测试用例回归方法、装置、设备和存储介质
US10055341B2 (en) To-be-stubbed target determining apparatus, to-be-stubbed target determining method and non-transitory recording medium storing to-be-stubbed target determining program
US8554522B2 (en) Detection of design redundancy
US20220237500A1 (en) Test case execution sequences
US20150161006A1 (en) Information processing apparatus and method for testing same
US20240193072A1 (en) Autosuggestion of involved code paths based on bug tracking data
CN116882361B (zh) 芯片缺陷分析方法、电子设备及存储介质
US20230418730A1 (en) Test case generator using automation library of an information handling system
KR102437098B1 (ko) 인공 지능 기반의 오류 데이터 판정 방법 및 그 장치
US20230334035A1 (en) Content based log retrieval by using embedding feature extraction
US20220343206A1 (en) System and method for assigning performance defects to software processing components
Xu Computer Hardware Fault Detection based on Machine Learning
CN117762693A (zh) 数据恢复方法及装置
CN117150014A (zh) 分类方法、装置、设备及存储介质
WO2023203493A1 (en) Similarity map-based outliers detection

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant