KR102625516B1 - 자기공명영상을 이용한 조란 분류 장치 - Google Patents

자기공명영상을 이용한 조란 분류 장치 Download PDF

Info

Publication number
KR102625516B1
KR102625516B1 KR1020230115576A KR20230115576A KR102625516B1 KR 102625516 B1 KR102625516 B1 KR 102625516B1 KR 1020230115576 A KR1020230115576 A KR 1020230115576A KR 20230115576 A KR20230115576 A KR 20230115576A KR 102625516 B1 KR102625516 B1 KR 102625516B1
Authority
KR
South Korea
Prior art keywords
egg
classification
magnetic resonance
bird
training
Prior art date
Application number
KR1020230115576A
Other languages
English (en)
Inventor
이두룡
오창현
김둘연
Original Assignee
춘천닭갈비생산자 영농조합법인
이두룡
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 춘천닭갈비생산자 영농조합법인, 이두룡 filed Critical 춘천닭갈비생산자 영농조합법인
Priority to KR1020230115576A priority Critical patent/KR102625516B1/ko
Application granted granted Critical
Publication of KR102625516B1 publication Critical patent/KR102625516B1/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K43/00Testing, sorting or cleaning eggs ; Conveying devices ; Pick-up devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/02Food
    • G01N33/08Eggs, e.g. by candling
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/28Details of apparatus provided for in groups G01R33/44 - G01R33/64
    • G01R33/32Excitation or detection systems, e.g. using radio frequency signals
    • G01R33/34Constructional details, e.g. resonators, specially adapted to MR
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2813/00Indexing codes relating to transport for special purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Environmental Sciences (AREA)
  • Food Science & Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Data Mining & Analysis (AREA)
  • Analytical Chemistry (AREA)
  • Medicinal Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biochemistry (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Animal Husbandry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 발명에 따른 자기공명영상을 이용한 조란 분류 장치는 조란을 촬영하여 생성된 자기공명영상에 기초하여 상기 조란이 제1 분류 기준에 따른 유정란인지 여부, 상기 조란이 제2 분류 기준에 따른 혈란인지 여부, 상기 조란이 제3 분류 기준에 따른 쌍란인지 여부, 상기 조란이 제4 분류 기준에 따른 파란인지 여부 및 상기 조란이 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부 중에서 하나 이상을 결정하도록 학습된 조란분류 인공지능 모델을 저장하는 메모리; 상기 자기공명영상을 상기 조란분류 인공지능 모델에 입력하여 상기 조란이 상기 제1 분류 기준에 따른 유정란인지 여부, 상기 조란이 상기 제2 분류 기준에 따른 혈란인지 여부, 상기 조란이 상기 제3 분류 기준에 따른 쌍란인지 여부, 상기 조란이 상기 제4 분류 기준에 따른 파란인지 여부 및 상기 조란이 상기 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부 중에서 하나 이상이 결정된 조란분류 결과 데이터를 상기 조란분류 인공지능 모델로부터 출력받는 프로세서; 및 상기 프로세서에 의해 제어되어 상기 조란분류 결과 데이터에 대응하여 상기 조란을 분류시키는 분류부;를 포함할 수 있다.

Description

자기공명영상을 이용한 조란 분류 장치{Apparatus for classifying egg using magnetic resonance imaging}
본 발명은 자기공명영상을 이용한 조란 분류 장치에 관한 것으로서, 더욱 상세하게는 조란분류 인공지능 모델에 조란의 자기공명영상을 입력하여 해당 조란이 유정란인지 여부, 무정란인지 여부, 혈란인지 여부, 쌍란인지 여부, 파란인지 여부, 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부인 분류결과 데이터를 출력받고, 분류결과 데이터에 대응하여 해당 조란을 컨베이어벨트에서 분류할 수 있는, 자기공명영상을 이용한 조란 분류 장치에 관한 것이다.
예로부터, 대량으로 계란을 출하하는 농가나 공장에서는 표면이 깨지거나 크랙이 발생한 상태인 파란, 난백이 혈액과 엉긴 상태인 혈란 등 상품으로는 불량한 계란을 선별하여 배제하고 양호한 상태인 계란만을 포장하는 작업에 상당한 노동력과 시간을 소모하였으나, 이러한 문제는 불량한 계란을 자동으로 선별하여 주는 계란 선별기가 개발되고 보급됨에 따라 점차 해소되어 가고 있다.
이러한 계란 선별기는 롤러 콘베이어 등의 이송장치에 의해 계사 등으로부터 이송되는 계란을 소정의 열수로 정렬시키고, 방향을 동일하게 정렬시킨 후 크랙 감지 또는 중량 측정 중 어느 하나 이상의 과정을 수행하는 선별용 장치이며, 이송되는 계란을 세척 후 건조시키는 과정을 더 포함하여 구성되는 등 그 종류에 따라 구성이나 방식 등이 다양하게 구성될 수 있다.
이와 관련하여, 종래의 기술은 고해상도의 카메라와 균일한 조명을 위한 비선형 형상의 확산기를 이용하여 계란 처리 장치를 따라 지속적으로 이송되는 복수의 계란 각각에 대한 다수의 고해상도 이미지를 생성하고, 이미지로 결함이 검출된 계란을 허용 가능한 것과 거부되어야 하는 것으로 분류함으로써 상품으로서의 품질에 이상이 없는 계란만을 선별적으로 출하할 수 있도록 하는 내용을 제시하고 있다.
다른 종래의 기술은 계란의 불량을 선별하는 불량 선별부와 중량을 선별하는 중량 선별부를 구비함으로써 깨진 계란을 효과적으로 색출해냄과 동시에 중량별로 신속하게 분류할 수 있고, 부가적으로는 착상을 파악하는 유정란 판독부를 구비함으로써 유정란과 무정란을 구분하여 개별 포장할 수 있도록 하는 내용을 제시하고 있다.
그러나 지금까지의 계란 선별기는 계란의 품질을 선별하는 과정에서 미세한 크랙이나 혈액을 검출하지 못하는 문제가 발생하는 등 선별의 신뢰도에 있어 문제가 있을 수 있고, 계란 내부 상태에 따라 선별되어야 하는 경우, 선별 자체를 수행할 수 없는 문제점이 있다.
한국등록특허 제10-1819469호
본 발명의 목적은, 조란분류 인공지능 모델에 조란의 자기공명영상을 입력하여 해당 조란이 유정란인지 여부, 무정란인지 여부, 혈란인지 여부, 쌍란인지 여부, 파란인지 여부, 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부인 분류결과 데이터를 출력받고, 분류결과 데이터에 대응하여 해당 조란을 컨베이어벨트에서 분류할 수 있는, 자기공명영상을 이용한 조란 분류 장치를 제공함에 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명에 따른 자기공명영상을 이용한 조란 분류 장치는 조란을 촬영하여 생성된 자기공명영상에 기초하여 상기 조란이 제1 분류 기준에 따른 유정란인지 여부, 상기 조란이 제2 분류 기준에 따른 혈란인지 여부, 상기 조란이 제3 분류 기준에 따른 쌍란인지 여부, 상기 조란이 제4 분류 기준에 따른 파란인지 여부 및 상기 조란이 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부 중에서 하나 이상을 결정하도록 학습된 조란분류 인공지능 모델을 저장하는 메모리; 상기 자기공명영상을 상기 조란분류 인공지능 모델에 입력하여 상기 조란이 상기 제1 분류 기준에 따른 유정란인지 여부, 상기 조란이 상기 제2 분류 기준에 따른 혈란인지 여부, 상기 조란이 상기 제3 분류 기준에 따른 쌍란인지 여부, 상기 조란이 상기 제4 분류 기준에 따른 파란인지 여부 및 상기 조란이 상기 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부 중에서 하나 이상이 결정된 조란분류 결과 데이터를 상기 조란분류 인공지능 모델로부터 출력받는 프로세서; 및 상기 프로세서에 의해 제어되어 상기 조란분류 결과 데이터에 대응하여 상기 조란을 분류시키는 분류부;를 포함할 수 있다.
상기 프로세서는 제1 복수의 훈련용 자기공명영상 및 제1 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제1 분류 기준에 따른 유정란인지 여부인 제1 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제1 훈련 데이터로 구성하고, 제2 복수의 훈련용 자기공명영상 및 제2 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제2 분류 기준에 따른 혈란인지 여부인 제2 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제2 훈련 데이터로 구성하고, 제3 복수의 훈련용 자기공명영상 및 제3 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제3 분류 기준에 따른 쌍란인지 여부인 제3 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제3 훈련 데이터로 구성하고, 제4 복수의 훈련용 자기공명영상 및 제4 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제4 분류 기준에 따른 파란인지 여부인 제4 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제4 훈련 데이터로 구성하고, 제5 복수의 훈련용 자기공명영상 및 제5 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부인 제5 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제5 훈련 데이터로 구성할 수 있다.
상기 프로세서는 상기 제1 훈련 데이터, 상기 제2 훈련 데이터, 상기 제3 훈련 데이터, 상기 제4 훈련 데이터 및 상기 제5 훈련 데이터 중 하나 이상을 이용하여 상기 조란분류 인공지능 모델을 학습시킬 수 있다.
본 발명에 따른 자기공명영상을 이용한 조란 분류 장치는 상기 프로세서에 의해 제어되어 상기 조란을 이동시키는 컨베이어부; 및 상기 프로세서에 의해 제어되어 상기 컨베이어부에 의해 이동되는 상기 조란을 촬영하여 상기 자기공명영상을 생성하는 촬영부;를 포함할 수 있다.
상기 프로세서는 상기 제1 분류 기준, 상기 제2 분류 기준, 상기 제3 분류 기준, 상기 제4 분류 기준 및 상기 제5 분류 기준 중 하나 이상에 기초하여 상기 컨베이어부에 의해 이동되는 상기 조란 각각이 상기 촬영부에 의해 촬영되는 촬영 영역을 설정하고, 상기 조란의 상기 촬영 영역이 촬영되도록 상기 켄베이어부 및 상기 촬영부를 제어할 수 있다.
상기 프로세서는 상기 자기공명영상에 대해 크롭, 회전, 색상 보정, 음영 보정, 노이즈 제거 중 하나 이상을 수행하여 전처리할 수 있다.
본 발명에 따르면, 조란분류 인공지능 모델에 조란의 자기공명영상을 입력하여 해당 조란이 유정란인지 여부, 무정란인지 여부, 혈란인지 여부, 쌍란인지 여부, 파란인지 여부, 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부인 분류결과 데이터를 출력받고, 분류결과 데이터에 대응하여 해당 조란을 컨베이어벨트에서 분류함으로써, 다양한 분류 기준으로 조란을 신속하고도 정확하게 분류할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치의 사시도이다.
도 2는 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치의 상부도이다.
도 3은 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치의 구성 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치에 의해 조란분류 인공지능 모델이 학습되는 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치에 의해 조란의 촬영 영역이 촬영되는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치가 조란분류 인공지능 모델로부터 조란분류 결과 데이터를 출력받는 과정을 설명하기 위한 도면이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형 태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대 해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현 은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는 (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중 요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성 요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합 한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것 만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성 (또는 설정)된 제어부"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
특히, 본 명세서에서, “~장치”는 중앙처리장치(Central Processing Unit (CPU)), 애플리케이션 프로세서(Application Processor (AP)) 및 커뮤니케이션 프로세서(Communication Processor (CP)) 중 하나 이상을 포함할 수 있다.
본 명세서에서, “~장치”는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, “~장치”는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한 정하려는 의도가 아닐 수 있다. 단수의 표현은 컨텍스트 상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 컨텍스트 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
도 1은 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치의 사시도이고, 도 2는 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치의 상부도이고, 도 3은 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치의 구성 블록도이다.
도 1 내지 도 3을 참조하면, 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치(100)는 메모리(110), 프로세서(120), 컨베이어부(130), 촬영부(140) 및 분류부(150)를 포함할 수 있다.
메모리(110)는 조란을 촬영하여 생성된 자기공명영상에 기초하여 상기 조란이 제1 분류 기준에 따른 유정란인지 여부, 상기 조란이 제2 분류 기준에 따른 혈란인지 여부, 상기 조란이 제3 분류 기준에 따른 쌍란인지 여부, 상기 조란이 제4 분류 기준에 따른 파란인지 여부 및 상기 조란이 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부 중에서 하나 이상을 결정하도록 학습된 조란분류 인공지능 모델(AI)을 저장할 수 있다.
프로세서(120)는 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치(100)의 전반적인 동작을 제어한다.
프로세서(120)는 메모리(110)와 연결되어 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치(100)의 전반적인 동작을 제어한다.
일 실시예로, 자기공명영상을 이용한 조란 분류 장치(100)는, 서버, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 노트북 컴퓨터(notebook computer), PDA(personal digital assistant), PMP(portable multimedia player), 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다.
한편, 메모리(110)는 자기공명영상을 이용한 조란 분류 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(110)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.
프로세서(120)는 메모리(110)에 저장된 각종 프로그램을 이용하여 자기공명영상을 이용한 조란 분류 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(120)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.
RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 자기공명영상을 이용한 조란 분류 장치(100)가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.
ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(110)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(110)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 여기서, 연산부는 입력부로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하는 구성일 수 있다. 그리고, 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성하는 구성이 일 수 있다. 이러한 렌더링부에서 생성된 화면은 디스플레이의 디스플레이 영역 내에 표시될 수 있다.
메인 CPU는 메모리(110)에 액세스하여, 메모리(110)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
한편, 나아가, 프로세서(120)는 인공지능 모델을 제어할 수 있다. 이 경우, 프로세서는 인공지능 모델을 제어하기 위한 그래픽 전용 프로세서(예: GPU)를 포함할 수 있음은 물론이다.
한편, 본 발명에 따른 인공지능 모델은 지도학습(supervised learning) 또는 비지도학습(unsupervised learning) 기반의 모델일 수 있다. 나아가, 본 발명에 따른 인공지능 모델은 SVM(support vector machine), Decision tree, neural network 등 및 이들이 응용된 방법론을 포함할 수 있다.
일 실시예로, 본 발명에 따른 인공지능 모델은 학습데이터를 입력하여 학습된 합성곱 신경망(Convolutional deep Neural Networks, AI) 기반의 인공지능 모델일 수 있다. 다만, 이에 한정되는 것은 아니며, 다양한 인공지능 모델이 본 발명에 적용될 수 있음은 물론이다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 인공지능 모델로서 사용될 수 있으나, 이에 한정되지 않는다.
이때, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.
또한, 심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.
이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(processor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다.
순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.
심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다.
심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다.
본 발명에 따른 인공지능 모델은 입력값(예를 들어, 텍스트, 문장)을 기반으로 통계학적으로 가장 적절한 출력값을 출력하도록 학습된 언어모델일 수 있다.
상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 상술한 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.
한편, 프로세서(120)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(120)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.
예를 들어, 프로세서(120)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 훈련용 데이터를 획득하고, 학습된 모델을 이용하여, 획득된 신규 훈련용 데이터에 대한 테스트를 수행하고, 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 훈련용 데이터를 추출하고, 추출된 제1 훈련용 데이터를 신규 훈련용 데이터로부터 삭제하고, 추출된 훈련용 데이터가 삭제된 신규 훈련용 데이터를 이용하여 학습된 모델을 다시 학습시킬 수 있다.
한편, 프로세서(120)는 프로세서(120) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(120)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(110)에는 프로세서(120)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(110)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
컨베이어부(130)는 상부에 복수의 조란이 위치하고, 상부에 위치된 복수의 조란을 소정의 방향으로 이동시킬 수 있다.
이를 위해, 컨베이어부(130)는 컨베이어벨트, 컨베이어벨트의 상부에 위치한 복수의 조란을 소정의 방향으로 이동시키도록 컨베이어벨트를 회전시키는 컨베이어모터를 구비할 수 있다.
이러한, 컨베이어부(130)의 작동은 프로세서(120)에 의해 제어될 수 있다.
한편, 촬영부(140)는 내측으로 상기 컨베이어부(130)가 관통하도록 터널형상으로 형성되고, 내부를 통과하는 조란을 촬영하여 조란의 자기공명영상을 생성할 수 있다.
이러한 촬영부(140)는 조란을 촬영하여 자기공명영상을 생성하는 MRI 촬영 모듈과 촬영으로 인해 발생되는 자기장을 차폐시키는 차폐하우징을 구비할 수 있다.
한편, 촬영부(140)는 하나의 조란을 단층촬영하여 자기공명영상을 생성함으로써, 하나의 조란에 대해 복수의 세부 자기공명영상을 생성할 수 있다.
즉, 촬영부(140)는 복수의 세부 자기공명영상을 포함하는 자기공명영상을 하나의 조란 마다 생성할 수 있다.
이후, 촬영부(140)는 생성된 자기공명영상을 메모리(110)로 출력하거나 프로세서(120)로 출력할 수 있다.
이러한, 촬영부(140)의 작동은 프로세서(120)에 의해 제어될 수 있다.
분류부(150)는 프로세서(120)에 의해 조란분류 인공지능 모델(AI)로부터 출력된 조란분류 결과 데이터에 대응하여 해당 조란을 분류시킬 수 있다.
여기서, 조란을 분류시킴이란, 분류부(150)가 조란분류 결과 데이터에 대응되는 위치로 해당 조란의 물리적 위치를 이동시킴을 의미할 수 있다.
이러한, 분류부(150)는 조란을 파지하여 조란의 위치를 이동시키기 위해 지지부, 로봇암 및 파지부를 구비할 수 있다.
지지부는 하단이 컨베이어부의 컨베이어부 끝단에 인접한 지면에 고정되고, 상단에 로봇암의 일단이 연결되어 움직이는 로봇암을 지지할 수 있다.
또한, 파지부는 집게 형상으로 형성되어 조란의 양측을 가압하여 조란을 파지하도록 구성될 수 있다.
이러한, 분류부(150)는 기계적인 움직임을 구현할 수 있도록 구성될 수 있다. 구체적으로, 분류부(150)는 다양한 작업을 수행할 수 있는 하나 이상의 관절(또는 조인트), 링크, 기어 등을 구비할 수 있다. 이러한, 분류부(150)는 복수의 조인트 및 복수의 조인트에 의해 서로 연결된 복수의 링크, 복수의 조인트를 회전시키는 구동 모터를 포함할 수 있다. 이때, 프로세서(120)는 구동 모터의 작동을 제어하여 분류부(150)를 제어할 수 있다.
이하, 조란분류 인공지능 모델(AI)을 학습시키는 과정에 대해 구체적으로 설명하도록 한다.
도 4는 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치에 의해 조란분류 인공지능 모델이 학습되는 과정을 설명하기 위한 도면이다.
도 4를 더 참조하면, 프로세서(120)는 제1 복수의 훈련용 자기공명영상(TI) 및 제1 상기 복수의 훈련용 자기공명영상(TI) 각각이 나타내는 상기 조란이 상기 제1 분류 기준에 따른 유정란인지 여부인 제1 복수의 훈련용 조란분류 결과 데이터(TC)를 각각 매핑시켜 제1 훈련 데이터로 구성할 수 있다.
여기서, 유정란은 난생 동물의 암컷 체내에서 난자와 정자가 만나 수정이 된 조란으로, 부화하여 새끼가 될 수 있는 조란이고, 무정란은 수정되지 않은 조란이다.
또한, 프로세서(120)는 제2 복수의 훈련용 자기공명영상(TI) 및 제2 상기 복수의 훈련용 자기공명영상(TI) 각각이 나타내는 상기 조란이 상기 제2 분류 기준에 따른 혈란인지 여부인 제2 복수의 훈련용 조란분류 결과 데이터(TC)를 각각 매핑시켜 제2 훈련 데이터로 구성할 수 있다.
여기서, 혈란은 내부에 피가 포함된 조란이다.
또한, 프로세서(120)는 제3 복수의 훈련용 자기공명영상(TI) 및 제3 상기 복수의 훈련용 자기공명영상(TI) 각각이 나타내는 상기 조란이 상기 제3 분류 기준에 따른 쌍란인지 여부인 제3 복수의 훈련용 조란분류 결과 데이터(TC)를 각각 매핑시켜 제3 훈련 데이터로 구성할 수 있다.
여기서, 쌍란은 내부에 난황이 복수인 조란이다.
또한, 프로세서(120)는 제4 복수의 훈련용 자기공명영상(TI) 및 제4 상기 복수의 훈련용 자기공명영상(TI) 각각이 나타내는 상기 조란이 상기 제4 분류 기준에 따른 파란인지 여부인 제4 복수의 훈련용 조란분류 결과 데이터(TC)를 각각 매핑시켜 제4 훈련 데이터로 구성할 수 있다.
여기서, 파란은 껍질이 깨지거나 금이간 조란이다.
또한, 프로세서(120)는 제5 복수의 훈련용 자기공명영상(TI) 및 제5 상기 복수의 훈련용 자기공명영상(TI) 각각이 나타내는 상기 조란이 상기 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부인 제5 복수의 훈련용 조란분류 결과 데이터(TC)를 각각 매핑시켜 제5 훈련 데이터로 구성할 수 있다.
이후, 프로세서(120)는 상기 제1 훈련 데이터, 상기 제2 훈련 데이터, 상기 제3 훈련 데이터, 상기 제4 훈련 데이터 및 상기 제5 훈련 데이터 중 하나 이상을 이용하여 조란분류 인공지능 모델(AI)을 학습시킬 수 있다.
특히, 프로세서(120)는 제1 훈련 데이터를 이용하여 조란분류 인공지능 모델(AI)을 학습시키는 경우, 제1 복수의 훈련용 자기공명영상(TI) 상에서 조란의 배아와 라테브라 간의 연결 형상을 유정란인지 여부인 제1 복수의 훈련용 조란분류 결과 데이터(TC)와 연계시켜 조란분류 인공지능 모델(AI)을 학습시킬 수 있다.
한편, 프로세서(120)는 상기 제1 훈련 데이터, 상기 제2 훈련 데이터, 상기 제3 훈련 데이터, 상기 제4 훈련 데이터 및 상기 제5 훈련 데이터 중 하나 이상을 이용하여 조란분류 인공지능 모델(AI)을 학습시키기 위해, 제1 복수의 훈련용 자기공명영상(TI), 제2 복수의 훈련용 자기공명영상(TI), 제3 복수의 훈련용 자기공명영상(TI), 제4 복수의 훈련용 자기공명영상(TI), 제5 복수의 훈련용 자기공명영상(TI) 중 하나 이상을 전처리할 수 있다.
구체적으로, 프로세서(120)는 제1 복수의 훈련용 자기공명영상(TI), 제2 복수의 훈련용 자기공명영상(TI), 제3 복수의 훈련용 자기공명영상(TI), 제4 복수의 훈련용 자기공명영상(TI), 제5 복수의 훈련용 자기공명영상(TI) 중 하나 이상에 대해 크롭, 회전, 색상 보정, 음영 보정, 노이즈 제거 중 하나 이상을 수행하여 전처리를 수행할 수 있다.
한편, 상술된 조란분류 인공지능 모델(AI)은 영상을 입력받아 해당 영상이 나타내는 물체가 여러 분류 기준에 따른 어떠한 물체인지를 분류할 수 있는 인공지능 모델이면 그 종류가 제한되지 않을 수 있다.
예를 들어, 본 발명에 따른 조란분류 인공지능 모델(AI)은 합성곱 신경망(Convolutional deep Neural Networks, AI) 기반의 인공지능 모델일 수 있다. 다만, 이에 한정되는 것은 아니며, 다양한 인공지능 모델이 본 발명에 적용될 수 있음은 물론이다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 인공지능 모델로서 사용될 수 있으나, 이에 한정되지 않는다.
이하, 촬영부(140)가 조란을 촬영하는 과정을 설명하도록 한다.
도 5는 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치에 의해 조란의 촬영 영역이 촬영되는 과정을 설명하기 위한 도면이다.
도 5를 더 참조하면, 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치(100)에 의해 분류되지 않은 조란이 컨베이어부(130)의 일단 상부에 위치되면, 컨베이어부(130)에 의해 소정의 방향으로 이동되다가 촬영부(140)의 내부로 진입할 수 있다.
이후, 촬영부(140)는 내부로 진입한 조란을 촬영하여 조란의 자기공명영상을 생성할 수 있다.
이때, 프로세서(120)는 조란을 분류하는데 있어서, 설정된 분류 기준에 따라 조란이 촬영되는 촬영 영역을 설정할 수 있다.
예를 들어, 프로세서(120)는 조란의 중앙부 영역(R1)을 촬영 영역으로 설정하거나 조란의 전체 영역(R2)을 촬영 영역을 설정할 수 있다.
보다 구체적으로, 프로세서(120)는 조란을 분류하는데 있어서, 유정란인지 여부인 제1 분류 기준 및 쌍란인지 여부인 제3 분류 기준 중 어느 하나 이상이 분류 기준으로 설정되면, 조란의 중앙부 영역(R1)을 촬영 영역으로 설정할 수 있다.
또한, 프로세서(120)는 조란을 분류하는데 있어서, 혈란인지 여부인 제2 분류 기준, 파란인지 여부인 제4 분류 기분 및 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부인 제5 분류 기준 중 어느 하나 이상이 분류 기준으로 설정되면, 조란의 전체 영역(R2)을 촬영 영역으로 설정할 수 있다.
이후, 프로세서(120)는 설정된 촬영 영역만이 촬영부(140)에 의해 촬영되도록, 촬영부(140)의 촬영 시점, 촬영부(140)의 촬영 간격, 컨베이어부(130)에 의한 조란 이동 속도 중 하나 이상을 제어할 수 있다.
또한, 프로세서(120)는 조란이 컨베이어부(130)에 의해 이동되면서 촬영부(140)에 의해 촬영되고 분류부(150)에 의해 물리적으로 이동되어 분류되는 각 과정에서 소요되는 시간을 고려하여, 컨베이어부(130)를 제어하여 컨베이어부(130)에 의한 조란 이동 속도를 제어할 수 있다.
여기서, 중앙부 영역(R1)은 조란이 세워진 상태에서 조란의 최하단으로부터 조란 높이의 20%인 제1 지점부터 조란의 최하단으로부터 조란 높이의 80%인 제2 지점까지의 영역일 수 있다.
예를 들어, 조란 높이가 10cm인 조란의 중앙부 영역은 조란이 세워진 상태에서 조란의 최하단으로부터 2cm 높이 지점부터 조란의 최하단으로부터 8cm 높이 지점까지의 영역일 수 있다.
이하, 조란분류 결과 데이터를 출력받는 과정에 대해 구체적으로 설명하도록 한다.
도 6은 본 발명의 일 실시 예에 따른 자기공명영상을 이용한 조란 분류 장치가 조란분류 인공지능 모델로부터 조란분류 결과 데이터를 출력받는 과정을 설명하기 위한 도면이다.
도 6을 더 참조하면, 프로세서(120)는 상기 자기공명영상(I)을 상기 조란분류 인공지능 모델(AI)에 입력하여 상기 조란이 상기 제1 분류 기준에 따른 유정란인지 여부, 상기 조란이 상기 제2 분류 기준에 따른 혈란인지 여부, 상기 조란이 상기 제3 분류 기준에 따른 쌍란인지 여부, 상기 조란이 상기 제4 분류 기준에 따른 파란인지 여부 및 상기 조란이 상기 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부 중에서 하나 이상이 결정된 조란분류 결과 데이터(C)를 상기 조란분류 인공지능 모델(AI)로부터 출력받을 수 있다.
이때, 프로세서(120)는 조란을 분류하는데 있어서, 설정된 분류 기준에 따라 조란분류 인공지능 모델(AI)로부터 특정 분류 결과가 포함된 조란분류 결과 데이터(C)만을 출력받을 수 있다.
구체적으로, 프로세서(120)는 조란을 분류하는데 있어서, 상술된 제1 내지 제5 분류 기준 중에서 하나 이상의 분류 기준을 조란분류 인공지능 모델(AI)에 설정하고, 하나 이상의 분류 기준이 설정된 조란분류 인공지능 모델(AI)에 자기공명영상(I)을 입력하여 설정된 하나 이상의 분류 기준에 따른 분류 결과가 포함된 출력받을 수 있다.
한편, 프로세서(120)는 하나의 조란을 촬영하여 생성된 자기공명영상(I)이 복수인 경우, 복수의 자기공명영상(I)을 순차적으로 조란분류 인공지능 모델(AI)에 입력하고, 복수의 자기공명영상(I) 각각에 대응되는 복수의 조란분류 결과 데이터(C)를 조란분류 인공지능 모델(AI)로부터 출력받을 수 있다.
이때, 프로세서(120)는 복수의 조란분류 결과 데이터(C) 중에서 하나 이상의 조란분류 결과 데이터(C)가 제1 분류 기준에 따라 해당 조란이 유정란임을 나타내면 해당 조란을 유정란으로 선별할 수 있다.
이때, 프로세서(120)는 복수의 조란분류 결과 데이터(C) 중에서 하나 이상의 조란분류 결과 데이터(C)가 제2 분류 기준에 따라 해당 조란이 혈란임을 나타내면 해당 조란을 혈란으로 선별할 수 있다.
이때, 프로세서(120)는 복수의 조란분류 결과 데이터(C) 중에서 하나 이상의 조란분류 결과 데이터(C)가 제3 분류 기준에 따라 해당 조란이 쌍란임을 나타내면 해당 조란을 쌍란으로 선별할 수 있다.
이때, 프로세서(120)는 복수의 조란분류 결과 데이터(C) 중에서 하나 이상의 조란분류 결과 데이터(C)가 제4 분류 기준에 따라 해당 조란이 파란임을 나타내면 해당 조란을 파란으로 선별할 수 있다.
한편, 다른 실시 예에 따른 프로세서(120)는 상술한 바와 같이, 조란이 컨베이어부(130)에 의해 이동되면서 촬영부(140)에 의해 촬영되고 분류부(150)에 의해 물리적으로 이동되어 분류되는 각 과정에서 소요되는 시간을 고려하여, 컨베이어부(130)를 제어하여 컨베이어부(130)에 의한 조란 이동 속도를 제어할 수 있다.
이때, 다른 실시 예에 따른 프로세서(120)는 조란 이동 속도 및 컨베이어부(130)에 의해 1열로 이동되는 복수의 조란 각각 간의 조란 간격에 기초하여 본 발명에 따른 자기공명영상을 이용한 조란 분류 장치(100)의 조란 분류 속도를 산출할 수 있다.
구체적으로, 다른 실시 예에 따른 프로세서(120)는 조란 이동 속도에 조란 간격을 나누어 조란 분류 속도로 산출할 수 있다.
예를 들어, 조란 이동 속도가 20cm/sec이고, 조란 간격이 10cm인 경우, 다른 실시 예에 따른 프로세서는 조란 이동 속도 20cm/sec에서 조란 간격 10cm를 나눈 2개/sec를 조란 분류 속도로 산출할 수 있다.
이를 통해, 프로세서(120)는 본 발명에 따른 자기공명영상을 이용한 조란 분류 장치(100)의 성능 중 하나인 조란 분류 속도를 산출할 수 있다.
여기서, 조란 간격은 컨베이어부(130)의 구조 및 형상에 따라 미리 정해질 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
또한, 본 발명의 서로 다른 실시예들은 상호 보완되거나 결합될 수 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler), 파이썬(Python) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100 : 자기공명영상을 이용한 조란 분류 장치
110 : 메모리
120 : 프로세서
130 : 컨베이어부
140 : 촬영부
150 : 분류부

Claims (6)

  1. 조란을 촬영하여 생성된 자기공명영상에 기초하여 상기 조란이 제1 분류 기준에 따른 유정란인지 여부, 상기 조란이 제2 분류 기준에 따른 혈란인지 여부, 상기 조란이 제3 분류 기준에 따른 쌍란인지 여부, 상기 조란이 제4 분류 기준에 따른 파란인지 여부 및 상기 조란이 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부 중에서 하나 이상을 결정하도록 학습된 조란분류 인공지능 모델을 저장하는 메모리;
    상기 자기공명영상을 상기 조란분류 인공지능 모델에 입력하여 상기 조란이 상기 제1 분류 기준에 따른 유정란인지 여부, 상기 조란이 상기 제2 분류 기준에 따른 혈란인지 여부, 상기 조란이 상기 제3 분류 기준에 따른 쌍란인지 여부, 상기 조란이 상기 제4 분류 기준에 따른 파란인지 여부 및 상기 조란이 상기 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부 중에서 하나 이상이 결정된 조란분류 결과 데이터를 상기 조란분류 인공지능 모델로부터 출력받는 프로세서; 및
    상기 프로세서에 의해 제어되어 상기 조란분류 결과 데이터에 대응하여 상기 조란을 분류시키는 분류부;를 포함하고,
    상기 프로세서는
    제1 복수의 훈련용 자기공명영상 및 제1 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제1 분류 기준에 따른 유정란인지 여부인 제1 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제1 훈련 데이터로 구성하고,
    제2 복수의 훈련용 자기공명영상 및 제2 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제2 분류 기준에 따른 혈란인지 여부인 제2 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제2 훈련 데이터로 구성하고,
    제3 복수의 훈련용 자기공명영상 및 제3 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제3 분류 기준에 따른 쌍란인지 여부인 제3 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제3 훈련 데이터로 구성하고,
    제4 복수의 훈련용 자기공명영상 및 제4 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제4 분류 기준에 따른 파란인지 여부인 제4 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제4 훈련 데이터로 구성하고,
    제5 복수의 훈련용 자기공명영상 및 제5 상기 복수의 훈련용 자기공명영상 각각이 나타내는 상기 조란이 상기 제5 분류 기준에 따른 복수의 크기 범위 중 어느 크기 범위에 포함되는지 여부인 제5 복수의 훈련용 조란분류 결과 데이터를 각각 매핑시켜 제5 훈련 데이터로 구성하는 것을 특징으로 하는
    자기공명영상을 이용한 조란 분류 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 프로세서는
    상기 제1 훈련 데이터, 상기 제2 훈련 데이터, 상기 제3 훈련 데이터, 상기 제4 훈련 데이터 및 상기 제5 훈련 데이터 중 하나 이상을 이용하여 상기 조란분류 인공지능 모델을 학습시키는 것을 특징으로 하는
    자기공명영상을 이용한 조란 분류 장치.
  4. 제1항에 있어서,
    상기 프로세서에 의해 제어되어 상기 조란을 이동시키는 컨베이어부; 및
    상기 프로세서에 의해 제어되어 상기 컨베이어부에 의해 이동되는 상기 조란을 촬영하여 상기 자기공명영상을 생성하는 촬영부;를 포함하는 것을 특징으로 하는
    자기공명영상을 이용한 조란 분류 장치.
  5. 제4항에 있어서,
    상기 프로세서는
    상기 제1 분류 기준, 상기 제2 분류 기준, 상기 제3 분류 기준, 상기 제4 분류 기준 및 상기 제5 분류 기준 중 하나 이상에 기초하여 상기 컨베이어부에 의해 이동되는 상기 조란 각각이 상기 촬영부에 의해 촬영되는 촬영 영역을 설정하고, 상기 조란의 상기 촬영 영역이 촬영되도록 상기 켄베이어부 및 상기 촬영부를 제어하는 것을 특징으로 하는
    자기공명영상을 이용한 조란 분류 장치.
  6. 제1항에 있어서,
    상기 프로세서는
    상기 자기공명영상에 대해 크롭, 회전, 색상 보정, 음영 보정, 노이즈 제거 중 하나 이상을 수행하여 전처리하는 것을 특징으로 하는
    자기공명영상을 이용한 조란 분류 장치.
KR1020230115576A 2023-08-31 2023-08-31 자기공명영상을 이용한 조란 분류 장치 KR102625516B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230115576A KR102625516B1 (ko) 2023-08-31 2023-08-31 자기공명영상을 이용한 조란 분류 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230115576A KR102625516B1 (ko) 2023-08-31 2023-08-31 자기공명영상을 이용한 조란 분류 장치

Publications (1)

Publication Number Publication Date
KR102625516B1 true KR102625516B1 (ko) 2024-01-16

Family

ID=89719343

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230115576A KR102625516B1 (ko) 2023-08-31 2023-08-31 자기공명영상을 이용한 조란 분류 장치

Country Status (1)

Country Link
KR (1) KR102625516B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140077091A (ko) * 2012-12-13 2014-06-23 성균관대학교산학협력단 계란 품질 계측 장치 및 방법
KR101819469B1 (ko) 2015-06-03 2018-03-02 한국생산기술연구원 계란선별기 팩커홀더 버퍼
KR101855130B1 (ko) * 2018-02-02 2018-06-08 농업회사법인 주식회사 보금 자기공명 영상을 이용한 계란 감별장치
JP2020148619A (ja) * 2019-03-13 2020-09-17 株式会社ナベル 卵分類装置、卵分類方法及びコンピュータプログラム
KR102283869B1 (ko) * 2021-01-15 2021-08-02 주식회사 한밭아이오티 계란 품질 자동검사 시스템
JP2022000641A (ja) * 2017-04-28 2022-01-04 株式会社ナベル 卵の検査装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140077091A (ko) * 2012-12-13 2014-06-23 성균관대학교산학협력단 계란 품질 계측 장치 및 방법
KR101819469B1 (ko) 2015-06-03 2018-03-02 한국생산기술연구원 계란선별기 팩커홀더 버퍼
JP2022000641A (ja) * 2017-04-28 2022-01-04 株式会社ナベル 卵の検査装置
KR101855130B1 (ko) * 2018-02-02 2018-06-08 농업회사법인 주식회사 보금 자기공명 영상을 이용한 계란 감별장치
JP2020148619A (ja) * 2019-03-13 2020-09-17 株式会社ナベル 卵分類装置、卵分類方法及びコンピュータプログラム
KR102283869B1 (ko) * 2021-01-15 2021-08-02 주식회사 한밭아이오티 계란 품질 자동검사 시스템

Similar Documents

Publication Publication Date Title
US20210390653A1 (en) Learning robotic tasks using one or more neural networks
US10949714B2 (en) Assigning a semantically meaningful label to a digital image
Moujahid et al. Convolutional neural network based classification of patients with pneumonia using X-ray lung images
CN110070072A (zh) 一种生成物体检测模型的方法
CN110084313A (zh) 一种生成物体检测模型的方法
CN113205142B (zh) 一种基于增量学习的目标检测方法和装置
WO2023109208A1 (zh) 小样本目标检测方法及装置
CN110296660B (zh) 牲畜体尺检测方法与装置
CN109948733A (zh) 消化道内窥镜图像的多分类方法、分类装置及存储介质
KR102282087B1 (ko) 딥러닝 모델에 적용하기 위한 학습 데이터 확장방법, 딥러닝을 이용한 이미지 분류장치 및 그 방법
WO2020247314A1 (en) Reducing computation in neural networks using selfmodifying code
CN112347977A (zh) 一种诱导性多能干细胞的自动检测方法、存储介质及装置
Wu et al. Improved ResNet-50 deep learning algorithm for identifying chicken gender
CN115004316A (zh) 采用优化的集成ai解决方案的多功能计算机辅助胃镜检查系统以及方法
CN112868032A (zh) 提升ai识别学习能力
AU2022318275B2 (en) Acquiring and inspecting images of ophthalmic lenses
Cauvery et al. A Multiclass Skin Lesion classification approach using Transfer learning based convolutional Neural Network
Shuprajhaa et al. Deep learning based intelligent identification system for ripening stages of banana
KR102625516B1 (ko) 자기공명영상을 이용한 조란 분류 장치
Ma et al. Classification of seed corn ears based on custom lightweight convolutional neural network and improved training strategies
US11816185B1 (en) Multi-view image analysis using neural networks
KR102601135B1 (ko) 전자 장치 및 이의 제어 방법
Lohith et al. Pytorch implementation and assessment of pre-trained convolutional neural networks for tomato leaf disease classification
Nicolau et al. Fusarium damaged kernels detection using transfer learning on deep neural network architecture
Ammari et al. HW/SW Co-‘esign for Dates Classification on Xilinx Zynq SoC

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant