KR20220042595A - 인공지능을 이용한 임산물 진품 판별시스템 - Google Patents

인공지능을 이용한 임산물 진품 판별시스템 Download PDF

Info

Publication number
KR20220042595A
KR20220042595A KR1020200125593A KR20200125593A KR20220042595A KR 20220042595 A KR20220042595 A KR 20220042595A KR 1020200125593 A KR1020200125593 A KR 1020200125593A KR 20200125593 A KR20200125593 A KR 20200125593A KR 20220042595 A KR20220042595 A KR 20220042595A
Authority
KR
South Korea
Prior art keywords
forest
forest product
artificial intelligence
photographing
product
Prior art date
Application number
KR1020200125593A
Other languages
English (en)
Other versions
KR102557786B1 (ko
Inventor
박수경
라호준
Original Assignee
(주)오상테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)오상테크놀로지 filed Critical (주)오상테크놀로지
Priority to KR1020200125593A priority Critical patent/KR102557786B1/ko
Publication of KR20220042595A publication Critical patent/KR20220042595A/ko
Application granted granted Critical
Publication of KR102557786B1 publication Critical patent/KR102557786B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/018Certifying business or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Accounting & Taxation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Medical Informatics (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 임산물 진품에 대한 정보가 거의 없는 소비자가 산양삼, 송이버섯 등 임산물을 구매하기 전 사용자의 단말기를 통해 구매하고자 하는 임산물을 촬영하면 상기 사용자의 단말기에 설치되어 있는 전용 앱(App)을 통해 촬영이미지 데이터가 클라우드 서버로 전송되고, 상기 클라우드 서버에서는 촬영이미지 데이터가 진품인지 가품인지를 인공지능을 통해 판별한 후 상기 소비자의 단말기로 판별결과를 전송함으로써, 현재 유통되고 있는 청정 임산물에 대한 소비자의 신뢰도를 향상시켜 해당 산업을 한층 더 육성시킬 수 있도록 하는, 인공지능을 이용한 임산물 진품 판별시스템에 관한 것이다.

Description

인공지능을 이용한 임산물 진품 판별시스템{Discriminating system for a genuine article of forest products using artificial intelligence}
본 발명은 임산물 진품에 대한 정보가 거의 없는 소비자가 산양삼, 송이버섯 등 임산물을 구매하기 전 사용자의 단말기를 통해 구매하고자 하는 임산물을 촬영하면 상기 사용자의 단말기에 설치되어 있는 전용 앱(App)을 통해 촬영이미지 데이터가 클라우드 서버로 전송되고, 상기 클라우드 서버에서는 촬영이미지 데이터가 진품인지 가품인지를 인공지능을 통해 판별한 후 상기 소비자의 단말기로 판별결과를 전송함으로써, 현재 유통되고 있는 청정 임산물에 대한 소비자의 신뢰도를 향상시켜 해당 산업을 한층 더 육성시킬 수 있도록 하는, 인공지능을 이용한 임산물 진품 판별시스템에 관한 것이다.
산양삼은 국가지정 특별관리대상작물로서 국가가 종자를 배양해 승인된 재배자에게 보급하며, 생산 및 유통과정에서『임업 및 산촌 진흥촉진에 관한 법률』 등의 법적근거에 따라 국가의 관리를 받도록 하고 있다.
이에 따라 산양삼 유통과정에서 생산자들로 하여금 품질합격증을 필수 부착하도록 하고 있다.
하지만 현 합격증은 한차례 디자인을 갱신했음에도 불구하고 인쇄업자 등에 의한 위변조 위험에 노출되어 있으며 인삼이나 중국산 산양삼에 합격증을 부착해 판매하는 행위를 원천 차단하기에는 제도와 기술 측면에서 미흡하다고 평가 받고 있다.
더불어 산양삼 구입단계의 소비자는 스스로 산양삼을 감정할 전문가적 지식이 없어 시판중인 산양삼들을 신뢰하지 못하고 있다.
이와 같은 문제를 해결하기 위해서는 일차적으로 산양삼 상자 패키지에 부착된 합격증의 인쇄과정을 까다롭게 해 불법행위를 더 어렵게 만들 수는 있으나, 이는 개별 뿌리에 대해서는 여전히 정품 인증이 불가능한 미봉책으로 근본적으로는 더 선진적인 기술을 이용하여 소비자가 산양삼의 진품 여부를 판별할 수 있도록 하는 방안이 필요한 실정이다.
이에 우선적으로는 블록체인을 이용한 산양삼의 이력추적 시스템을 마련하고, 이에 더불어 스마트폰으로 산양삼을 촬영하면 인공지능을 이용하여 1. 인삼이 아닌 산양삼인지의 여부, 2. 외국산 삼인지의 여부, 3. 삼의 연근(나이) 데이터를 제공해 정품 여부를 알려주는 기술을 개발함으로써 본 발명의 완성에 이르게 되었다.
대한민국 공개특허 10-2020-0101540(공개일자 2020.08.28) 대한민국 등록특허 10-1399061(등록일자 2014.05.19)
본 발명은 임산물 진품에 대한 정보가 거의 없는 소비자가 산양삼, 송이버섯 등 임산물을 구매하기 전 사용자의 단말기를 통해 구매하고자 하는 임산물을 촬영하면 상기 사용자의 단말기에 설치되어 있는 전용 앱(App)을 통해 촬영이미지 데이터가 클라우드 서버로 전송되고, 상기 클라우드 서버에서는 촬영이미지 데이터가 진품인지 가품인지를 인공지능을 통해 판별한 후 상기 소비자의 단말기로 판별결과를 전송함으로써, 현재 유통되고 있는 청정 임산물에 대한 소비자의 신뢰도를 향상시켜 해당 산업을 한층 더 육성시킬 수 있도록 하는, 인공지능을 이용한 임산물 진품 판별시스템을 제공하고자 하는 것을 발명의 목적으로 한다.
상기 목적을 달성하기 위하여,
본 발명은 임산물을 스마트폰으로 촬영했을 때 배경색, 임산물의 위치, 크기, 조도, 색온도를 포함하는 촬영환경의 차이를 최소화하기 위하여, 박스형태를 이룬 구조체의 상부에 소비자의 스마트폰을 거치하여 상기 구조체 내의 임산물을 촬영하도록 형성된 임산물 촬영박스와,
상기 소비자의 스마트폰에 설치되어 구동되되, 상기 임산물 촬영박스를 통해 촬영된 이미지 데이터를 클라우드 서버로 전송하고, 상기 클라우드 서버를 통해 분석된 결과를 수신하여 사용자의 단말기 화면상에 표출하여 주는 판별서비스 어플리케이션과,
상기 판별서비스 어플리케이션을 통해 전송되는 이미지 데이터와, 임산물별 진품에 대한 부위별 색상 및 형태의 특징값이 기계학습을 통해 저장된 데이터 베이스의 데이터자료를 대비하여 상기 소비자가 확인하고자 하는 임산물이 진품인지 가품인지를 판별한 후 상기 판별서비스 어플리케이션으로 전송하는 클라우드 판별서비스 서버를 포함하는, 인공지능을 이용한 임산물 진품 판별시스템을 제공한다.
본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템은 데이터 셋과 소비자들이 스마트폰 카메라를 통해 촬영했을 때의 배경색, 임산물의 위치, 크기, 조도, 색온도 등의 차이 발생을 최소화하기 위하여, 임산물 촬영박스를 제공하고, 상기 임산물 촬영박스와 동일한 통제된 환경과 세팅하에서 임산물에 대한 샘플 수집이 이루어짐으로써, 기계학습에서 통상적으로 필요한 양의 1/10의 적은 샘플을 이용하여 CNN(VGG16) 모델에서 예측 확률 100 %를 얻을 수 있다.
본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템을 활용함으로써, 청정임산물의 재배, 유통, 판매 및 소비의 각 단계에 필요한 사물인터넷, 인공지능, 블록체인 기술을 수렴 및 융합해 품질종합인증시스템을 구성할 수 있고, 이를 통해 청정임산물의 이력을 관리하여 소비자에게 신뢰를 얻고 해당 산업을 한 차원 높게 육성시킬 수 있다.
본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템을 활용하여 산양삼, 송이버섯 등의 임산물에 대한 정보가 없는 초보 소비자가 가품을 진품으로 속아 구매하는 상황이 발생하는 것을 효과적으로 방지할 수 있도록 구매 현장에서 스마트폰에 설치되어 촬영된 이미지 데이터를 클라우드 서버로 전송한 후 판별 결과를 수신하는 전용 앱(App)을 통해 확인이 가능하다는 장점을 갖는다.
도 1은 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템의 전체 구성도.
도 2는 도 1의 인공지능을 이용한 임산물 진품 판별시스템을 구성하는 임산물 촬영박에 스마트폰을 안착시키기 전 상태의 사시도.
도 3은 도 1의 인공지능을 이용한 임산물 진품 판별시스템을 구성하는 임산물 촬영박스에 스마트폰이 안착된 상태의 사시도.
도 4는 도 1의 인공지능을 이용한 임산물 진품 판별시스템을 구성하는 임산물 촬영박스의 분해사시도.
도 5는 도 1의 인공지능을 이용한 임산물 진품 판별시스템을 구성하는 임산물 촬영박스로서 임산물 투입구가 개방된 상태를 도시한 사시도.
도 6은 소비자의 스마트폰으로 촬영한 이미지 데이터가 판독되는 과정을 개략적으로 도시한 도면.
도 7은 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템을 통해 비교 판별하는 인삼과 산양삼을 비교한 사진.
도 8은 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템과 관련된 CNN 알고리즘(24×24 이미지 기준)의 구조도.
도 9는 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템에 적용되는 CNN의 VGG16 모델 구조도.
도 10은 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템에 적용되는 CNN의 VGG16 모델의 반복학습에 따른 정확도 변화를 나타낸 그래프.
도 11은 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템에 적용되는 CNN의 VGG16 모델의 반복학습에 따른 Loss 변화를 나타낸 그래프.
도 12는 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템에 적용되는 CNN의 VGG16 모델 시험데이터(산양삼)의 판단결과(1)를 보인 도면.
도 13은 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템에 적용되는 CNN의 VGG16 모델 시험데이터(산양삼)의 판단결과(2)를 보인 도면.
도 14는 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템에 적용되는 CNN의 VGG16 모델 시험데이터(인삼)의 판단결과(1)를 보인 도면.
도 15는 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템에 적용되는 CNN의 VGG16 모델 시험데이터(인삼)의 판단결과(2)를 보인 도면.
이하, 본 발명의 인공지능을 이용한 임산물 진품 판별시스템에 따른 구체적인 기술 내용을 도면과 함께 살펴보도록 한다.
도 1 내지 도 6에 도시된 바와 같이,
본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템은 임산물을 스마트폰으로 촬영했을 때 배경색, 임산물의 위치, 크기, 조도, 색온도를 포함하는 촬영환경의 차이를 최소화하기 위하여, 박스형태를 이룬 구조체의 일측에 스마트폰 카메라 촬영용 홀이 형성되어 있어 내부에 수용되어 있는 임산물을 촬영하도록 형성된 임산물 촬영박스(10)와,
상기 임산물 촬영박스(10)를 통해 촬영된 이미지 데이터를 클라우드 서버로 전송한 후, 상기 클라우드 서버로부터 분석결과를 사용자의 단말기를 통해 표출하여 주는 판별서비스 어플리케이션(20)과,
상기 판별서비스 어플리케이션(20)에서 전송되는 이미지 데이터와, 상기 임산물의 진품에 대한 부위별 색상 및 형태의 특징값이 기계학습을 통해 저장된 데이터 베이스의 데이터자료를 대비하여 상기 소비자가 확인하고자 하는 임산물이 진품인지 가품인지를 판별한 후 상기 판별서비스 어플리케이션(20)으로 전송하는 판별서비스 클라우드 서버(30)를 포함한다.
상기 임산물 촬영박스(10)는 도 2 내지 도 5에 도시된 바와 같이, 중공의 육면체를 이루어 일측면이 개폐되고, 상부 중앙부에 스마트폰 거치홈(111)이 형성되며, 상기 스마트폰 거치홈(111)의 일측에는 상기 박스구조체(11) 내의 임산물을 촬영할 수 있도록 촬영홀(111a)이 형성되는 촬영박스구조체(11)와,
상기 촬영박스구조체(11)의 일측면을 이루면서 개폐되는 임산물투입부(12)와,
상기 촬영박스구조체(11)의 바닥면에 설치되되, 다수의 LED 조명과, 일측에 상기 LED 조명의 점등을 제어하는 LED 점등버튼을 포함하는 LED조명부(13)와,
상기 LED 조명위로 놓이는 트레이싱 페이퍼(14)를 포함한다.
상기 박스구조체(11)는 일체의 구조를 이룰수도 있으나, 휴대 및 보관의 편의성을 높이기 위하여 블록형태의 조립구조를 이룬다.
즉 도 4에 도시된 바와 같이, 상기 박스구조체(11)을 이루는 육면이 모두 블록판넬구조를 이루서, 상호간의 블록결합을 이루도록 한다. 상면(11a), 양측면(11b), 배면(11c) 및 저면(11d)이 상호 블록결합을 이루며, 이때 정면은 임산물투입부(12)로 사용된다.
상기 LED조명부(13)는 촬영이미지 데이터에 영향을 미치는 조도, 색온도 등을 일정하게 유지하기 위한 구성으로서, 미리 설정해 둔 조명 밝기에 따라 일정한 조명 조건에서 임산물을 촬영할 수 있도록 한다. 이와 같이 일정한 조명 조건 하에서 스마트폰 카메라를 통해 촬영하도록 함으로써 판별서비스 클라우드 서버(30)에 축적된 이미지 데이터와의 차이를 최소화하여 임산물에 대한 진품 여부를 더 정확히 판별할 수 있다.
상기 트레이싱 페이퍼(14)는 상기 LED조명부(13)를 통해 발산되는 광산이 균일하게 퍼지도록 하는 것으로서, 임산물과 그 배경에 불필요한 그늘이 생기는 것을 막아준다. 결과적으로 진품을 확인하는 데 사용되는 이미지 데이터를 사용자의 스마트폰 카메라를 통해 더 정확하게 얻을 수 있도록 한다.
상기 임산물투입부(12)의 양측에는 제1체결수단(121a)이 형성되어 있고, 상기 제1체결수단(121a)은 상기 양측면(11b)에 형성되어 있는 제2체결수단(121b)과 체결을 이루게 된다. 이와 같은 체결수단은 도 4에 도시된 방식 외에 다양한 방식이 적용될 수 있음은 자명한 사실이다.
즉 이와 같이 제1체결수단(121a)과 제2체결수단(121b) 상호 간의 체결과 해체를 통해 상기 박스구조체(11)의 일면이 닫히거나 또는 개방된 상태를 유지하게 된다.
따라서 상기 임산물투입부(12)를 개방하여 임산물을 상기 박스구조체(11) 내에 넣은 후 상기 임산물투입부(12)로 일면을 닫음으로써 상기 임산물 촬영을 위한 준비는 완료된다.
이때 필요에 따라 LED조명부(13)를 이용하여 상기 박스구조체(11) 내의 밝기를 조정할 수 있다.
상기 임산물 촬영박스(10)는 예를 들어 산양삼을 소비자들이 스마트폰의 카메라를 통해 촬영했을 때의 배경색, 산양삼의 위치, 크기, 조도, 색온도 등의 차이를 최소화해 촬영이미지 데이터의 신뢰도를 높이고자 제공되는 것이다.
이와 같이 통제된 환경과 통제된 스마트폰 카메라 세팅 하에 촬영이 이루어짐으로써, 기계학습에서 통상 필요한 약 1,000건이 넘는 샘플을 약 1/10수준으로 줄일 수 있다. 이는 기계학습 결과 산양삼 예측 확율 100 %의 수치를 보이며 진품에 대한 적중을 향상시킨다.
본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템을 통해 판별하고자 하는 대상물은 특별히 제한을 두지 않으나, 구체적인 예로 제시된다면 산양삼 또는 송이버섯이다.
이하에서는, 상기 산양삼을 구체적인 예로 들어 본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템에 대해 설명하고자 한다.
소비자는 소비자의 단말기 즉, 스마트폰에 설치되어 있는 판별서비스 어플리케이션(20)을 실행한 후 카메라를 통해 상기 임산물 촬영박스(10) 내에 있는 산양삼을 촬영하게 된다.
이와 같이 촬영된 이미지 데이터는 상기 어플리케이션(20)을 통해 판별서비스 서버(30)로 전송되고, 상기 판별서비스 서버(30)에서는 상기 소비자로부터 전송된 이미지 데이터와 판별서비스 서버(30) 내의, 기계학습을 통해 저장된 데이터 베이스의 데이터자료를 대비하여 인삼인지 또는 산양삼인지를 판별한 후 그 결과를 상기 소비자에게 전송한다.
상기 판별서비스 서버(30)는 복수의 서브 데이터셋으로 분할하여 기계학습을 수행하여 분류기(classifier)를 구축하고, 이를 통해 타깃 분류기(target classifier)를 선정한 후, 상기 타깃 분류기(target classifier)를 이용하여 임산물에 데이터를 분류하는 과정을 통해 판별하게 된다.
상기 기계학습 알고리즘은 CNN(Convolutional Neural Network)이며, 상기 CNN은 VGG16 모델을 사용하여 구현된다.
이하, 산양삼을 샘플로 하여 본 발명의 인공지능을 이용한 임산물 진품 판별시스템을 통한 판별과정에 대한 시험예에 대해 살펴보도록 한다.
1. 데이터 셋 구성
본 발명에서는 구체적인 예로서, 산양삼 샘플에 대해 데이터 셋을 구성하였다.(표 1) 산양삼은 채종 시기에 따라 줄기 및 잎이 붙은채로 출하되는 경우와 그렇지 않은 경우가 있으므로 잎을 제외한 노두까지만 분석하였다. 이에 따라 인삼은 노두까지 붙어 있는 상태를 대상으로 데이터를 구성하였는데, 시판중인 대부분의 인삼은 노두가 붙어 있었다.
산양삼 및 인삼의 데이터셋 구성
지역 종류 연근 갯수
강원도 산양삼 5~8 년근 30개
충북 산양삼 5~8 년근 30개
전북 산양삼 5~8 년근 4개
재배방식 종류 갯수
인삼밭 인삼(수삼) 1~3년근 140개
위와 같이 기계학습에 사용한 인삼(140개)과 산양삼(100개) 데이터는 총 240개이다. 도 7에 도시된 바와 같이, 인삼은 잔뿌리가 적고 산양삼은 잔뿌리가 많다. 그리고 인삼은 대개 몸통 부분이 길게 나타나지만 산양삼은 몸통이 짧다는 육안상으로 학인 가능한 특징이 있다.
이는 인삼의 경우 세척과정을 통해 잔뿌리가 붙은 채로 유통되지 않는다는 실제 산업장면의 현실을 반영한 것이다.
2. 모델 알고리즘
1) DNN
DNN은 신경망(Neural Network) 알고리즘을 확장한 것으로 다수의 은닉층(Hidden Layer)를 포함하는 인공 신경망알고리즘이다. 비선형적인 관계를 데이터에서 찾을 수 있지만 학습을 위해 많은 연산량을 요구하며 예측결과의 변동이 커지는 과적합(Overfitting) 문제가 생길 수 있다. 최근에는 과적합을 피하기 위해 Drop-Out, ReLU(Rectified Linear Unit) 활성화 함수 등을 사용하여 문제를 방지한다.
Figure pat00001
상기 신경망 알고리즘은 식 (1)을 이용해 은닉층 각각의 노드의 가중치(weight, w)를 찾는 것이 목표이다.
Figure pat00002
는 학습율(Learning rate)을 의미하며 가중치 변화량의 패널티를 부과하여 매 스텝마다 가중치의 변화량을 조정한다. C 는 비용함수(Cost Function)를 의미하며 학습의 형태(지도학습, 강화 학습 등)와 활성화 함수(Activation Function)에 의해 결정된다. 일반적으로 이미지 인식 및 분류 같은 다중 클래스 분류 문제(Multiclass Classification)에서는 활성화 함수는 Softmax 함수(식 (2))를 사용하고 비용함수는 교차 엔트로피 함수(Cross Entropy Function, 식 (3)을 사용한다.
Figure pat00003
Figure pat00004
DNN 모델의 성능을 결정하는 주요 파라미터는 노드와 은닉층의 개수이며 파라미터를 변경하며 데이터에 맞는 모델을 찾는다. 노드와 은닉층의 개수는 경험적으로 노드와 은닉층의 개수를 설정하는 휴리스틱(Heuristic, 발견법)1 기법으로 찾아야 하며 데이터에 맞는 최적의 노드와 은닉층의 갯수를 결정하는 수식은 아직까지 존재하지 않는다. 본 실험에서는 은닉층의 개수가 상대적으로 적은 모델과 은닉층이 많은 모델을 구성하여 분류 결과를 평가한다.
2) CNN
CNN(Convolutional Neural Network)2은 얀 리쿤 교수가 문자 인식을 위해 제안한 알고리즘으로 DNN알고리즘에 합성곱층(Convolutional Layer)과 풀링층(Pooling Layer)를 추가한 것이다. CNN은 도 8에 도시된 바와 같이, 컨볼루션 계층과 풀링 계층을 번갈아가며 수행함으로써 이미지로부터 특징을 자동으로 추출한다. CNN은 입력 이미지로부터 정보를 손쉽게 분류하기 위해 저차원의 정보를 고차원의 정보로 분류하기 때문에 일반적으로 이미지 인식 분야에서 DNN에 비해 높은 성능을 보인다.
3. 모델 구조
DNN은 은닉층이 적을 때와 많을 때 2가지 모델로 구성하고 두가지 모델 모두 Drop-out을 적용하여 과적합을 방지한다. 은닉층 사이에 활성화 함수는 ReLU를 사용하며, 출력층의 활성화 함수는 Softmax를 사용한다.
CNN은 상기 DNN과 유사하게 은닉층이 적은 모델과 많은 모델로 구성한다. 은닉층이 적은 모델은 DNN과 동일하게 노드의 수와 은닉층의 개수를 구성한다. 은닉층이 많은 모델은 CNN알고리즘 중 VGG16을 사용한다.
도 9에 도시된 바와 같은 구조를 보이는 상기 VGG16은 CNN알고리즘을 기반으로 2014년 이미지넷 이미지 대회에서 준우승을 한 모델이다. 옥스포드 대학의 VGG팀이 개발하였고 층이 16개로 구성되어 VGG16이라 불린다. 이외에도 CNN 알고리즘의 층과 노드의 개수등을 달리한 AlexNet, LeNet-5, ResNet, VGG19 등이 있다.
DNN 1, DNN 2 및 CNN 1의 은닉층별 노드의 개수
MODEL NODE LAYER
DNN 1 128 2
DNN 2 128 16
CNN 1 128 2
CNN 2(VGG16) VGG16 구조를 따름 VGG16 구조를 따름
상기 표 2의 DNN1, DNN2, CNN 1은 노드의 개수를 은닉층 별 동일하게 적용한 모델이고 CNN 2는 은닉층별 노드의 개수를 은닉층 별로 상이하게 조절한 경우이다.
4. 모델 결과
DNN 1, DNN 2, CNN 1 및 CNN 2(VGG 16)의 검증 데이터 정확도 및 시험 데이터 정확도
MODEL 검증 데이터 정확도 시험 데이터 정확도
DNN 1 66.7% 42.9%
DNN 2 66.7% 57.1%
CNN 1 66.7% 57.1%
CNN 2(VGG16) 100.0% 100.0%
상기 표 3의 검증 데이터 정확도는 총 데이터 셋(240개)중에서 학습에 사용된 48개 데이터에 대한 성능이다.
시험 데이터 정확도는 총 데이터 셋(240 개)중에서 학습에 포함되지 않은 54개 데이터에 대한 성능이다.
CNN 2 모델의 결과가 가장 높았으며 나머지 모델의 결과는 비슷했다. CNN 2 모델은 반복 학습에 따라 정확도가 상승하는 것을 도 8을 통해 확인할 수 있다.
그리고 도 10 내지 15는 CNN2의 시험 데이터 판단 결과를 나타낸 것으로서, Filename은 시험 데이터 (이미지) 파일명, Predictions는 모델의 예측 결과, Probability는 예측 결과 확률을 나타낸다.
예를 들어 도 14를 보면 202000520_160729.jpg이름을 가진 이미지 파일을 CNN2 모델이 인삼으로 예측했고 확률은 98.66% 라는 것을 알 수 있다. 총 54개(인삼 34개, 산양삼 20개)의 시험 데이터에 대해 예측결과가 정답과 높은 확률로 100% 일치했다.
5. 결론
모델 결과에서 알 수 있듯이 CNN(VGG 16) 알고리즘을 이용하면 인삼, 산양삼 분류를 높은 성능으로 판단하는 모델을 구축할 수 있음을 확인했다. 하지만 비교적 작은 240개의 데이터 셋에 대한 결과이고 데이터의 배경이 일정하고 잘 가공되어 성능이 높은 것으로 사료된다.
본 발명에 따른 인공지능을 이용한 임산물 진품 판별시스템은 청정임산물의 재배, 유통, 판매 및 소비의 각 단계에 필요한 사물인터넷, 인공지능, 블록체인 기술을 수렴 및 융합해 품질종합인증시스템을 구성할 수 있고, 이를 통해 청정임산물의 이력을 관리하여 소비자에게 신뢰를 얻고 해당 산업을 한 차원 높게 육성시킬 수 있으며, 임산물에 대한 정보가 없는 초보 소비자라고 하더라도 전용 앱(App)을 통해 산양삼, 송이버섯 등의 진품 여부를 현장에서 확인가능하다는 장점을 갖고 있어 산업상 이용가능성이 크다.
10 : 임산물 촬영박스
20 : 판별서비스 어플리케이션
30 : 클라우드 판별서비스 서버

Claims (5)

  1. 임산물을 스마트폰으로 촬영했을 때 배경색, 임산물의 위치, 크기, 조도, 색온도를 포함하는 촬영환경의 차이를 최소화하기 위하여, 박스형태를 이룬 구조체의 상부에 소비자의 스마트폰을 거치하여 상기 구조체 내의 임산물을 촬영하도록 형성된 임산물 촬영박스(10)와,
    상기 소비자의 스마트폰에 설치되어 구동되되, 상기 임산물 촬영박스(10)를 통해 촬영된 이미지 데이터를 클라우드 서버로 전송하고, 상기 클라우드 서버를 통해 분석된 결과를 수신하여 사용자의 단말기 화면상에 표출하여 주는 판별서비스 어플리케이션(20)과,
    상기 판별서비스 어플리케이션(20)을 통해 전송되는 이미지 데이터와, 임산물별 진품에 대한 부위별 색상 및 형태의 특징값이 기계학습을 통해 저장된 데이터 베이스의 데이터자료를 대비하여 상기 소비자가 확인하고자 하는 임산물이 진품인지 가품인지를 판별한 후 상기 판별서비스 어플리케이션(20)으로 전송하는 클라우드 판별서비스 서버(30)를 포함하는 것을 특징으로 하는 인공지능을 이용한 임산물 진품 판별시스템.
  2. 청구항 1에 있어서,
    임산물 촬영박스(10)는 중공의 육면체를 이루어 일측면이 개폐되고, 상부 중앙부에 스마트폰 거치홈(111)이 형성되며, 상기 스마트폰 거치홈(111)의 일측에는 상기 박스구조체(11) 내의 임산물을 촬영할 수 있도록 촬영홀(111a)이 형성되는 촬영박스구조체(11)와,
    상기 촬영박스구조체(11)의 일측면을 이루면서 개폐되는 임산물투입부(12)와,
    상기 촬영박스구조체(11)의 바닥면에 설치되되, 다수의 LED 조명과, 일측에 상기 LED 조명의 점등을 제어하는 LED 점등버튼을 포함하는 LED조명부(13)와,
    상기 LED 조명위로 놓이는 트레이싱 페이퍼(14)를 포함하는 것을 특징으로 하는 인공지능을 이용한 임산물 진품 판별시스템.
  3. 청구항 1에 있어서,
    임산물은 산양삼 또는 송이버섯인 것을 특징으로 하는 인공지능을 이용한 임산물 진품 판별시스템.
  4. 청구항 1에 있어서,
    판별서비스 서버(30)는 복수의 서브 데이터셋으로 분할하여 기계학습을 수행하여 분류기(classifier)를 구축하고, 이를 통해 타깃 분류기(target classifier)를 선정한 후, 상기 타깃 분류기(target classifier)를 이용하여 임산물에 데이터를 분류하는 과정을 수행하는 것을 특징으로 하는 인공지능을 이용한 임산물 진품 판별시스템.
  5. 청구항 1 또는 청구항 4에 있어서,
    기계학습 알고리즘은 CNN(Convolutional Neural Network)이며,
    상기 CNN은 VGG16 모델을 사용하여 구현되는 것을 특징으로 하는 인공지능을 이용한 임산물 진품 판별시스템.











KR1020200125593A 2020-09-28 2020-09-28 인공지능을 이용한 임산물 진품 판별시스템 KR102557786B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200125593A KR102557786B1 (ko) 2020-09-28 2020-09-28 인공지능을 이용한 임산물 진품 판별시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200125593A KR102557786B1 (ko) 2020-09-28 2020-09-28 인공지능을 이용한 임산물 진품 판별시스템

Publications (2)

Publication Number Publication Date
KR20220042595A true KR20220042595A (ko) 2022-04-05
KR102557786B1 KR102557786B1 (ko) 2023-07-20

Family

ID=81182317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200125593A KR102557786B1 (ko) 2020-09-28 2020-09-28 인공지능을 이용한 임산물 진품 판별시스템

Country Status (1)

Country Link
KR (1) KR102557786B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101399061B1 (ko) 2011-05-13 2014-05-28 부산대학교 산학협력단 호환성을 평가하기 위한 화면 동등성 판별 장치 및 방법
KR20160009822A (ko) * 2014-07-17 2016-01-27 백정임 농·수산물 및 임산물에 대한 정품인증 및 표준생산, 판매자 실명 확인 시스템 및 그 확인방법
KR101710512B1 (ko) * 2016-06-23 2017-03-13 주식회사 한농쿱 산양삼 연근정보 제공 시스템
JP2017117454A (ja) * 2015-12-17 2017-06-29 株式会社テララコード研究所 光学コード、光学コードの作成方法、光学コードの真贋判定方法、光学コードの読取装置、及び読取補助装置
KR20200101540A (ko) 2019-02-01 2020-08-28 장현재 피부 이미지 기반의 인공지능 딥러닝을 이용한 피부질환 판별용 api 엔진을 구성하는 스마트 피부질환 판별 플랫폼시스템
KR20200105224A (ko) * 2019-02-28 2020-09-07 중앙대학교 산학협력단 머신러닝 기반 진위 판별 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101399061B1 (ko) 2011-05-13 2014-05-28 부산대학교 산학협력단 호환성을 평가하기 위한 화면 동등성 판별 장치 및 방법
KR20160009822A (ko) * 2014-07-17 2016-01-27 백정임 농·수산물 및 임산물에 대한 정품인증 및 표준생산, 판매자 실명 확인 시스템 및 그 확인방법
JP2017117454A (ja) * 2015-12-17 2017-06-29 株式会社テララコード研究所 光学コード、光学コードの作成方法、光学コードの真贋判定方法、光学コードの読取装置、及び読取補助装置
KR101710512B1 (ko) * 2016-06-23 2017-03-13 주식회사 한농쿱 산양삼 연근정보 제공 시스템
KR20200101540A (ko) 2019-02-01 2020-08-28 장현재 피부 이미지 기반의 인공지능 딥러닝을 이용한 피부질환 판별용 api 엔진을 구성하는 스마트 피부질환 판별 플랫폼시스템
KR20200105224A (ko) * 2019-02-28 2020-09-07 중앙대학교 산학협력단 머신러닝 기반 진위 판별 방법 및 장치

Also Published As

Publication number Publication date
KR102557786B1 (ko) 2023-07-20

Similar Documents

Publication Publication Date Title
Spottiswoode et al. How to evade a coevolving brood parasite: egg discrimination versus egg variability as host defences
Renoult et al. Colour spaces in ecology and evolutionary biology
Becher et al. Bumble‐BEEHAVE: A systems model for exploring multifactorial causes of bumblebee decline at individual, colony, population and community level
Allen et al. Character displacement of Cercopithecini primate visual signals
Spottiswoode et al. Visual modeling shows that avian host parents use multiple visual cues in rejecting parasitic eggs
CN110414305A (zh) 人工智能卷积神经网络人脸识别系统
KR20200084940A (ko) Cnn 기반 병해 및 손상 과일 분류 장치 및 방법
CN110689093B (zh) 一种复杂场景下的图像目标精细分类方法
CN110139067A (zh) 一种野生动物监测数据管理信息系统
Stoddard et al. Higher-level pattern features provide additional information to birds when recognizing and rejecting parasitic eggs
CN110479635B (zh) 基于神经网络自动分拣烟叶的方法及装置
Shi et al. Amur tiger stripes: Individual identification based on deep convolutional neural network
Taylor et al. Distance transform: a tool for the study of animal colour patterns
Takasu Co-evolutionary dynamics of egg appearance in avian brood parasitism
JP5104282B2 (ja) 画像補正方法および画像補正装置
Ducournau et al. An image acquisition system for automated monitoring of the germination rate of sunflower seeds
US20200380315A1 (en) Computer vision classifier using item micromodels
Mohamadzadeh Moghadam et al. Nondestructive classification of saffron using color and textural analysis
Valvo et al. Using Delaunay triangulation to sample whole‐specimen color from digital images
KR20220042595A (ko) 인공지능을 이용한 임산물 진품 판별시스템
CN115880753A (zh) 一种人脸识别处理方法及装置
Briolat et al. Generalist camouflage can be more successful than microhabitat specialisation in natural environments
Mattos et al. Metaheuristic optimization for automatic clustering of customer-oriented supply chain data
CN115511813A (zh) 一种辅助胚胎分级智能系统及存储介质
Weller et al. recolorize: An R package for flexible colour segmentation of biological images

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant