KR102494578B1 - Method and System for Artificial Intelligence based Quality Inspection in Manufacturing Process using Machine Vision Deep Learning - Google Patents

Method and System for Artificial Intelligence based Quality Inspection in Manufacturing Process using Machine Vision Deep Learning Download PDF

Info

Publication number
KR102494578B1
KR102494578B1 KR1020200171529A KR20200171529A KR102494578B1 KR 102494578 B1 KR102494578 B1 KR 102494578B1 KR 1020200171529 A KR1020200171529 A KR 1020200171529A KR 20200171529 A KR20200171529 A KR 20200171529A KR 102494578 B1 KR102494578 B1 KR 102494578B1
Authority
KR
South Korea
Prior art keywords
image
artificial intelligence
learning
deep learning
obstacle
Prior art date
Application number
KR1020200171529A
Other languages
Korean (ko)
Other versions
KR20220082159A (en
Inventor
김대경
고길용
박영웅
조정익
김지훈
박광열
Original Assignee
순천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 순천대학교 산학협력단 filed Critical 순천대학교 산학협력단
Priority to KR1020200171529A priority Critical patent/KR102494578B1/en
Publication of KR20220082159A publication Critical patent/KR20220082159A/en
Application granted granted Critical
Publication of KR102494578B1 publication Critical patent/KR102494578B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법 및 안전장치에 관한 것으로, 더욱 상세하게는 육안으로 식별하기 어려운 돌, 나무 등을 카메라와 초음파 센서 입력된 정보를 딥러닝과 인공지능으로 판단하고 알람으로 알려 보다 안전하게 작업하며 농기계 운전자 및 주변의 사람을 보호할 수 있는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법 및 안전장치에 관한 것이다.The present invention relates to an AI-based detachable safety detection method and safety device for agricultural machinery using deep learning. It is about an AI-based detachable safety detection method and safety device for agricultural machinery using deep learning, which can work more safely by notifying with an alarm and protect agricultural machinery operators and people around them.

Description

딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법 및 안전장치{Method and System for Artificial Intelligence based Quality Inspection in Manufacturing Process using Machine Vision Deep Learning}AI-based detachable safety detection method and safety device for agricultural machinery using deep learning {Method and System for Artificial Intelligence based Quality Inspection in Manufacturing Process using Machine Vision Deep Learning}

본 발명은 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법 및 안전장치에 관한 것으로, 더욱 상세하게는 육안으로 식별하기 어려운 돌, 나무 등을 카메라와 초음파 센서 입력된 정보를 딥러닝과 인공지능으로 판단하고 알람으로 알려 보다 안전하게 작업하며 농기계 운전자 및 주변의 사람을 보호할 수 있는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법 및 안전장치에 관한 것이다.The present invention relates to an AI-based detachable safety detection method and safety device for agricultural machinery using deep learning. It is about an AI-based detachable safety detection method and safety device for agricultural machinery using deep learning, which can work more safely by notifying with an alarm and protect agricultural machinery operators and people around them.

해마다 귀농 인구는 늘고 있고, 농업에 대한 관심이 커질 뿐만 아니라 농업에 종사하는 연령층도 젊어지고 있다. 현재 논 농업의 기계화율은 97%, 밭 농업의 기계화율은 58%로 농업의 기계화에 따라 농기계 이용에 대한 안전 대책이 요구되고 있다.Every year, the population returning to farming is increasing, interest in agriculture is growing, and the age group engaged in agriculture is also getting younger. Currently, the mechanization rate of rice paddy agriculture is 97%, and the mechanization rate of field agriculture is 58%. Safety measures for the use of agricultural machinery are required according to the mechanization of agriculture.

일반적으로 자동차에는 전/후방 보조 센서, 차간거리 제어 등 안전장치들이 잘 갖춰져 있지만,농업용 기계에는 안전대책이 마련되지 않았다. 농업 종사 환경은 작업시 육안으로 보이지 않는 장애물이 많아 도로환경과 매우 다르므로 농업 환경에 알맞은 센서가 필요한 실정이다. 자율운전 기술에서 ADAS, 자율 주행 등 다양한 시스템이 개발되고 있지만,고가의 차량에만 장착될 뿐 더러,더욱더 세밀한 운전을 요구하는 작업용 차량을 위한 시스템은 없었다. In general, automobiles are well equipped with safety devices such as front/rear assist sensors and inter-vehicle distance control, but safety measures are not provided for agricultural machinery. Since the agricultural environment has many obstacles invisible to the naked eye during work, it is very different from the road environment, so a sensor suitable for the agricultural environment is required. Although various systems such as ADAS and autonomous driving are being developed in autonomous driving technology, there is no system for work vehicles that are only installed in expensive vehicles and require more detailed driving.

지난 2014년 내지 2018년 농기계 사고는 모두 6,981건,사망자는 492명으로 하루 4건 정도의 안전사고가 발생했고, 그중에서도 경운기로 인한 사고는 무려 50%에 달한다. 경운기 사고의 원인의 74%가 전도,추락이라는 점에서 감지 센서의 필요성이 부각된다.Between 2014 and 2018, a total of 6,981 accidents occurred with agricultural machinery, and 492 deaths occurred, with about 4 safety accidents occurring per day. The need for detection sensors is highlighted in that 74% of the causes of cultivator accidents are overturning and falling.

또한 농업인에게 안전과 소득을 동시에 가져다주기 위해 저가의 탈부착형 안전장치를 만들 필요가 있다.In addition, it is necessary to create a low-cost detachable safety device to bring safety and income to farmers at the same time.

또한 강한 세기의 ND 자석,농기계에 맞는 케이스를 3D 프린터로 제작한다면 저가의 안전장치 하나로 모든 농기계에 탈부착이 가능하고,적외선 카메라,초음파 센서를 이 용한다면 적은 투자 비용으로 농업 환경에 알맞은 농기계 탈부착형 센서 제작이 가능할 것으로 예상된다.In addition, if a strong ND magnet and a case suitable for agricultural machinery are produced with a 3D printer, it can be attached to and detached from all agricultural machines with one low-cost safety device. It is expected that the sensor can be fabricated.

또한 농업 환경에는 작업 시 밟고 지나가거나 부딪혀도 되는 곡식, 풀,진흙 등(안전한 물체)으로 이루어진 환경도 있지만,작업시 육안으로 식별하기 어려운 돌,나무 등의 환경에서는 단순히 부딪히더라도 전도/추락으로 이어질 수 있는 위험요소가 있다.Also, in the agricultural environment, there are environments made of grain, grass, mud, etc. (safe objects) that can be stepped on or bumped into during work, but in environments such as stones and trees that are difficult to visually identify during work, even if simply bumped into, it will lead to a fall/fall. There are potential risk factors.

한편 초기의 라즈베리 파이는 엘레멘트14/프리미어 파넬, RS 콤포넌트와의 허가된 제조 협정을 통해 제작되었다.Meanwhile, the early Raspberry Pi was manufactured through a licensed manufacturing agreement with Element 14/Premier Panel and RS Components.

라즈베리 파이는 모두 동일한 비디오코어 IV GPU와, 싱글코어 ARMv6에 호환되는 CPU 또는 신형의 ARMv7에 호환되는 쿼드코어(라즈베리 파이 2), 1 GB의 RAM(라즈베리 파이 2), 512 MB(라즈베리 파이 1 B와 B+), 또는 256 MB(모델 A와 A+, 구형 모델 B)의 메모리를 포함한다. 이들은 SD 카드 슬롯 (모델 A 와 B) 또는 부팅 가능한 매체와 지속적인 정보 저장을 위한 마이크로SDHC를 갖추고 있다.Raspberry Pis all have the same Videocore IV GPU, single-core ARMv6 compatible CPU or the newer ARMv7 compatible quad-core (Raspberry Pi 2), 1 GB of RAM (Raspberry Pi 2), 512 MB (Raspberry Pi 1 B and B+), or 256 MB (models A and A+, older model B) of memory. They have an SD card slot (models A and B) or microSDHC for bootable media and persistent information storage.

2014년, 라즈베리 파이 재단은 원래의 라즈베리 파이와 계산 능력이 같은 임베디드 시스템의 일부로 사용하기 위한 '계산 모듈'을 출시하였다. 2015년 초, 차세대 라즈베리 파이인 라즈베리 파이 2가 출시되었다. 이 새로운 컴퓨터 보드는 처음에는 한 가지 형식(모델 B)이었으며, 쿼드 코어 ARM Cortex-A7 CPU와 1GB RAM에 나머지 사양은 모델 B+와 유사했다. In 2014, the Raspberry Pi Foundation released a 'compute module' for use as part of an embedded system with the same computational power as the original Raspberry Pi. In early 2015, the next-generation Raspberry Pi, the Raspberry Pi 2, was released. This new computer board initially came in one format (the Model B), with a quad-core ARM Cortex-A7 CPU and 1GB of RAM, with the rest of the specs similar to the Model B+.

라즈베리 파이 재단은 데비안과 아치 리눅스 ARM 배포판의 다운로드를 제공하고, 주요 프로그래밍 언어로 파이썬의 사용을 촉진하며, BBC 베이직을 지원한다. C, C++, 자바, 펄, 루비, 스퀵 스몰토크 등의 언어가 사용 가능하다.The Raspberry Pi Foundation provides downloads for the Debian and Arch Linux ARM distributions, promotes the use of Python as a major programming language, and supports BBC Basic. Languages such as C, C++, Java, Perl, Ruby, and Squeak Smalltalk are available.

그러나 이렇게 다양한 기능을 갖는 라즈베리 파이를 이용한 농업 기계용 장치는 아직 다양하게 개발되지 못하는 실정이다.However, a device for agricultural machinery using a raspberry pi having such a variety of functions has not yet been developed in various ways.

한편 머신 비젼에 사용되는 영상 처리 기법들은, 대상 품목의 변화가 없고 외부요인이 완전히 같고 통제된 상황에서는 높은 정확도와 불량률 탐지가 가능하지만, 이렇게 엄격한 조건의 설정은 외부 환경의 변화 시에 엔지니어가 재학습을 하기 위해 새로운 모델 학습을 시도하거나 판별 알고리즘의 재설계가 필요하다는 한계를 가지고 있다.On the other hand, image processing techniques used in machine vision are capable of high accuracy and defect rate detection under conditions where there is no change in the target item and the external factors are exactly the same and controlled. It has limitations in that it requires trying to learn a new model or redesigning the discrimination algorithm for learning.

또한 기존의 농기계는 운전하는 작업자가 육안으로 작업장을 육안으로 확인하는 작업을 시행하는 방법으로 이루어지고 있다. 하지만 경운기나 트랙터 등 농기계는 밭을 갈거나 제초가 이루어지는 지면은 기계에 가려져 육안에 의한 검사는 조직, 환경 등 여러 요인에 의해 인적오류(human error)가 발생하는 문제가 있다. In addition, existing agricultural machines are made in such a way that the operator visually checks the workplace with the naked eye. However, agricultural machines such as cultivators and tractors have a problem in that the ground for plowing or weeding is covered by the machine, and human error occurs due to various factors such as organization and environment in visual inspection.

JP 2014-153560 A (공개일 2014.08.25.)JP 2014-153560 A (published on 2014.08.25.) KR 10-1711073 B1 (등록일 2017.02.22.)KR 10-1711073 B1 (registration date 2017.02.22.) KR 10-2073162 B1 (등록일 2020.01.29.)KR 10-2073162 B1 (registration date 2020.01.29.) JP 6653929 B1 (등록일 2020.01.31.)JP 6653929 B1 (registration date 2020.01.31.)

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 딥 러닝을 이용한 농업용 기계에 특화된 탈부착형 안전 탐지 장치를 제공함에 있다.The present invention has been made to solve the above problems, and an object of the present invention is to provide a detachable safety detection device specialized for agricultural machinery using deep learning.

또한 본 발명은 누구나 쉽게 농기계에 장착할 수 있는 탈부착의 형태이고, 소리,화면 진동 등의 직관적인 알림이 가능하여 노령화되고 있는 농촌에서의 작업자의 안전을 지킬 수 있다.In addition, the present invention is in the form of attachment and detachment that anyone can easily mount on agricultural machinery, and intuitive notifications such as sound and screen vibration are possible, so that the safety of workers in aging rural areas can be maintained.

또한 본 발명은 트랙터,경운기 등 각각의 농기계에 탈부착이 가능하도록 케이스를 만들어 여러 가지의 농기계에 사용이 가능하다.In addition, the present invention can be used in various agricultural machines by making a case that can be attached to and detached from each agricultural machine such as a tractor and a cultivator.

또한 본 발명은 곡식, 풀, 진흙 등(안전한 물체) 작업 시 밟고 지나가거나 부딪혀도 상관없는 물체와 돌,나무 같이 부딪힐 경우 피해가 가는 물체를 딥러닝을 통한 구분 후 위험물체만 센서 감지 및 알림이 가능하게 한다.In addition, the present invention distinguishes through deep learning an object that does not matter if it is stepped on or collided with, such as grain, grass, mud, etc. (safe object), and an object that is damaged when collided with, such as a stone or tree, and only dangerous objects are detected and notified by the sensor make it possible

또한 본 발명은 풀, 나무 등은 물체의 형태가 제각각이기 때문에 딥러닝 학습을 통해 구분할 수 있어 인적오류를 제거하고, 품질관리의 비용을 최소화하며, 생산성을 향상시킬 수 있다.In addition, in the present invention, grass, trees, etc. can be distinguished through deep learning learning because the shape of the object is different, thereby eliminating human error, minimizing the cost of quality control, and improving productivity.

상기 목적을 달성하기 위한 본 발명은 인공지능부에 의해 제어되는 딥러닝 기능이 탑재된 AI 기반의 농기계 탈부착형 안전 탐지 방법에 있어서, 인공지능부가 지면의 영상을 실시간으로 처리하여 전송하는 카메라를 통해 입력되는 영상을 프레임 단위로 처리하고 분석하는 단계; 상기 인공지능부가 분석된 영상 프레임을 위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용한 학습 모델을 학습하는 단계; 상기 인공지능부가 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 상태에 기반하여 위험상황으로 판단하는 단계; 상기 인공지능부가 상기 위험상황에 따른 알람을 발생시키는 단계;를 포함한다.The present invention for achieving the above object is an AI-based detachable safety detection method for agricultural machinery equipped with a deep learning function controlled by an artificial intelligence unit, through a camera in which the artificial intelligence unit processes and transmits images of the ground in real time processing and analyzing an input image frame by frame; learning a learning model using an artificial intelligence algorithm for an image component related to a dangerous situation in the image frame analyzed by the artificial intelligence unit; recognizing one or more objects from the collected images based on the learned algorithm by the artificial intelligence unit, and determining a dangerous situation based on states of the one or more objects; and generating an alarm according to the dangerous situation by the artificial intelligence unit.

상기 인공지능부가 위험상황으로 판단하는 단계는, 지면의 상황 진단을 위해 돌멩이, 흙덩이, 나무, 작물 유형의 특징을 추출하는 단계; 상기 인공지능부가 추출된 1차원 영상 신호를 2차원 회색조 영상 (gray image)으로 변환하여, 샘플간의 상관관계를 확인함으로써 유형별로 특징을 추출하는 단계; 상기 인공지능부가 검증을 통과한 학습 모델을 통해 장애물의 상태를 진단하는 단계;를 포함한다.The step of determining the dangerous situation by the artificial intelligence unit may include: extracting characteristics of rocks, soil lumps, trees, and crop types in order to diagnose a ground situation; converting the extracted one-dimensional image signal into a two-dimensional gray-scale image by the artificial intelligence unit, and extracting features for each type by confirming a correlation between samples; and diagnosing the state of the obstacle through the learning model that has passed the verification by the artificial intelligence unit.

상기 카메라를 통해 입력되는 지면의 영상을 프레임 단위로 처리하고 분석하는 단계는 상기 인공지능부는 영상저장장치에 상기 위험상황의 발생장소에 카메라를 팬, 틸트, 줌 이동시켜 포커싱하여 영상을 저장하고, 직접 모니터링 상태로 전환하는 단계;를 더 포함한다.In the step of processing and analyzing the image of the ground input through the camera in frame units, the artificial intelligence unit pans, tilts, and zooms the camera to the place where the dangerous situation occurs to focus and stores the image, Switching to the direct monitoring state; further includes.

상기 위험상황으로 판단하는 단계는, 장애물이 미리 설정된 기준값과 다른 경우 위험상황으로 판단하는 단계를 포함한다.The step of determining the dangerous situation includes determining the dangerous situation when the obstacle is different from a preset reference value.

상기 인공지능 알고리즘은 기계 학습, 신경망, 유전자, 딥러닝, 이미지 분류 알고리즘 중 적어도 하나를 포함한다.The artificial intelligence algorithm includes at least one of machine learning, neural network, genetic, deep learning, and image classification algorithms.

상기 위험상황에 따른 알람은 시각적 또는 청각적으로 구분된다.Alarms according to the dangerous situation are classified visually or audibly.

상기 학습 모델을 학습하는 단계는, 상기 촬영된 장애물의 영상을 캡쳐하고 데이터를 수집하는 단계; 수집된 상기 데이터를 오토인코더(autoencoder)를 통해 특징점 점수(keypoint score)를 추출하는 단계; 추출된 상기 특징점으로 장애물 모델을 학습하는 단계; 상기 장애물 정상범주에 속하는지 판단하는 단계;를 포함한다.Learning the learning model may include capturing an image of the captured obstacle and collecting data; extracting a keypoint score from the collected data through an autoencoder; learning an obstacle model with the extracted feature points; and determining whether the obstacle belongs to the normal category.

상기 위험상황으로 판단하는 단계는, 특징점 검출 알고리즘을 사용하여 습득한 영상을 영상 속 이미지 간 유사도 (Cos-Similarity)를 통해 정상 이미지와 불량 이미지로 분류하는 단계; 서로 다른 이미지 간의 비교를 통해 특징점(keypoint) 추출 및 매칭을 하는 단계; 각 이미지 간의 유사도를 나타내는 특징점 점수(KPS: keypoint scoring)를 산출하는 단계; 상기 산출하는 단계에서 산출된 특징점 점수로 각 이미지를 분류하는 단계; 상기 분류하는 단계에서 분류된 분류 번호 및 확률 값을 판정 결과로 출력하는 단계;로 구성된다.The step of determining that the dangerous situation may include classifying the acquired image into a normal image and a bad image through cos-similarity between images in the image using a feature point detection algorithm; Extracting and matching keypoints through comparison between different images; Calculating a keypoint scoring (KPS) representing a degree of similarity between each image; classifying each image with the feature point score calculated in the calculating step; and outputting the classification number and probability value classified in the classifying step as a determination result.

상기 불량 이미지의 영상들을 수집하여 재학습시키는 단계;를 더 포함한다. 이 때 상기 재학습시키는 단계는, 원격의 서버에 의해 수행된다.
상기 재학습시키는 단계는, 원격의 서버에 의해 수행된다.
본 발명은 지면의 영상을 실시간으로 처리하여 전송하는 카메라; 상기 카메라로부터 생성된 영상으로 돌멩이와 흙덩이를 구분하기 위한 분류기를 학습시키고, 학습된 분류기를 이용하여 흙덩이를 돌멩이로 불량 판정하는 비율을 계산하는 인공지능부;를 포함한다.
본 발명은 카메라의 영상이 인공지능부에 의해 학습되고 인공지능부에 의해 제어되는 딥러닝을 이용한 AI 기반 농기계 탈부착형 안전 탐지 장치에 있어서, 상기 인공지능부는, 상기 흙덩이 또는 돌멩이 영상에 관한 측정 데이터를 실시간으로 측정하고, 상기 측정 데이터를 수집하고, 상기 수집된 데이터의 학습 모델을 생성한 후 상기 학습 모델의 검증을 진행하여, 상기 입력된 영상의 장애물의 안전 진단을 위해서는 유형의 특징을 추출하고, 상기 유형의 특징이 진동체이면, 상기 장애물이 발생시키는 추출된 1차원 진동 신호를 2차원 회색조 영상(gray image)으로 변환하여, 1차원 영상에서의 상관관계를 확인함으로써 장애물을 유형별로 특징을 추출하여, 상기 검증부의 검증을 통과한 학습 모델을 통해 장애물의 상태를 진단하고 분석하여 예방조치할 수 있다.
상기 카메라에는, 기설정주기로 센싱값을 생성하는 적어도 하나의 센서를 동작하도록 제어하는 초소형 제어 보드(220); 상기 센서부와 초소형 제어 보드가 철판의 일측면에 부착되도록 자성을 제공하는 자성체(300);가 추가적으로 연결된다.
상기 카메라는, 외부 영상을 실시간으로 캡쳐하여, 딥러닝으로 분석하기 위한 클립 이미지로 분해하여 전송한다.
상기 자성체(300)는 농업 기계의 일정 부분에 용이하게 장착할 수 있는 ND 자석으로 이루어진다.
상기 카메라는 소리,화면 진동의 알림을 위한 진동체;와 연결된다.
상기 초소형 제어 보드는 라즈베리 파이 또는 아두이노 기반의 제어 보드이다.
상기 초소형 제어 보드는 딥러닝을 통해 사고시 충격량이 일정치 이상인 강한 물체,충격량이 일정치 이하인 약한 물체를 구분하여 감지한다.
상기 카메라는, 상기 초소형 제어 보드의 딥러닝 분석 결과를 표시하는 디스플레이 장치;에 연결된다.
상기 센서부는, 농업 기계에서의 진동 에너지를 미세하게 수확하여 축적한 후 필요할 때 사용하는 하베스팅 IC;와 연결된다.
본 발명은 딥러닝 기능이 탑재된 AI 기반의 농기계 탈부착형 안전 탐지 장치로서, 시각적, 청각적 알람을 출력하는 출력부; 복수의 카메라와 데이터를 주고받는 통신부; 및 위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하도록 제어하는 인공지능부;를 포함하고, 상기 인공지능부는, 상기 통신부를 통해 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하여 분석하고, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 크기에 기반하여 위험상황으로 판단하고, 상기 출력부를 통해 상기 위험상황에 따른 알람을 발생시킨다.
상기 카메라를 상기 위험상황의 발생 위치에 포커싱하여 영상녹화를 시작하도록 제어하고, 상기 하나 이상의 객체의 크기에 기반하여 위험상황으로 판단하고, 상기 출력부를 통해 위험상황에 따른 알람을 발생시키고, 직접 모니터링 상태로 전환하도록 제어한다.
상기 인공지능부는, 위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하고, 상기 네트워크를 통해 연결된 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하여 분석하고, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 움직임에 기반하여 1단계 위험상황으로 판단하고, 상기 1단계 위험상황에 따른 알람을 발생시키고, 상기 영상 수집 장치를 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하고, 상기 하나 이상의 객체의 움직임 변화량에 기반하여 2단계 위험상황으로 판단하고, 상기 2단계 위험상황에 따른 알람을 발생시키고, 직접 모니터링 상태로 전환한다.
The method further includes collecting images of the defective images and re-learning them. At this time, the re-learning step is performed by a remote server.
The re-learning step is performed by a remote server.
The present invention includes a camera that processes and transmits images of the ground in real time; and an artificial intelligence unit which learns a classifier for distinguishing a stone from a soil lump with the image generated by the camera and calculates a rate at which soil lumps are judged to be stones as defective using the learned classifier.
The present invention is an AI-based detachable safety detection device for agricultural machinery using deep learning in which an image of a camera is learned by an artificial intelligence unit and controlled by the artificial intelligence unit, wherein the artificial intelligence unit measures data related to the image of a soil lump or stone is measured in real time, the measurement data is collected, a learning model of the collected data is created, and then the learning model is verified, and for the safety diagnosis of the obstacle of the input image, the characteristics of the type are extracted, , If the feature of the type is a vibrating body, the extracted 1-dimensional vibration signal generated by the obstacle is converted into a 2-dimensional gray image, and the correlation in the 1-dimensional image is confirmed to characterize the obstacle by type. After extracting, preventive measures can be taken by diagnosing and analyzing the condition of the obstacle through the learning model that has passed the verification of the verification unit.
The camera includes a subminiature control board 220 for controlling to operate at least one sensor that generates a sensing value at a preset period; A magnetic body 300 providing magnetism so that the sensor unit and the microcontroller board are attached to one side of the iron plate; is additionally connected.
The camera captures external images in real time, decomposes them into clip images for analysis by deep learning, and transmits them.
The magnetic body 300 is made of an ND magnet that can be easily mounted on a certain part of an agricultural machine.
The camera is connected to a vibrating body for notification of sound and screen vibration.
The subminiature control board is a Raspberry Pi or Arduino based control board.
The subminiature control board classifies and detects a strong object with an impact amount of more than a certain value and a weak object with an impact amount of less than a certain value in the event of an accident through deep learning.
The camera is connected to a display device displaying a deep learning analysis result of the subminiature control board.
The sensor unit is connected to a harvesting IC used when necessary after finely harvesting and accumulating vibration energy from agricultural machinery.
The present invention is an AI-based detachable safety detection device for agricultural machinery equipped with a deep learning function, comprising: an output unit for outputting a visual and audible alarm; A communication unit for exchanging data with a plurality of cameras; and an artificial intelligence unit that controls image components related to dangerous situations to be learned using an artificial intelligence algorithm, wherein the artificial intelligence unit processes and analyzes images collected from the image collection device through the communication unit in frame units. and recognizes one or more objects from the collected images based on the learned algorithm, determines a dangerous situation based on the size of the one or more objects, and generates an alarm according to the dangerous situation through the output unit.
Control the camera to focus on the location where the dangerous situation occurs to start video recording, determine a dangerous situation based on the size of the one or more objects, generate an alarm according to the dangerous situation through the output unit, and directly monitor control to switch state.
The artificial intelligence unit learns image components related to dangerous situations using an artificial intelligence algorithm, processes and analyzes images collected from image collection devices connected through the network in frame units, and based on the learned algorithm Recognize one or more objects from the collected images, determine a first-level dangerous situation based on the movement of the one or more objects, generate an alarm according to the first-stage dangerous situation, and set the image collection device to the first-stage dangerous situation. Video recording is started by focusing on the place where the situation occurs, it is determined as a second-stage dangerous situation based on the amount of change in the movement of the one or more objects, an alarm is generated according to the second-stage dangerous situation, and a direct monitoring state is switched.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 기존의 머신 비전 검사 기법과 달리, 영상 딥러닝을 이용한 AI 기반 농기계 탈부착형 안전 탐지 방법에서의 자동 결함 탐지시스템은 현장 적용성이 뛰어나고 큰 차별성을 가지므로 결함의 정형화가 어려워 육안에 의존하는 검사 영역에 대해서도 머신 비전 기반 검사가 가능해져 도입 비용을 획기적으로 낮추는 것이 가능하다.As described above, according to the embodiments of the present invention, unlike conventional machine vision inspection techniques, the automatic defect detection system in the AI-based detachable safety detection method for agricultural machinery using image deep learning has excellent field applicability and great differentiation. Since it has , it is possible to dramatically lower the introduction cost by enabling machine vision-based inspection even in areas where it is difficult to formalize defects and rely on the naked eye.

또한 본 발명은 충돌 시 문제가 발생할 수 있는 물체를 라즈베리파이를 통한 딥러닝을 이용해 구별하고 농기계 사용 시 안전을 보강한다.In addition, the present invention distinguishes objects that may cause problems in a collision using deep learning through Raspberry Pi and reinforces safety when using agricultural machinery.

또한 본 발명은 누구나 쉽게 장착할 수 있는 형태여야 하고,소리,화면 진동 등의 직관적인 알림이 가능하다.In addition, the present invention should be in a form that can be easily installed by anyone, and intuitive notifications such as sound and screen vibration are possible.

또한, 본 발명의 실시예들에 따르면, 자동 결함 탐지시스템을 통해 인적오류를 제거하고, 품질관리의 비용을 최소화하며, 기계 설비의 생산력 증진을 도모할 수 있다.In addition, according to embodiments of the present invention, human error can be eliminated through an automatic defect detection system, cost of quality control can be minimized, and productivity of machinery can be improved.

또한, 본 발명의 실시예들에 따르면, 날씨에 의한 지표면의 돌덩이와 흙덩이의 모습의 잦은 변경에도 자동화된 학습 및 최적화 방안을 제공할 수 있다.In addition, according to embodiments of the present invention, it is possible to provide an automated learning and optimization method even when the shapes of rocks and soil on the ground surface are frequently changed due to weather.

도 1은 본 발명의 일실시예에 따른 딥러닝을 이용한 AI 기반 농기계 탈부착형 안전 탐지 장치의 구성을 보여주는 도면이다.
도 2는 본 발명의 일실시예에 따른 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법에서 위험 사항을 판단하고 알람을 발생하는 플로챠트를 보여주는 도면이다.
도 3은 본 발명의 일실시예에 따른 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법에서 2차원 회색조 영상으로 장애물의 상태를 진단하는 플로챠트를 보여주는 도면이다.
도 4는 본 발명의 다른 실시예에 따른 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법에서 포커싱 영상 저장 상태로 전환하는 플로챠트를 보여주는 도면이다.
도 5는 본 발명의 다른 실시예에 따른 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법에서 장애물 영상의 연산값을 기준값과 비교하는 플로챠트를 보여주는 도면이다.
도 6은 본 발명의 다른 실시예에 따른 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법에서 사용되는 복수개의 알고리즘을 보여주는 도면이다.
도 7은 본 발명의 또 다른 실시예에 따른 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법에서 흙덩이와 돌맹이를 판정하기 어려운 문제를 해결하는 것을 보여주는 도면이다.
1 is a diagram showing the configuration of an AI-based detachable safety detection device for agricultural machinery using deep learning according to an embodiment of the present invention.
2 is a diagram showing a flowchart for determining a risk and generating an alarm in an AI-based detachable safety detection method for agricultural machinery using deep learning according to an embodiment of the present invention.
3 is a diagram showing a flow chart for diagnosing the state of an obstacle with a two-dimensional grayscale image in the AI-based detachable safety detection method for agricultural machinery using deep learning according to an embodiment of the present invention.
4 is a flowchart showing a transition to a focusing image storage state in an AI-based detachable safety detection method for agricultural machinery using deep learning according to another embodiment of the present invention.
5 is a flowchart showing a comparison between an operation value of an obstacle image and a reference value in an AI-based detachable safety detection method for agricultural machinery using deep learning according to another embodiment of the present invention.
6 is a diagram showing a plurality of algorithms used in an AI-based detachable safety detection method for agricultural machinery using deep learning according to another embodiment of the present invention.
7 is a view showing solving the problem of difficult determination of soil lumps and rocks in the AI-based detachable safety detection method for agricultural machinery using deep learning according to another embodiment of the present invention.

본 발명을 충분히 이해하기 위해서 본 발명의 바람직한 실시예를 첨부 도면을 참조하여 설명한다. 본 발명의 실시예는 여러 가지 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상세히 설명하는 실시예로 한정되는 것으로 해석되어서는 안 된다. 본 실시예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 따라서 도면에서의 요소의 형상 등은 보다 명확한 설명을 강조하기 위해서 과장되어 표현될 수 있다. 각 도면에서 동일한 부재는 동일한 참조부호로 도시한 경우가 있음을 유의하여야 한다. 또한, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 기술은 생략된다.In order to fully understand the present invention, preferred embodiments of the present invention will be described with reference to the accompanying drawings. Embodiments of the present invention may be modified in various forms, and the scope of the present invention should not be construed as being limited to the examples described in detail below. This embodiment is provided to more completely explain the present invention to those skilled in the art. Therefore, the shapes of elements in the drawings may be exaggerated to emphasize a clearer explanation. It should be noted that in each drawing, the same members are sometimes indicated by the same reference numerals. In addition, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention are omitted.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1에 도시된 바와 같이 카메라(210)에는 기설정주기로 이미지값을 생성하는 적어도 하나의 센서를 포함하고, 상기 카메라(210)가 동작하도록 제어하는 초소형 제어 보드(220); 상기 카메라(210)와 인공지능부를 포함하는 초소형 제어 보드(220)가 농기계 철판의 일측면에 부착되도록 자성을 제공하는 자성체(300);를 포함한다.As shown in FIG. 1 , the camera 210 includes at least one sensor that generates image values at a preset period, and controls the camera 210 to operate; A magnetic body 300 providing magnetism so that the camera 210 and the miniature control board 220 including the artificial intelligence unit are attached to one side of the iron plate for agricultural machinery.

본 발명은 지면의 영상을 실시간으로 처리하여 전송하는 카메라; 상기 카메라로부터 생성된 영상으로 돌멩이와 흙덩이를 구분하기 위한 분류기를 학습시키고, 학습된 분류기를 이용하여 흙덩이를 돌멩이로 불량 판정하는 비율을 계산하는 인공지능부;를 포함한다.The present invention includes a camera that processes and transmits images of the ground in real time; and an artificial intelligence unit which learns a classifier for distinguishing a stone from a soil lump with the image generated by the camera and calculates a rate at which soil lumps are judged to be stones as defective using the learned classifier.

상기 인공지능부는, 상기 흙덩이 또는 돌멩이 영상에 관한 측정 데이터를 실시간으로 측정하는 영상처리분석부(110)와 상기 측정 데이터를 수집하고, 상기 수집된 데이터의 학습 모델을 생성한 후 상기 학습 모델의 검증을 진행하는 위험상황판단부(120);를 포함하여, 상기 위험상황판단부(120)가 입력된 영상의 장애물의 안전 진단을 위해서는 유형의 특징을 추출하고, 접근하는 상기 장애물의 진동체에서 추출된 1차원 진동체의 진동 신호를 2차원 회색조 영상(gray image)으로 변환하여, 1차원 영상에서의 상관관계를 확인함으로써 장애물을 유형별로 특징을 추출하여, 상기 검증부의 검증을 통과한 학습 모델을 통해 장애물의 상태를 진단하고 분석하여 예방조치할 수 있다.The artificial intelligence unit collects the measurement data with the image processing and analysis unit 110 that measures measurement data on the image of the soil or stone in real time, creates a learning model of the collected data, and then verifies the learning model. Including, the risk situation determination unit 120 extracts the characteristics of the type for the safety diagnosis of the obstacle of the input image, and extracts it from the vibrating body of the approaching obstacle. The vibration signal of the 1D vibrating body is converted into a 2D gray image, and features are extracted for each type of obstacle by checking the correlation in the 1D image. Through this, preventive measures can be taken by diagnosing and analyzing the condition of obstacles.

상기 카메라에는, 기설정주기로 센싱값을 생성하는 적어도 하나의 센서를 포함하는 센서부; 상기 센서부가 동작하도록 제어하는 인공지능부; 상기 센서부와 초소형 제어 보드가 철판의 일측면에 부착되도록 자성을 제공하는 자성체;가 추가적으로 연결된다.The camera may include a sensor unit including at least one sensor that generates a sensing value at a preset period; an artificial intelligence unit controlling the sensor unit to operate; A magnetic material that provides magnetism so that the sensor unit and the microcontroller board are attached to one side of the iron plate; is additionally connected.

도 5에 도시된 바와 같이 딥러닝은 사물이나 데이터를 군집화하거나 분류하는 데 사용하는 기술로서, 컴퓨터는 사진만으로 돌멩이와 흙덩이를 구분하지 못 하지만 사람은 아주 쉽게 구분할 수 있다. As shown in FIG. 5, deep learning is a technology used to cluster or classify objects or data. Computers cannot distinguish between rocks and lumps of dirt only with photos, but humans can distinguish them very easily.

이를 위해 ‘머신러닝(Machine Learning)’이라는 방법이 고안되었는데, 이는 많은 데이터를 컴퓨터에 입력하고 비슷한 것끼리 분류하도록 하는 기술이다. 저장된 돌멩이 사진과 비슷한 사진이 입력되면, 이를 돌멩이 사진이라고 컴퓨터가 분류하도록 한 것이다. To this end, a method called 'Machine Learning' was devised, which is a technique that inputs a lot of data into a computer and classifies similar ones. If a photo similar to the stored stone photo is entered, the computer classifies it as a stone photo.

이러한 이미지 데이터를 어떻게 분류할 것인가를 놓고 이미 많은 머신러닝 알고리즘이 등장했는데, 딥러닝은 인공신경망의 한계를 극복하기 위해 제안된 머신러닝 방법이다. Many machine learning algorithms have already appeared on how to classify such image data, but deep learning is a machine learning method proposed to overcome the limitations of artificial neural networks.

딥러닝은 인간의 신경망을 모방하여 심층 신경망(Deep Neural Network)을 만들어 입력과 출력 사이에 겹겹이 층(Layer)을 쌓아 만든 네트워크로 결합 가중치(Weight) 문제를 학습하고 해결한다. 여기에 사용되는 심층 학습은 여러 비선형 변환 기법의 조합을 통하여, 기존의 머신러닝의 기법에서 가장 취약점을 보이던 대상물의 높은 수준의 추상화에서 강점을 보인다.Deep learning creates a deep neural network by imitating a human neural network and learns and solves the weight problem with a network created by stacking layers between input and output. The deep learning used here shows strength in high-level abstraction of objects, which showed the most weakness in existing machine learning techniques, through a combination of several nonlinear transformation techniques.

본 발명의 실시예에서는, 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법을 제시한다. In an embodiment of the present invention, an AI-based detachable safety detection method for agricultural machinery using deep learning is presented.

예를 들어 밭갈이나 제초작업을 하는 농장에서 흙과 돌을 분류함에 있어, 딥러닝 기법을 사용하여 탐지 대상이 되는 대상물의 돌, 흙덩이, 나무 등의 데이터를 학습하고, 자동으로 판별하는 경보나 제어를 할 수 있는 자동화된 방법이다.For example, in classifying soil and stones in a farm where plowing or weeding works, deep learning techniques are used to learn data such as stones, soil lumps, and trees of objects to be detected, and to automatically discriminate alarms or controls. is an automated way to do it.

본 발명의 실시예에 따른 품질검사 방법에서는, 학습 데이터(돌맹이 또는 흙덩이 영상)를 입력하여 자동으로 최적화된 판별 모델을 생성하는데, 이미지가 불규칙한 경우 비정형적 패턴에서도 학습을 통해 판별할 수 있다.In the quality inspection method according to an embodiment of the present invention, an optimized discrimination model is automatically generated by inputting learning data (images of rocks or soil lumps). If the image is irregular, it can be discriminated through learning even in an atypical pattern.

또한, 본 발명의 실시예에 따른 품질검사 방법에서는, 입력 데이터에 노이즈를 포함시켜 학습함으로써 외부 환경 요인의 변화에 강점을 보이고, 온라인으로 사용자 피드백 정보를 통한 재학습 및 검출 모델 교체가 가능하다.In addition, in the quality inspection method according to an embodiment of the present invention, by including noise in input data and learning, strength is shown in changes in external environmental factors, and re-learning and detection model replacement are possible through online user feedback information.

여기서, 생성된 영상에 대해서 일정 시간 간격으로 카메라에 의해 자동 객체검출을 수행하고, 검출된 객체에 대해 딥 러닝 네트워크를 이용하여 추적 기술을 적용함으로써 실시간 처리할 수 있으며, 물체가 검색되는 영역을 최소화하는 방법을 적용하여 딥 네트워크를 설계하고 트레이닝(training)할 수 있다.Here, automatic object detection is performed by the camera at regular time intervals on the generated image, and real-time processing can be performed by applying tracking technology using a deep learning network to the detected object, minimizing the area where the object is searched You can design and train a deep network by applying the method.

이하 도 2 내지 도 5를 참고하여 농기계 안전 탐지 방법에 대하여 자세히 설명한다.Hereinafter, the agricultural machine safety detection method will be described in detail with reference to FIGS. 2 to 5 .

본 발명은 인공지능부에 의해 제어되는 딥러닝 기능이 탑재된 AI 기반의 농기계 탈부착형 안전 탐지 방법에 있어서, 인공지능부가 지면의 영상을 실시간으로 처리하여 전송하는 카메라를 통해 입력되는 영상을 프레임 단위로 처리하고 분석하는 단계; 상기 인공지능부가 분석된 영상 프레임을 위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용한 학습 모델을 학습하는 단계; 상기 인공지능부가 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 상태에 기반하여 위험상황으로 판단하는 단계; 상기 인공지능부가 상기 위험상황에 따른 알람을 발생시키는 단계;를 포함한다.The present invention is an AI-based detachable safety detection method for agricultural machinery equipped with a deep learning function controlled by an artificial intelligence unit, in which the artificial intelligence unit processes and transmits an image of the ground in real time, and transmits an image input through a camera frame by frame. processing and analyzing; learning a learning model using an artificial intelligence algorithm for an image component related to a dangerous situation in the image frame analyzed by the artificial intelligence unit; recognizing one or more objects from the collected images based on the learned algorithm by the artificial intelligence unit, and determining a dangerous situation based on states of the one or more objects; and generating an alarm according to the dangerous situation by the artificial intelligence unit.

상기 인공지능부가 위험상황으로 판단하는 단계는, 지면의 상황 진단을 위해 돌멩이, 흙덩이, 나무, 작물 유형의 특징을 추출하는 단계; 상기 인공지능부가 추출된 1차원 영상 신호를 2차원 회색조 영상 (gray image)으로 변환하여, 샘플간의 상관관계를 확인함으로써 유형별로 특징을 추출하는 단계; 상기 인공지능부가 검증을 통과한 학습 모델을 통해 장애물의 상태를 진단하는 단계;를 포함한다.The step of determining the dangerous situation by the artificial intelligence unit may include: extracting characteristics of rocks, soil lumps, trees, and crop types in order to diagnose a ground situation; converting the extracted one-dimensional image signal into a two-dimensional gray-scale image by the artificial intelligence unit, and extracting features for each type by confirming a correlation between samples; and diagnosing the state of the obstacle through the learning model that has passed the verification by the artificial intelligence unit.

상기 카메라를 통해 입력되는 지면의 영상을 프레임 단위로 처리하고 분석하는 단계는 상기 인공지능부는 영상저장장치에 상기 위험상황의 발생장소에 카메라를 팬, 틸트, 줌 이동시켜 포커싱하여 영상을 저장하고, 직접 모니터링 상태로 전환하는 단계;를 더 포함한다.In the step of processing and analyzing the image of the ground input through the camera in frame units, the artificial intelligence unit pans, tilts, and zooms the camera to the place where the dangerous situation occurs to focus and stores the image, Switching to the direct monitoring state; further includes.

상기 위험상황으로 판단하는 단계는, 장애물이 미리 설정된 기준값과 다른 경우 위험상황으로 판단하는 단계를 포함한다.The step of determining the dangerous situation includes determining the dangerous situation when the obstacle is different from a preset reference value.

상기 인공지능 알고리즘은 기계 학습, 신경망, 유전자, 딥러닝, 이미지 분류 알고리즘 중 적어도 하나를 포함한다.The artificial intelligence algorithm includes at least one of machine learning, neural network, genetic, deep learning, and image classification algorithms.

상기 위험상황에 따른 알람은 시각적 또는 청각적으로 구분된다.Alarms according to the dangerous situation are classified visually or audibly.

상기 학습 모델을 학습하는 단계는, 상기 촬영된 장애물의 영상을 캡쳐하고 데이터를 수집하는 단계; 수집된 상기 데이터를 오토인코더(autoencoder)를 통해 특징점 점수(keypoint score)를 추출하는 단계; 추출된 상기 특징점으로 장애물 모델을 학습하는 단계; 상기 장애물 정상범주에 속하는지 판단하는 단계;를 포함한다.Learning the learning model may include capturing an image of the captured obstacle and collecting data; extracting a keypoint score from the collected data through an autoencoder; learning an obstacle model with the extracted feature points; and determining whether the obstacle belongs to the normal category.

상기 위험상황으로 판단하는 단계는, 특징점 검출 알고리즘을 사용하여 습득한 영상을 영상 속 이미지 간 유사도 (Cos-Similarity)를 통해 정상 이미지와 불량 이미지로 분류하는 단계; 서로 다른 이미지 간의 비교를 통해 특징점(keypoint) 추출 및 매칭을 하는 단계; 각 이미지 간의 유사도를 나타내는 특징점 점수(KPS: keypoint scoring)를 산출하는 단계; 상기 산출하는 단계에서 산출된 특징점 점수로 각 이미지를 분류하는 단계; 상기 분류하는 단계에서 분류된 분류 번호 및 확률 값을 판정 결과로 출력하는 단계;로 구성된다.The step of determining that the dangerous situation may include classifying the acquired image into a normal image and a bad image through cos-similarity between images in the image using a feature point detection algorithm; Extracting and matching keypoints through comparison between different images; Calculating a keypoint scoring (KPS) representing a degree of similarity between each image; classifying each image with the feature point score calculated in the calculating step; and outputting the classification number and probability value classified in the classifying step as a determination result.

상기 불량 이미지의 영상들을 수집하여 재학습시키는 단계;를 더 포함한다. 이 때 상기 재학습시키는 단계는, 원격의 서버에 의해 수행된다.The method further includes collecting images of the defective images and re-learning them. At this time, the re-learning step is performed by a remote server.

지금까지, 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법 및 안전장치에 대해 바람직한 실시예들을 들어 상세히 설명하였다.So far, AI-based detachable safety detection method and safety device for agricultural machinery using deep learning have been described in detail with preferred embodiments.

본 발명의 실시예에서는, 딥러닝 알고리즘을 적용하여 제조 공장에서 생산품의 분류 및 불량 판별을 수행하며, 딥러닝을 통하여 영상 데이터 학습을 통한 불량을 검출 모델을 자동으로 만들어 단순 패턴이 아닌 비정형화되고 복잡한 영상 이미지까지 분석을 가능한 검사가 가능하게 하였다.In the embodiment of the present invention, a deep learning algorithm is applied to classify products and discriminate defects in a manufacturing plant, and through deep learning, a defect detection model is automatically created through image data learning to be atypical rather than a simple pattern. It made it possible to analyze even complex video images.

또한, 도 7과 같이 실시예들에서는, 학습 데이터에 의해서 자동으로 검출 모델이 만들 수 있고, 사용자 피드백을 통한 온라인 학습을 통한 자가-최적화(self optimization)가 가능하여 높은 유연성을 제공함으로써, 비전 검사 시스템 도입 비용과 변경 비용을 낮출 수 있다.In addition, in the embodiments as shown in FIG. 7, a detection model can be automatically created by learning data, and self-optimization through online learning through user feedback is possible to provide high flexibility, thereby providing vision inspection. It can lower system introduction cost and change cost.

한편, 본 발명은 지면의 영상을 실시간으로 처리하여 전송하는 카메라; 상기 카메라로부터 생성된 영상으로 돌멩이와 흙덩이를 구분하기 위한 분류기를 학습시키고, 학습된 분류기를 이용하여 흙덩이를 돌멩이로 불량 판정하는 비율을 계산하는 인공지능부;를 포함한다.
본 발명은 카메라의 영상이 인공지능부에 의해 학습되고 인공지능부에 의해 제어되는 딥러닝을 이용한 AI 기반 농기계 탈부착형 안전 탐지 장치에 있어서, 상기 인공지능부는, 상기 흙덩이 또는 돌멩이 영상에 관한 측정 데이터를 실시간으로 측정하고, 상기 측정 데이터를 수집하고, 상기 수집된 데이터의 학습 모델을 생성한 후 상기 학습 모델의 검증을 진행하여, 상기 입력된 영상의 장애물의 안전 진단을 위해서는 유형의 특징을 추출하고, 상기 유형의 특징이 진동체이면, 상기 장애물이 발생시키는 추출된 1차원 진동 신호를 2차원 회색조 영상(gray image)으로 변환하여, 1차원 영상에서의 상관관계를 확인함으로써 장애물을 유형별로 특징을 추출하여, 상기 검증부의 검증을 통과한 학습 모델을 통해 장애물의 상태를 진단하고 분석하여 예방조치할 수 있다.
상기 카메라에는, 기설정주기로 센싱값을 생성하는 적어도 하나의 센서를 동작하도록 제어하는 초소형 제어 보드(220); 상기 센서부와 초소형 제어 보드가 철판의 일측면에 부착되도록 자성을 제공하는 자성체(300);가 추가적으로 연결된다.
상기 카메라는, 외부 영상을 실시간으로 캡쳐하여, 딥러닝으로 분석하기 위한 클립 이미지로 분해하여 전송한다.
상기 자성체(300)는 농업 기계의 일정 부분에 용이하게 장착할 수 있는 ND 자석으로 이루어진다.
상기 카메라는 소리,화면 진동의 알림을 위한 진동체;와 연결된다.
상기 초소형 제어 보드는 라즈베리 파이 또는 아두이노 기반의 제어 보드이다.
상기 초소형 제어 보드는 딥러닝을 통해 사고시 충격량이 일정치 이상인 강한 물체,충격량이 일정치 이하인 약한 물체를 구분하여 감지한다.
상기 카메라는, 상기 초소형 제어 보드의 딥러닝 분석 결과를 표시하는 디스플레이 장치;에 연결된다.
상기 센서부는, 농업 기계에서의 진동 에너지를 미세하게 수확하여 축적한 후 필요할 때 사용하는 하베스팅 IC;와 연결된다.
본 발명은 딥러닝 기능이 탑재된 AI 기반의 농기계 탈부착형 안전 탐지 장치로서, 시각적, 청각적 알람을 출력하는 출력부; 복수의 카메라와 데이터를 주고받는 통신부; 및 위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하도록 제어하는 인공지능부;를 포함하고, 상기 인공지능부는, 상기 통신부를 통해 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하여 분석하고, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 크기에 기반하여 위험상황으로 판단하고, 상기 출력부를 통해 상기 위험상황에 따른 알람을 발생시킨다.
상기 카메라를 상기 위험상황의 발생 위치에 포커싱하여 영상녹화를 시작하도록 제어하고, 상기 하나 이상의 객체의 크기에 기반하여 위험상황으로 판단하고, 상기 출력부를 통해 위험상황에 따른 알람을 발생시키고, 직접 모니터링 상태로 전환하도록 제어한다.
상기 인공지능부는, 위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하고, 상기 네트워크를 통해 연결된 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하여 분석하고, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 움직임에 기반하여 1단계 위험상황으로 판단하고, 상기 1단계 위험상황에 따른 알람을 발생시키고, 상기 영상 수집 장치를 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하고, 상기 하나 이상의 객체의 움직임 변화량에 기반하여 2단계 위험상황으로 판단하고, 상기 2단계 위험상황에 따른 알람을 발생시키고, 직접 모니터링 상태로 전환한다.
본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
On the other hand, the present invention is a camera for processing and transmitting the image of the ground in real time; and an artificial intelligence unit which learns a classifier for distinguishing a stone from a soil lump with the image generated by the camera and calculates a rate at which soil lumps are judged to be stones as defective using the learned classifier.
The present invention is an AI-based detachable safety detection device for agricultural machinery using deep learning in which an image of a camera is learned by an artificial intelligence unit and controlled by the artificial intelligence unit, wherein the artificial intelligence unit measures data related to the image of a soil lump or stone is measured in real time, the measurement data is collected, a learning model of the collected data is created, and then the learning model is verified, and for the safety diagnosis of the obstacle of the input image, the characteristics of the type are extracted, , If the feature of the type is a vibrating body, the extracted 1-dimensional vibration signal generated by the obstacle is converted into a 2-dimensional gray image, and the correlation in the 1-dimensional image is confirmed to characterize the obstacle by type. After extracting, preventive measures can be taken by diagnosing and analyzing the condition of the obstacle through the learning model that has passed the verification of the verification unit.
The camera includes a subminiature control board 220 for controlling to operate at least one sensor that generates a sensing value at a preset period; A magnetic body 300 providing magnetism so that the sensor unit and the microcontroller board are attached to one side of the iron plate; is additionally connected.
The camera captures external images in real time, decomposes them into clip images for analysis by deep learning, and transmits them.
The magnetic body 300 is made of an ND magnet that can be easily mounted on a certain part of an agricultural machine.
The camera is connected to a vibrating body for notification of sound and screen vibration.
The subminiature control board is a Raspberry Pi or Arduino based control board.
The subminiature control board classifies and detects a strong object with an impact amount of more than a certain value and a weak object with an impact amount of less than a certain value in the event of an accident through deep learning.
The camera is connected to a display device displaying a deep learning analysis result of the subminiature control board.
The sensor unit is connected to a harvesting IC used when necessary after finely harvesting and accumulating vibration energy from agricultural machinery.
The present invention is an AI-based detachable safety detection device for agricultural machinery equipped with a deep learning function, comprising: an output unit for outputting a visual and audible alarm; A communication unit for exchanging data with a plurality of cameras; and an artificial intelligence unit that controls image components related to dangerous situations to be learned using an artificial intelligence algorithm, wherein the artificial intelligence unit processes and analyzes images collected from the image collection device through the communication unit in frame units. and recognizes one or more objects from the collected images based on the learned algorithm, determines a dangerous situation based on the size of the one or more objects, and generates an alarm according to the dangerous situation through the output unit.
Control the camera to focus on the location where the dangerous situation occurs to start video recording, determine a dangerous situation based on the size of the one or more objects, generate an alarm according to the dangerous situation through the output unit, and directly monitor control to switch state.
The artificial intelligence unit learns image components related to dangerous situations using an artificial intelligence algorithm, processes and analyzes images collected from image collection devices connected through the network in frame units, and based on the learned algorithm Recognize one or more objects from the collected images, determine a first-level dangerous situation based on the movement of the one or more objects, generate an alarm according to the first-stage dangerous situation, and set the image collection device to the first-stage dangerous situation. Video recording is started by focusing on the place where the situation occurs, it is determined as a second-stage dangerous situation based on the amount of motion change of the one or more objects, an alarm is generated according to the second-stage dangerous situation, and a direct monitoring state is switched.
Of course, the technical idea of the present invention can also be applied to a computer-readable recording medium containing a computer program for performing the functions of the device and method according to the present embodiment. In addition, technical ideas according to various embodiments of the present invention may be implemented in the form of computer readable codes recorded on a computer readable recording medium. The computer-readable recording medium may be any data storage device that can be read by a computer and store data. For example, the computer-readable recording medium may be ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, hard disk drive, and the like. In addition, computer readable codes or programs stored on a computer readable recording medium may be transmitted through a network connected between computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. Of course, various modifications are possible by those skilled in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100 : 인공지능부
110 : 영상처리분석부
120 : 위험상황판단부
210 : 카메라
220 : 초소형 제어 보드
300 : 자성체
100: artificial intelligence department
110: image processing and analysis unit
120: risk situation judgment unit
210: camera
220: subminiature control board
300: magnetic body

Claims (23)

카메라의 영상이 인공지능부에 의해 학습되고 상기 인공지능부는, 흙덩이 또는 돌멩이 영상에 관한 측정 데이터를 실시간으로 측정하고, 상기 측정 데이터를 수집하고, 상기 수집된 데이터의 학습 모델을 생성한 후 상기 학습 모델의 검증을 진행하여, 입력된 영상의 장애물의 안전 진단을 위해서는 유형의 특징을 추출하고, 상기 유형의 특징이 진동체이면, 상기 장애물이 발생시키는 추출된 1차원 진동 신호를 2차원 회색조 영상(gray image)으로 변환하여, 1차원 영상에서의 상관관계를 확인함으로써 장애물을 유형별로 특징을 추출하여, 검증부의 검증을 통과한 학습 모델을 통해 장애물의 상태를 진단하고 분석하여 예방조치할 수 있는 딥러닝을 이용한 AI 기반 농기계 탈부착형 안전 탐지 장치를 이용한 방법에 있어,
인공지능부가 지면의 영상을 실시간으로 처리하여 전송하는 카메라를 통해 입력되는 영상을 프레임 단위로 처리하고 분석하는 단계;
상기 인공지능부가 분석된 영상 프레임을 위험 상황에 관련된 영상 구성 요소 만을 분리하여 인공지능 알고리즘을 이용한 학습 모델로 학습하는 단계;
상기 인공지능부가 상기 학습된 알고리즘에 기반하여 상기 입력되는 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 상태에 기반하여 위험상황으로 판단하는 단계;
상기 인공지능부가 상기 위험상황에 따른 알람을 발생시키는 단계;를 포함하고,
상기 인공지능부가 위험상황으로 판단하는 단계는,
지면의 상황 진단을 위해 돌멩이, 흙덩이, 나무, 작물 유형의 특징을 추출하는 단계;
상기 인공지능부가 추출된 1차원 영상 신호를 2차원 회색조 영상 (gray image)으로 변환하여, 샘플간의 상관관계를 확인함으로써 유형별로 특징을 추출하는 단계;
상기 인공지능부가 검증을 통과한 학습 모델을 통해 장애물의 상태를 진단하는 단계;를 포함하며,
상기 학습 모델을 학습하는 단계는,
촬영된 장애물의 영상을 캡쳐하고 데이터를 수집하는 단계;
수집된 상기 데이터를 오토인코더(autoencoder)를 통해 특징점 점수(keypoint score)를 추출하는 단계;
추출된 상기 특징점으로 장애물 모델을 학습하는 단계;
장애물 정상범주에 속하는지 판단하는 단계;를 포함하는 것을 특징으로 하는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법.
The image of the camera is learned by an artificial intelligence unit, and the artificial intelligence unit measures measurement data on a soil lump or stone image in real time, collects the measurement data, creates a learning model of the collected data, and then learns the data. The verification of the model is carried out, and for the safety diagnosis of the obstacle of the input image, a tangible feature is extracted. gray image), extracts features for each type of obstacle by checking the correlation in the 1D image, diagnoses and analyzes the condition of the obstacle through a learning model that has passed the verification of the verification unit, and takes preventive action. In a method using an AI-based detachable safety detection device for agricultural machinery using running,
Processing and analyzing an image input by an artificial intelligence unit through a camera that processes and transmits an image of the ground in real time in frame units;
learning as a learning model using an artificial intelligence algorithm by separating only image components related to dangerous situations from the image frame analyzed by the artificial intelligence unit;
recognizing one or more objects from the input image based on the learned algorithm by the artificial intelligence unit, and determining a dangerous situation based on a state of the one or more objects;
Including; generating an alarm according to the dangerous situation by the artificial intelligence unit,
The step of determining that the artificial intelligence unit is in a dangerous situation,
Extracting characteristics of rocks, soil lumps, trees, and crop types to diagnose the condition of the ground;
converting the extracted one-dimensional image signal into a two-dimensional gray-scale image by the artificial intelligence unit, and extracting features for each type by confirming a correlation between samples;
Including; diagnosing the state of the obstacle through the learning model that has passed the verification by the artificial intelligence unit,
The step of learning the learning model,
Capturing an image of a photographed obstacle and collecting data;
extracting a keypoint score from the collected data through an autoencoder;
learning an obstacle model with the extracted feature points;
Determining whether the obstacle belongs to the normal category; AI-based detachable safety detection method for agricultural machinery using deep learning, characterized in that it comprises.
삭제delete 청구항 1에 있어서,
상기 카메라를 통해 입력되는 지면의 영상을 프레임 단위로 처리하고 분석하는 단계는
상기 인공지능부는 영상저장장치에 상기 위험상황의 발생장소에 카메라를 팬, 틸트, 줌 이동시켜 포커싱하여 영상을 저장하고, 직접 모니터링 상태로 전환하는 단계;를 더 포함하는 것을 특징으로 하는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법.
The method of claim 1,
The step of processing and analyzing the image of the ground input through the camera in frame units
The artificial intelligence unit pans, tilts, and zooms the camera to the place where the dangerous situation occurs in the image storage device to focus, stores the image, and directly switches to a monitoring state; Deep learning characterized in that it further comprises An AI-based detachable safety detection method for agricultural machinery.
청구항 1에 있어서,
상기 위험상황으로 판단하는 단계는,
장애물이 미리 설정된 기준값과 다른 경우 위험상황으로 판단하는 단계를 포함하는 것을 특징으로 하는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법.
The method of claim 1,
The step of determining the dangerous situation is,
An AI-based detachable safety detection method for agricultural machinery using deep learning, comprising the step of determining a dangerous situation when an obstacle is different from a preset reference value.
청구항 1에 있어서,
상기 인공지능 알고리즘은 기계 학습, 신경망, 유전자, 딥러닝, 이미지 분류 알고리즘 중 적어도 하나를 포함하는 것을 특징으로 하는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법.
The method of claim 1,
The artificial intelligence algorithm is an AI-based detachable safety detection method for agricultural machinery using deep learning, characterized in that it includes at least one of machine learning, neural network, gene, deep learning, and image classification algorithm.
청구항 1에 있어서,
상기 위험상황에 따른 알람은 시각적 또는 청각적으로 구분되는 것을 특징으로 하는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법.
The method of claim 1,
An AI-based detachable safety detection method for agricultural machinery using deep learning, characterized in that the alarm according to the dangerous situation is visually or auditoryly distinguished.
삭제delete 청구항 1에 있어서,
상기 위험상황으로 판단하는 단계는,
특징점 검출 알고리즘을 사용하여 습득한 영상을 영상 속 이미지 간 유사도 (Cos-Similarity)를 통해 정상 이미지와 불량 이미지로 분류하는 단계;
서로 다른 이미지 간의 비교를 통해 특징점(keypoint) 추출 및 매칭을 하는 단계;
각 이미지 간의 유사도를 나타내는 특징점 점수(KPS: keypoint scoring)를 산출하는 단계;
상기 산출하는 단계에서 산출된 특징점 점수로 각 이미지를 분류하는 단계;
상기 분류하는 단계에서 분류된 분류 번호 및 확률 값을 판정 결과로 출력하는 단계;로 구성되는 것을 특징으로 하는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법.
The method of claim 1,
The step of determining the dangerous situation is,
classifying the acquired image using a feature point detection algorithm into a normal image and a defective image through cos-similarity;
Extracting and matching keypoints through comparison between different images;
Calculating a keypoint scoring (KPS) representing a degree of similarity between each image;
classifying each image with the feature point score calculated in the calculating step;
An AI-based detachable safety detection method for agricultural machinery using deep learning, characterized in that consisting of: outputting the classification number and probability value classified in the classifying step as a determination result.
청구항 8에 있어서,
상기 불량 이미지의 영상들을 수집하여 재학습시키는 단계;를 더 포함하는 것을 특징으로 하는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법.
The method of claim 8,
Re-learning by collecting images of the defective image; AI-based detachable safety detection method for agricultural machinery using deep learning, characterized in that it further comprises.
청구항 9에 있어서,
상기 재학습시키는 단계는,
원격의 서버에 의해 수행되는 것을 특징으로 하는 딥 러닝을 이용한 AI 기반의 농기계 탈부착형 안전 탐지 방법.
The method of claim 9,
In the relearning step,
An AI-based detachable safety detection method for agricultural machinery using deep learning, characterized in that it is performed by a remote server.
지면의 영상을 실시간으로 처리하여 전송하는 카메라;의 영상이 인공지능부에 의해 학습되고,
상기 인공지능부는, 흙덩이 또는 돌멩이 영상에 관한 측정 데이터를 실시간으로 측정하고, 상기 측정 데이터를 수집하고, 상기 수집된 데이터의 학습 모델을 생성한 후 상기 학습 모델의 검증을 진행하여, 입력된 영상의 장애물의 안전 진단을 위해서는 유형의 특징을 추출하고, 상기 유형의 특징이 진동체이면, 상기 장애물이 발생시키는 추출된 1차원 진동 신호를 2차원 회색조 영상(gray image)으로 변환하여, 1차원 영상에서의 상관관계를 확인함으로써 장애물을 유형별로 특징을 추출하여, 검증부의 검증을 통과한 학습 모델을 통해 장애물의 상태를 진단하고 분석하여 예방조치할 수 있고,
상기 카메라로부터 생성된 영상으로 돌멩이와 흙덩이를 구분하기 위한 분류기를 학습시키고, 학습된 분류기를 이용하여 흙덩이를 돌멩이로 불량 판정하는 비율을 계산하는 것을 특징으로 하는 딥러닝을 이용한 AI 기반 농기계 탈부착형 안전 탐지 장치.
The image of the camera that processes and transmits the image of the ground in real time is learned by the artificial intelligence unit,
The artificial intelligence unit measures measurement data related to a soil or stone image in real time, collects the measurement data, creates a learning model of the collected data, and then proceeds with verifying the learning model to determine the quality of the input image. For the safety diagnosis of an obstacle, a tangible feature is extracted, and if the tangible feature is a vibrating body, the extracted 1D vibration signal generated by the obstacle is converted into a 2D gray image, By checking the correlation of, it is possible to extract features for each type of obstacle, diagnose and analyze the condition of the obstacle through a learning model that has passed the verification of the verification unit, and take preventive action.
AI-based agricultural machine detachable safety using deep learning, characterized in that a classifier for distinguishing stones and soil lumps is learned with the image generated from the camera, and a ratio of determining soil lumps as stones is defective using the learned classifier. detection device.
카메라의 영상이 인공지능부에 의해 학습되고 인공지능부에 의해 제어되는 딥러닝을 이용한 AI 기반 농기계 탈부착형 안전 탐지 장치에 있어서,
상기 인공지능부는,
흙덩이 또는 돌멩이 영상에 관한 측정 데이터를 실시간으로 측정하고, 상기 측정 데이터를 수집하고, 상기 수집된 데이터의 학습 모델을 생성한 후 상기 학습 모델의 검증을 진행하여,
입력된 영상의 장애물의 안전 진단을 위해서는 유형의 특징을 추출하고,
상기 유형의 특징이 진동체이면, 상기 장애물이 발생시키는 추출된 1차원 진동 신호를 2차원 회색조 영상(gray image)으로 변환하여, 1차원 영상에서의 상관관계를 확인함으로써 장애물을 유형별로 특징을 추출하여, 검증부의 검증을 통과한 학습 모델을 통해 장애물의 상태를 진단하고 분석하여 예방조치할 수 있는 딥러닝을 이용한 AI 기반 농기계 탈부착형 안전 탐지 장치.
In the AI-based agricultural machine detachable safety detection device using deep learning where the image of the camera is learned by the artificial intelligence unit and controlled by the artificial intelligence unit,
The artificial intelligence department,
Measuring data on a soil or stone image in real time, collecting the measurement data, generating a learning model of the collected data, and then verifying the learning model,
In order to diagnose the safety of obstacles in the input image, the characteristics of the type are extracted,
If the feature of the type is a vibrating body, the extracted 1-dimensional vibration signal generated by the obstacle is converted into a 2-dimensional gray image, and the correlation in the 1-dimensional image is confirmed to extract features for each type of obstacle. Therefore, it is an AI-based detachable safety detection device for agricultural machinery using deep learning that can diagnose and analyze the state of obstacles through a learning model that has passed the verification of the verification unit and take preventive measures.
청구항 12에 있어서,
상기 카메라에는,
기설정주기로 센싱값을 생성하는 적어도 하나의 센서를 동작하도록 제어하는 초소형 제어 보드(220);
센서부와 초소형 제어 보드가 철판의 일측면에 부착되도록 자성을 제공하는 자성체(300);가 추가적으로 연결되는 것을 특징으로 하는 딥러닝을 이용한 AI 기반 농기계 탈부착형 안전 탐지 장치.
The method of claim 12,
In the camera,
A miniature control board 220 for controlling to operate at least one sensor that generates a sensing value at a preset period;
A magnetic body 300 that provides magnetism so that the sensor unit and the microcontroller board are attached to one side of the iron plate; AI-based detachable safety detection device for agricultural machinery using deep learning, characterized in that additionally connected.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020200171529A 2020-12-09 2020-12-09 Method and System for Artificial Intelligence based Quality Inspection in Manufacturing Process using Machine Vision Deep Learning KR102494578B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200171529A KR102494578B1 (en) 2020-12-09 2020-12-09 Method and System for Artificial Intelligence based Quality Inspection in Manufacturing Process using Machine Vision Deep Learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200171529A KR102494578B1 (en) 2020-12-09 2020-12-09 Method and System for Artificial Intelligence based Quality Inspection in Manufacturing Process using Machine Vision Deep Learning

Publications (2)

Publication Number Publication Date
KR20220082159A KR20220082159A (en) 2022-06-17
KR102494578B1 true KR102494578B1 (en) 2023-02-01

Family

ID=82269094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200171529A KR102494578B1 (en) 2020-12-09 2020-12-09 Method and System for Artificial Intelligence based Quality Inspection in Manufacturing Process using Machine Vision Deep Learning

Country Status (1)

Country Link
KR (1) KR102494578B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137135A1 (en) * 2018-12-27 2020-07-02 ヤンマー株式会社 Obstacle detection system for work vehicle

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153560A (en) 2013-02-08 2014-08-25 Ricoh Co Ltd Image formation control apparatus, image inspection system, and image formation control method
KR102113386B1 (en) * 2014-11-13 2020-05-20 얀마 가부시키가이샤 Agricultural work vehicle
KR101711073B1 (en) 2016-07-25 2017-02-28 (주)제이엘케이인스펙션 Micro cracks detection device and method of flexible touch screen panel using deep learning algorithm
KR101969842B1 (en) * 2017-12-18 2019-04-17 한국건설기술연구원 System for classifying dangerous road surface information based on deep running and method thereof
KR102073162B1 (en) 2018-04-13 2020-03-02 인하대학교 산학협력단 Small object detection based on deep learning
JP6653929B1 (en) 2019-07-18 2020-02-26 Jeインターナショナル株式会社 Automatic determination processing device, automatic determination processing method, inspection system, program, and recording medium
KR102287460B1 (en) * 2019-08-16 2021-08-10 엘지전자 주식회사 Artificial intelligence moving agent

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137135A1 (en) * 2018-12-27 2020-07-02 ヤンマー株式会社 Obstacle detection system for work vehicle

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
한국 공개특허공보 제10-2019-0103103호(2019.09.04.) 1부.*
한국 공개특허공보 제10-2020-0055159호(2020.05.20.) 1부.*
한국 등록특허공보 제10-1969842호(2019.04.17.) 1부.*

Also Published As

Publication number Publication date
KR20220082159A (en) 2022-06-17

Similar Documents

Publication Publication Date Title
CN110419048B (en) System for identifying defined objects
CN104935879B (en) For the monitoring system of the view-based access control model of activity command verification
Alioua et al. Driver’s fatigue detection based on yawning extraction
CN102792314B (en) Cross traffic collision alert system
CN102076531A (en) Vehicle clear path detection
US11972551B2 (en) Machine-learned tillage shank malfunction in an autonomous farming vehicle
US11672194B2 (en) Machine-learned tillage plug detection in an autonomous farming vehicle
CN104933436B (en) The multi-cam factory monitoring of view-based access control model with the scoring of dynamic integrality
CN112951000A (en) Large-scale vehicle blind area bidirectional early warning system
Garg Drowsiness detection of a driver using conventional computer vision application
CN113484858A (en) Intrusion detection method and system
WO2011036661A1 (en) System and method for long-range surveillance of a scene and alerting of predetermined unusual activity
Alagarsamy et al. An automated assistance system for detecting the stupor of drivers using vision-based technique
Pramerdorfer et al. Fall detection based on depth-data in practice
US11823369B2 (en) Machine-learned tillage sweep malfunction in an autonomous farming vehicle
KR102494578B1 (en) Method and System for Artificial Intelligence based Quality Inspection in Manufacturing Process using Machine Vision Deep Learning
Chinthalachervu et al. Driver drowsiness detection and monitoring system using machine learning
CN116665188B (en) Bus image system data analysis method
KR20170048108A (en) Method and system for recognizing object and environment
CN114758326A (en) Real-time traffic post working behavior state detection system
CN115294709A (en) Optical fiber vibration monitoring model, precaution system, electronic equipment and storage medium
EP4231809A1 (en) Machine-learned tillage malfunction detection in an autonomous farming vehicle
Shetty et al. Animal Detection and Classification in Image & Video Frames Using YOLOv5 and YOLOv8
Sufri et al. Deep Learning Based Malaysian Coins Recognition for Visual Impaired Person
CN113963502B (en) All-weather illegal behavior automatic inspection method and system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant