KR20200094837A - Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method - Google Patents

Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method Download PDF

Info

Publication number
KR20200094837A
KR20200094837A KR1020190008392A KR20190008392A KR20200094837A KR 20200094837 A KR20200094837 A KR 20200094837A KR 1020190008392 A KR1020190008392 A KR 1020190008392A KR 20190008392 A KR20190008392 A KR 20190008392A KR 20200094837 A KR20200094837 A KR 20200094837A
Authority
KR
South Korea
Prior art keywords
network
image
object image
learning
fake
Prior art date
Application number
KR1020190008392A
Other languages
Korean (ko)
Other versions
KR102184397B1 (en
Inventor
권성근
Original Assignee
경일대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경일대학교산학협력단 filed Critical 경일대학교산학협력단
Priority to KR1020190008392A priority Critical patent/KR102184397B1/en
Publication of KR20200094837A publication Critical patent/KR20200094837A/en
Application granted granted Critical
Publication of KR102184397B1 publication Critical patent/KR102184397B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fuzzy Systems (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a device for controlling the dangerous situation of robot work using an artificial neural network, a method therefor, and a computer-readable recording medium in which a program performing the method is recorded. The device for controlling the dangerous situation of robot work using an artificial neural network of the present invention includes: a camera unit that generates an original mixed image including an object area representing an object and a background area other than the object area by photographing a robot device and the object including and people or materials surrounding the robot device; a generation network that removes the background area by performing a plurality of operations to which weights are applied from the original mixed image, and generates a fake object image consisting of only the object area; and a processing unit that determines whether the object area of the fake object image is included within the working radius of the robot device, and controls to stop the work of the robot device if the object area of the fake object image is included within the working radius as a result of the determination.

Description

인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체{Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method} Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and a method for controlling the risk situation of robot work using artificial neural network and computer recordable medium storing program to perform the method}

본 발명은 위험 상황 제어 기술에 관한 것으로, 보다 상세하게는, 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체에 관한 것이다. The present invention relates to a dangerous situation control technology, and more particularly, an apparatus for controlling a dangerous situation of a robot operation using an artificial neural network, a method therefor, and a computer-readable recording medium in which a program for performing the method is recorded. About.

자동화 로봇이 동작하는 현장에서 안전사고로 인해 인명피해가 발생하는 사례는 어렵지 않게 언론 매체를 통해서 접할 수 있다. 하지만, 자동화 로봇이 동작하는 영역 밖에 펜스를 치는 등의 단순한 대응이 현장에서 안전사고를 회피하는 유일한 방법이다. 하지만 이러한 방법은 작업 환경에 익숙해져서 안전에 대한 민감도가 떨어지는 작업자를 보호해 줄 수 없다. 즉, 로봇의 동작 경로를 잘 알고 있다고 하는 작업자가 부주의하게 펜스를 넘어 작업 공간으로 진입하여 사고를 유발하는 경우가 발생할 수 있다. Cases of personal injury due to safety accidents in the field where automated robots operate can be accessed through the media without difficulty. However, a simple response, such as hitting a fence outside the area where the automated robot operates, is the only way to avoid safety accidents in the field. However, this method cannot protect workers who are less sensitive to safety because they are accustomed to the work environment. That is, there may be a case where an operator who is said to know the robot's motion path inadvertently crosses the fence and enters the work space, causing an accident.

한국등록특허 제1785998호 2017년 10월 10일 등록 (명칭: 안전사고예방을 위한 출입감지시스템)Registered in Korea Patent No. 1785598 on October 10, 2017 (Name: Access detection system for prevention of safety accidents)

본 발명의 목적은 인공신경망을 이용하여 로봇 작업의 위험 상황을 제어하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공함에 있다. An object of the present invention is to provide an apparatus for controlling a dangerous situation of a robot operation using an artificial neural network, a method therefor, and a computer-readable recording medium in which a program performing the method is recorded.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치는 로봇장치와 상기 로봇장치의 주변의 작업자 혹은 자재를 포함하는 객체를 촬영하여 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상을 생성하는 카메라부와, 상기 원본 혼합 영상으로부터 가중치가 적용되는 복수의 연산을 수행하여 상기 배경 영역을 제외한 상기 객체 영역만으로 이루어진 모조 객체 영상을 생성하는 생성망과, 상기 모조 객체 영상의 객체 영역이 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하고, 상기 판별 결과, 상기 작업 반경 내에 포함되면, 상기 로봇장치의 작업을 중단하도록 제어하는 처리부를 포함한다. An apparatus for controlling a dangerous situation of a robot operation using an artificial neural network according to a preferred embodiment of the present invention for achieving the above-described object photographs a robot device and an object including workers or materials around the robot device. A camera unit that generates an original mixed image including an object region representing an object and a background region other than the object region, and the object excluding the background region by performing a plurality of operations to which weights are applied from the original mixed image It is determined whether a generation network for generating a dummy object image consisting of only an area, and whether the object area of the dummy object image is included within the working radius of the robot device, and if the determination result is included within the working radius, the It includes a processing unit that controls to stop the work.

상기 원본 혼합 영상 및 상기 모조 객체 영상은 각 픽셀의 픽셀값과 각 픽셀의 위치 정보를 포함하며, 상기 처리부는 상기 원본 혼합 영상을 상기 생성망에 입력하여 상기 모조 객체 영상을 생성하고, 생성된 상기 모조 객체 영상의 객체 영역의 위치 정보를 이용하여 상기 객체가 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하는 것을 특징으로 한다. The original mixed image and the dummy object image include a pixel value of each pixel and location information of each pixel, and the processing unit generates the dummy object image by inputting the original mixed image to the generation network, and generates the It is characterized in that it is determined whether the object is included within a working radius of the robot device by using position information of the object area of the dummy object image.

상기 장치는 상기 모조 객체 영상에 대해 가중치가 적용되는 복수의 연산을 통해 상기 모조 객체 영상이 원본인지 혹은 모조인지 여부를 출력하는 구분망과, 상기 모조 객체 영상이 모조인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 구분망의 가중치를 수정하는 학습과 상기 모조 객체 영상이 원본인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 생성망의 가중치를 수정하는 학습이 경쟁하도록 반복하는 학습부를 더 포함한다. The apparatus is configured to set an expected value to determine whether the fake object image is an original or a fake through a plurality of calculations in which a weight is applied to the fake object image, and to determine that the fake object image is a fake. Thereafter, learning to modify the weight of the division network so that the difference between the set expected value and the output value of the division network is minimal, and after setting the expected value to determine that the fake object image is the original, the set expected value and the output value of the division network It further includes a learning unit that repeats so that learning of modifying the weight of the generation network to compete so that the difference of is minimal.

상기 학습부는 상기 학습 시, 상기 생성망, 상기 구분망의 가중치의 변화가 없으면, 상기 기댓값을 증가시켜 설정한 후, 상기 학습을 반복하는 것을 특징으로 한다. The learning unit is characterized in that during the learning, if there is no change in the weight of the generation network and the division network, the learning unit repeats the learning after setting by increasing the expected value.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 방법은 카메라부가 로봇장치와 상기 로봇장치의 주변의 사람 혹은 자재를 포함하는 객체를 촬영하여 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상을 생성하는 단계와, 생성망이 상기 원본 혼합 영상으로부터 가중치가 적용되는 복수의 연산을 수행하여 상기 배경 영역을 제거하고, 상기 객체 영역만으로 이루어진 모조 객체 영상을 생성하는 단계와, 처리부가 상기 모조 객체 영상의 객체 영역이 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하는 단계와, 상기 처리부가 상기 판별 결과, 상기 작업 반경 내에 포함되면, 상기 로봇장치의 작업을 중단하도록 제어하는 단계를 포함한다. A method for controlling a dangerous situation of a robot operation using an artificial neural network according to a preferred embodiment of the present invention for achieving the above object is an object including a robot device and a person or material around the robot device. Generating an original mixed image including an object region representing an object and a background region other than the object region by photographing, and the background region by performing a plurality of operations to which weights are applied from the original mixed image by a generation network And generating a dummy object image consisting of only the object region; determining whether the object region of the dummy object image is included within the working radius of the robot; and the processing unit as a result of the determination And, if included within the working radius, controlling to stop the work of the robot device.

상기 방법은 상기 원본 혼합 영상을 생성하는 단계 전, 학습부가 상기 모조 객체 영상에 대해 가중치가 적용되는 복수의 연산을 통해 상기 모조 객체 영상이 원본인지 혹은 모조인지 여부를 출력하는 구분망이 상기 모조 객체 영상이 모조인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 구분망의 가중치를 수정하는 학습과, 상기 모조 객체 영상이 원본인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 생성망의 가중치를 수정하는 학습이 경쟁하도록 반복하는 단계를 더 포함한다. In the method, before the step of generating the original mixed image, a division network for outputting whether the fake object image is the original or the fake object through a plurality of calculations in which a weight is applied to the fake object image by the learning unit is the fake object. After setting an expected value to determine that the image is a fake, learning to modify the weight of the partition network so that the difference between the set expected value and the output value of the partition network is minimal, and the expected value to determine that the fake object image is the original. After setting, the step of repeating the learning of correcting the weight of the generation network so that the difference between the set expected value and the output value of the division network is minimized to compete.

본 발명의 다른 견지에 따르면, 전술한 본 발명의 바람직한 실시예에 따른 로봇 작업의 위험 상황을 제어하기 위한 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공한다. According to another aspect of the present invention, there is provided a computer-readable recording medium in which a program for performing a method for controlling a dangerous situation of a robot operation according to a preferred embodiment of the present invention is recorded.

인경 신경망을 이용하여 작업자가 로봇 작업 반경 내에 진입하는 것을 감지하고, 로봇 작업을 신속하게 정지시킬 수 있어 산업 현장의 안정성을 확보할 수 있다. By using a neural network, it is possible to detect that an operator enters the robot working radius and stop the robot work quickly, thereby ensuring the stability of the industrial site.

도 1은 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치를 설명하기 위한 블록도이다.
도 3은 본 발명의 실시예에 따른 제어부의 세부 구성을 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 연산망의 세부 구성을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 생성망의 세부적인 구성을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 구분망의 세부 구성을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 연산망을 학습시키는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 실시예에 따른 연산망의 초기 학습을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 인공신경망의 경쟁 학습을 설명하기 위한 흐름도이다.
도 10은 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 방법을 설명하기 위한 흐름도이다.
1 is a view for explaining a system for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.
2 is a block diagram illustrating an apparatus for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.
3 is a block diagram illustrating a detailed configuration of a control unit according to an embodiment of the present invention.
4 is a diagram illustrating a detailed configuration of a computing network according to an embodiment of the present invention.
5 is a diagram for explaining a detailed configuration of a generation network according to an embodiment of the present invention.
6 is a diagram for explaining a detailed configuration of a division network according to an embodiment of the present invention.
7 is a flowchart illustrating a method of learning a computing network according to an embodiment of the present invention.
8 is a flowchart illustrating initial learning of a computing network according to an embodiment of the present invention.
9 is a flow chart for explaining competitive learning of an artificial neural network according to an embodiment of the present invention.
10 is a flowchart illustrating a method for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.

본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, terms or words used in the present specification and claims described below should not be construed as being limited to their usual or dictionary meanings, and the inventors will use their own invention in the best way. For explanation, based on the principle that it can be appropriately defined as a concept of terms, it should be interpreted as a meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all the technical ideas of the present invention, and thus various equivalents that can replace them at the time of application It should be understood that there may be water and variations.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that the same components in the accompanying drawings are indicated by the same reference numerals as possible. In addition, detailed descriptions of well-known functions and configurations that may obscure the subject matter of the present invention will be omitted. For the same reason, in the accompanying drawings, some components are exaggerated, omitted, or schematically illustrated, and the size of each component does not entirely reflect the actual size.

먼저, 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 시스템에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 시스템을 설명하기 위한 도면이다. First, a system for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention will be described. 1 is a view for explaining a system for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 시스템(이하, '제어시스템'으로 축약함)은 제어장치(100) 및 로봇장치(400)를 포함한다. Referring to FIG. 1, a system for controlling a dangerous situation of a robot operation using an artificial neural network (hereinafter, abbreviated as'control system') according to an embodiment of the present invention includes a control device 100 and a robot device 400. Includes.

로봇장치(400)는 산업용 로봇으로, 기억장치가 있고 물체를 잡을 수 있는 선단부가 달린 팔의 신축, 선회, 상하 이동 등의 동작을 자동적으로 행함으로써 사람이 하는 작업을 대신할 수 있는 범용성의 기계를 말한다. 이러한 로봇장치(400)는 제어장치(100)에 의해 제어될 수 있다. The robot device 400 is an industrial robot, which has a memory device and is a general-purpose machine capable of replacing human tasks by automatically performing operations such as stretching, turning, and vertical movement of an arm with a tip that can hold an object. Say. The robot device 400 may be controlled by the control device 100.

제어장치(100)는 카메라 기능을 수행하는 복수의 카메라부를 통해 로봇장치(400) 주변을 촬영하고, 촬영된 영상을 분석하여 로봇장치(400)의 작업 반경(OR: Operation Radius) 내에 작업자 혹은 자재와 같은 객체가 진입한 경우, 이를 감지하여, 즉시, 로봇장치(400)의 동작이 중단되도록 로봇장치(400)를 제어한다. The control device 100 photographs the surroundings of the robot device 400 through a plurality of camera units that perform a camera function, analyzes the captured image, When an object such as, is detected, the robot device 400 is immediately controlled so that the operation of the robot device 400 is stopped.

다음으로, 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 제어장치(100)에 대해서 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치를 설명하기 위한 블록도이다. Next, a description will be given of a control device 100 for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention. 2 is a block diagram illustrating an apparatus for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 제어장치(100)는 통신부(110), 카메라부(120), 입력부(130), 표시부(140), 오디오부(150), 저장부(160) 및 제어부(200)를 포함한다. Referring to FIG. 2, the control device 100 according to an embodiment of the present invention includes a communication unit 110, a camera unit 120, an input unit 130, a display unit 140, an audio unit 150, and a storage unit 160. ) And a control unit 200.

통신부(110)는 예컨대, 로봇장치(400)와 통신하기 위한 수단이다. 통신부(110)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신부(110)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. The communication unit 110 is, for example, a means for communicating with the robot device 400. The communication unit 110 may include a radio frequency (RF) transmitter Tx for up-converting and amplifying a frequency of a transmitted signal, and an RF receiver Rx for low-noise amplifying and down-converting a received signal. In addition, the communication unit 110 may include a modem that modulates the transmitted signal and demodulates the received signal.

카메라부(120)는 영상을 촬영하기 위한 것으로, 이미지 센서를 포함한다. 이미지 센서는 피사체에서 반사되는 빛을 입력받아 전기신호로 변환하며, CCD(Charged Coupled Device), CMOS(Complementary Metal-Oxide Semiconductor) 등을 기반으로 구현될 수 있다. 카메라부(120)는 아날로그-디지털 변환기(Analog to Digital Converter)를 더 포함할 수 있으며, 이미지 센서에서 출력되는 전기신호를 디지털 수열로 변환하여 제어부(200)로 출력할 수 있다. The camera unit 120 is for capturing an image and includes an image sensor. The image sensor receives light reflected from a subject and converts it into an electric signal, and may be implemented based on a Charged Coupled Device (CCD) or Complementary Metal-Oxide Semiconductor (CMOS). The camera unit 120 may further include an analog to digital converter, and may convert an electrical signal output from the image sensor into a digital sequence and output it to the controller 200.

특히, 카메라부(120)는 3D 센서를 포함한다. 3D 센서는 비접촉 방식으로 영상의 각 픽셀의 3차원 좌표를 획득하기 위한 센서이다. 카메라부(120)가 영상을 촬영하면, 3D 센서는 촬영된 영상과 함께, 카메라부(120)의 소정의 기준점(예컨대, 초점)으로부터 촬영한 객체까지의 실제 거리를 측정하여 촬영한 영상의 각 픽셀의 3차원 좌표를 생성한다. 3D 센서는 레이저, 적외선, 가시광 등을 이용하는 다양한 방식의 센서를 이용할 수 있다. 이러한 3D 센서는 TOP(Time of Flight), 위상변위(Phase-shift) 및 Online Waveform Analysis 중 어느 하나를 이용하는 레이저 방식 3차원 스캐너, 광 삼각법을 이용하는 레이저 방식 3차원 스캐너, 백색광 혹은 변조광을 이용하는 광학방식 3차원 스캐너, Handheld Real Time 방식의 PHOTO, 광학방식 3차원 스캐너, Pattern Projection 혹은 Line Scanning을 이용하는 광학방식, 레이저 방식 전신 스캐너, 사진 측량(Photogrammetry)을 이용하는 사진방식 스캐너, 키네틱(Kinect Fusion)을 이용하는 실시간(Real Time) 스캐너 등을 예시할 수 있다. In particular, the camera unit 120 includes a 3D sensor. The 3D sensor is a sensor for obtaining 3D coordinates of each pixel of an image in a non-contact method. When the camera unit 120 captures an image, the 3D sensor measures the actual distance from a predetermined reference point (eg, focus) of the camera unit 120 to the captured object, together with the captured image. Generate the three-dimensional coordinates of the pixel. As the 3D sensor, various types of sensors using laser, infrared, visible light, etc. can be used. These 3D sensors are laser type 3D scanners using any one of TOP (Time of Flight), phase-shift and Online Waveform Analysis, laser type 3D scanners using optical triangulation, and optics using white light or modulated light. Type 3D scanner, Handheld Real Time PHOTO, optical 3D scanner, optical method using Pattern Projection or Line Scanning, laser system full body scanner, photo scanner using photogrammetry, Kinect Fusion A real time scanner to be used may be exemplified.

입력부(130)는 제어장치(100)을 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어부(200)에 전달할 수 있다. 입력부(130)는 제어장치(100)을 제어하기 위한 각 종 키들을 포함할 수 있다. 입력부(130)는 표시부(140)가 터치스크린으로 이루어진 경우, 각 종 키들의 기능이 표시부(140)에서 이루어질 수 있으며, 터치스크린만으로 모든 기능을 수행할 수 있는 경우, 입력부(130)는 생략될 수도 있다. The input unit 130 may receive a user's key manipulation for controlling the control device 100, generate an input signal, and transmit the input signal to the control unit 200. The input unit 130 may include various types of keys for controlling the control device 100. When the display unit 140 is formed of a touch screen, the input unit 130 may perform functions of various keys on the display unit 140, and when all functions can be performed only with the touch screen, the input unit 130 will be omitted. May be.

표시부(140)는 화면 표시를 위한 것으로, 제어장치(100)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공할 수 있다. 또한, 표시부(140)는 제어장치(100)의 부팅 화면, 대기 화면, 메뉴 화면, 등의 화면을 출력하는 기능을 수행한다. 표시부(140)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 한편, 표시부(140)는 터치스크린으로 구현될 수 있다. 이러한 경우, 표시부(140)는 터치센서를 포함한다. 터치센서는 사용자의 터치 입력을 감지한다. 터치센서는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서로 이용될 수 있다. 터치센서는 사용자의 터치 입력을 감지하고, 감지 신호를 발생시켜 제어부(200)로 전송한다. 특히, 표시부(140)가 터치스크린으로 이루어진 경우, 입력부(130) 기능의 일부 또는 전부는 표시부(140)를 통해 이루어질 수 있다. The display unit 140 is for screen display, and may visually provide a menu of the control device 100, input data, function setting information, and various other information to a user. In addition, the display unit 140 performs a function of outputting screens such as a boot screen, a standby screen, a menu screen, and the like of the control device 100. The display unit 140 may be formed of a liquid crystal display (LCD), an organic light emitting diode (OLED), an active matrix organic light emitting diode (AMOLED), or the like. Meanwhile, the display unit 140 may be implemented as a touch screen. In this case, the display unit 140 includes a touch sensor. The touch sensor detects a user's touch input. The touch sensor may be composed of a touch sensing sensor such as a capacitive overlay, a pressure type, a resistive overlay, or an infrared beam, or may be composed of a pressure sensor. . In addition to the above sensors, all types of sensor devices capable of sensing contact or pressure of an object may be used as the touch sensor of the present invention. The touch sensor detects a user's touch input, generates a detection signal, and transmits it to the controller 200. In particular, when the display unit 140 is formed of a touch screen, some or all of the functions of the input unit 130 may be performed through the display unit 140.

오디오부(150)는 본 발명의 실시예에 따른 음성과 같은 오디오 신호를 출력하기 위한 스피커(SPK)와, 음성과 같은 오디오 신호를 수집하기 위한 마이크(MIKE)를 포함한다. 즉, 오디오부(150)는 제어부(200)의 제어에 따라 오디오 신호를 스피커(SPK)를 통해 출력하거나, 마이크(MIKE)를 통해 입력된 오디오 신호를 제어부(200)로 전달할 수 있다. The audio unit 150 includes a speaker (SPK) for outputting an audio signal such as voice according to an embodiment of the present invention, and a microphone (MIKE) for collecting an audio signal such as voice. That is, the audio unit 150 may output an audio signal through the speaker SPK or transmit an audio signal input through the microphone (MIKE) to the control unit 200 under the control of the controller 200.

저장부(160)는 제어장치(100)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 저장부(160)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The storage unit 160 serves to store programs and data necessary for the operation of the control device 100. Each type of data stored in the storage unit 160 may be deleted, changed, or added according to a user's manipulation.

제어부(200)는 제어장치(100)의 전반적인 동작 및 제어장치(100)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 또한, 제어부(200)는 기본적으로, 제어장치(100)의 각 종 기능을 제어하는 역할을 수행한다. 제어부(200)는 중앙처리장치(CPU: Central Processing Unit), 디지털신호처리기(DSP: Digital Signal Processor) 등을 예시할 수 있다. 다음으로, 제어부(200)의 구성 및 동작에 대해서는 아래에서 더 상세하게 설명될 것이다. The controller 200 may control the overall operation of the control device 100 and a signal flow between internal blocks of the control device 100 and perform a data processing function of processing data. In addition, the control unit 200 basically performs a role of controlling various functions of the control device 100. The control unit 200 may be a central processing unit (CPU), a digital signal processor (DSP), or the like. Next, the configuration and operation of the control unit 200 will be described in more detail below.

먼저, 본 발명의 실시예에 따른 제어부(200)의 구성에 대해서 설명하기로 한다. 도 3은 본 발명의 실시예에 따른 제어부의 세부 구성을 설명하기 위한 블록도이다. 도 3을 참조하면, 본 발명의 실시예에 따른 제어부(200)는 학습부(210), 처리부(220) 및 연산망(300)을 포함한다. First, the configuration of the control unit 200 according to an embodiment of the present invention will be described. 3 is a block diagram illustrating a detailed configuration of a control unit according to an embodiment of the present invention. Referring to FIG. 3, a control unit 200 according to an embodiment of the present invention includes a learning unit 210, a processing unit 220, and a computing network 300.

연산망(300)은 복수의 인공신경망으로 형성되며, 이러한 인공신경망은 생성망(310) 및 구분망(320)을 포함한다. 학습부(210)는 학습 데이터를 통해 연산망(300)을 학습시키기 위한 것이다. The computing network 300 is formed of a plurality of artificial neural networks, and the artificial neural network includes a generation network 310 and a division network 320. The learning unit 210 is for learning the computing network 300 through learning data.

학습부(210)는 학습 데이터를 통해 연산망(300)을 학습시키기 위한 것이다. 즉, 학습부(210)는 작업자 혹은 자재를 포함하는 객체를 나타내는 객체 영역과 그 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상(10)으로부터 배경 영역을 제외한 객체 영역만을 추출한 모조 객체 영상(30)을 생성하도록 연산망(300)을 학습시킨다. The learning unit 210 is for learning the computing network 300 through learning data. That is, the learning unit 210 extracts only the object area excluding the background area from the original mixed image 10 including an object area representing an object including a worker or material and a background area other than the object area. The computing network 300 is trained to generate (30).

처리부(220)는 학습이 완료된 연산망(300)에 카메라부(120)를 통해 촬영된 원본 혼합 영상(10)으로부터 연산망(300)을 통해 모조 객체 영상(30)을 생성하고, 모조 객체 영상(30)의 객체 영역의 위치 정보를 통해 모조 객체 영상(30)의 객체가 로봇장치(400)의 작업 반경 내에 포함되는지 여부를 판별한다. The processing unit 220 generates a simulated object image 30 through the computation network 300 from the original mixed image 10 photographed through the camera unit 120 in the computation network 300 on which the learning has been completed, and It is determined whether the object of the dummy object image 30 is included within the working radius of the robot device 400 through the location information of the object area of (30).

그러면, 본 발명의 일 실시예에 따른 연산망(300)의 세부 구성에 대해서 설명하기로 한다. 도 4는 본 발명의 일 실시예에 따른 연산망의 세부 구성을 설명하기 위한 도면이다. 도 4를 참조하면, 연산망(300)은 생성망(310) 및 구분망(320)을 포함한다. 생성망(310) 및 구분망(320) 각각은 하나의 인공신경망(ANN)을 구성한다. 이러한 생성망(310) 및 구분망(320) 각각에 대해서 설명하기로 한다. Then, a detailed configuration of the computing network 300 according to an embodiment of the present invention will be described. 4 is a diagram illustrating a detailed configuration of a computing network according to an embodiment of the present invention. Referring to FIG. 4, the computing network 300 includes a generating network 310 and a division network 320. Each of the generation network 310 and the division network 320 constitutes an artificial neural network (ANN). Each of the generation network 310 and the division network 320 will be described.

먼저, 생성망(310)에 대해서 설명하기로 한다. 도 5는 본 발명의 실시예에 따른 생성망의 세부적인 구성을 설명하기 위한 도면이다. 도 5를 참조하면, 생성망(310)은 가중치가 적용되는 복수의 연산을 포함하는 복수의 계층을 포함한다. 여기서, 복수의 연산을 포함하는 복수의 계층은 컨볼루션(Convolution) 연산을 수행하는 컨볼루션계층(CL: Convolution Layer), 다운샘플링(Down Sampling) 연산을 수행하는 풀링계층(PL: Pooling Layer) 및 업샘플링(Up Sampling) 연산을 수행하는 언풀링(UL: Unpooling Layer) 계층 및 디컨불루션 연산을 수행하는 디컨불루션 계층(DL: Deconvolution Layer) 각각을 하나 이상 포함한다. 컨볼루션, 다운샘플링, 업샘플링 및 디컨불루션 연산 각각은 소정의 행렬로 이루어진 필터를 이용하며, 이러한 행렬의 원소의 값들이 가중치가 된다. First, the generation network 310 will be described. 5 is a diagram for explaining a detailed configuration of a generation network according to an embodiment of the present invention. Referring to FIG. 5, the generation network 310 includes a plurality of layers including a plurality of operations to which weights are applied. Here, the plurality of layers including a plurality of operations include a convolution layer (CL) that performs a convolution operation, a pooling layer (PL) that performs a down-sampling operation, and It includes at least one each of an unpooling layer (UL) layer that performs an up-sampling operation and a deconvolution layer (DL) that performs a deconvolution operation. Each of the convolution, downsampling, upsampling, and deconvolution operations uses a filter composed of a predetermined matrix, and the values of the elements of the matrix become weights.

생성망(310)은 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상(10)을 입력 받는다. 특히, 원본 혼합 영상(10)은 각 픽셀의 픽셀값과 각 픽셀의 위치 정보를 포함한다. 여기서, 위치 정보는 소정의 기준점을 가지며, 소정의 단위(예컨대, cm, mm 등)를 가지는 3차원 좌표값 (x, y z)이다. 예컨대, 원본 혼합 영상(10의 어느 하나의 픽셀 P1은 3차원 좌표값 (a, b, c)을 가지며, 단위가 mm라고 가정하면, 이러한 픽셀 P1은 기준점 (0, 0, 0)으로부터

Figure pat00001
mm 떨어진 점이된다. The generation network 310 receives an original mixed image 10 including an object region representing an object and a background region other than the object region. In particular, the original mixed image 10 includes pixel values of each pixel and location information of each pixel. Here, the location information is a three-dimensional coordinate value (x, yz) having a predetermined reference point and a predetermined unit (eg, cm, mm, etc.). For example, if one pixel P1 of the original mixed image (10) has a three-dimensional coordinate value (a, b, c) and the unit is mm, this pixel P1 is from the reference point (0, 0, 0).
Figure pat00001
becomes a point away from mm.

생성망(310)은 원본 혼합 영상(10)이 입력되면, 전술한 복수의 계층의 가중치가 적용되는 복수의 연산을 수행하여 배경 영역을 제외한 상기 객체 영역만으로 이루어진 모조 객체 영상(30)을 생성한다. 생성된 모조 객체 영상(30)은 각 픽셀의 픽셀값 및 각 픽셀의 위치 정보를 포함한다. 여기서, 위치 정보는 원본 혼합 영상(10)과 동일한 기준점을 가지며, 원본 혼합 영상(10)과 동일한 단위(예컨대, cm, mm 등)를 가지는 3차원 좌표값(x, y z)이다. When the original mixed image 10 is input, the generation network 310 generates a dummy object image 30 consisting of only the object region excluding the background region by performing a plurality of operations to which the weights of the plurality of layers described above are applied. . The generated dummy object image 30 includes a pixel value of each pixel and location information of each pixel. Here, the location information is a 3D coordinate value (x, y z) having the same reference point as the original mixed image 10 and the same unit (eg, cm, mm, etc.) as the original mixed image 10.

이에 따라, 생성망(310)이 생성한 모조 객체 영상(30)의 객체 영역의 각 픽셀의 위치 정보에 따라 실제 객체, 작업자 혹은 자재가 3차원의 공간에서의 위치를 알 수 있다. Accordingly, according to the location information of each pixel in the object area of the dummy object image 30 generated by the generation network 310, the location of the actual object, worker, or material in the three-dimensional space can be known.

다음으로, 구분망(320)에 대해서 설명하기로 한다. 도 6은 본 발명의 실시예에 따른 구분망의 세부 구성을 설명하기 위한 도면이다. Next, the division network 320 will be described. 6 is a diagram for explaining a detailed configuration of a division network according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 구분망(320)은 가중치가 적용되는 복수의 연산을 포함하는 복수의 계층을 포함한다. 여기서, 복수의 연산을 포함하는 복수의 계층은 컨볼루션(Convolution) 연산을 수행하는 컨볼루션계층(CL: Convolution Layer) 및 소프트맥스(Soft-max) 연산을 수행하는 완전연결층(FL: Fully Connected Layer)을 포함한다. 컨볼루션 연산은 소정의 행렬로 이루어진 필터를 이용하며, 이러한 행렬의 원소의 값들이 가중치가 된다. 또한, 소프트맥스 연산 또한 가중치를 적용하여 수행된다. As shown in FIG. 6, the division network 320 includes a plurality of layers including a plurality of operations to which weights are applied. Here, the plurality of layers including a plurality of operations are a convolution layer (CL) performing a convolution operation and a fully connected layer (FL) performing a soft-max operation. Layer). The convolution operation uses a filter composed of a predetermined matrix, and the values of the elements of the matrix become weights. In addition, the softmax operation is also performed by applying weights.

구분망(320)은 배경 영역을 제외한 객체 영역만으로 이루어진 객체 영상(30, 40)을 입력 받고, 객체 영상(30, 40)에 대해 가중치가 적용되는 복수의 연산을 수행하여 입력된 객체 영상(30, 40)이 원본(real)인지 혹은 모조(fake)의 것인지 여부를 출력한다. 여기서, 객체 영상(30, 40)은 모조 객체 영상(30) 및 원본 객체 영상(40)을 포함한다. 전술한 바와 같이, 원본 혼합 영상(10)은 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 영상이다. 모조 객체 영상(30)은 원본 혼합 영상(10)으로부터 생성망(310)이 모조로 생성한 영상이다. 원본 객체 영상(40)은 학습을 위해 제작된 영상이며, 원본 혼합 영상(10)으로부터 그래픽 작업을 통해 객체 영역만을 추출한 영상이다. The division network 320 receives object images 30 and 40 composed of only object regions excluding the background region, and performs a plurality of operations to which weights are applied to the object images 30 and 40, and the input object image 30 , 40) is output whether it is the original (real) or the fake (fake). Here, the object images 30 and 40 include the dummy object image 30 and the original object image 40. As described above, the original mixed image 10 is an image including an object region representing an object and a background region other than the object region. The simulated object image 30 is an image generated by the generation network 310 in a simulated manner from the original mixed image 10. The original object image 40 is an image produced for learning, and is an image obtained by extracting only the object region from the original mixed image 10 through graphic work.

다음으로, 전술한 본 발명의 일 실시예에 따른 연산망(300)의 학습 방법에 대해서 설명하기로 한다. 도 7은 본 발명의 일 실시예에 따른 연산망을 학습시키는 방법을 설명하기 위한 흐름도이다. Next, a method of learning the computing network 300 according to an embodiment of the present invention will be described. 7 is a flowchart illustrating a method of learning a computing network according to an embodiment of the present invention.

도 7을 참조하면, 학습부(210)는 S100 단계에서 연산망(300)의 생성망(310) 및 구분망(320) 각각에 대해 개별적으로 초기 학습을 수행한다. 초기 학습 시, 학습부(210)는 생성망(310)이 원본 혼합 영상(10)을 입력 받아 모조 객체 영상(30)을 출력하도록 학습시킨다. 또한, 학습부(210)는 초기 학습 시, 구분망(320)이 모조 객체 영상(30)을 모조(fake)인 것으로 판별하고, 원본 객체 영상(40)을 원본(real)인 것으로 판별하도록 학습시킨다. Referring to FIG. 7, the learning unit 210 individually performs initial learning for each of the generation network 310 and the division network 320 of the computing network 300 in step S100. During initial learning, the learning unit 210 trains the generation network 310 to receive the original mixed image 10 and output the dummy object image 30. In addition, the learning unit 210 learns to determine that the identification network 320 is a fake object image 30 as a fake, and determines the original object image 40 as a real one during initial learning. Let it.

그런 다음, 학습부(210)는 S200 단계에서 생성망(310) 및 구분망(320)에 대해 경쟁 학습을 수행한다. 이때, 학습부(210)는 상이한 기댓값을 적용하여 구분망(320)과 생성망(310)이 상호 경쟁하도록 하는 학습을 수행한다. Then, the learning unit 210 performs competitive learning on the generation network 310 and the division network 320 in step S200. At this time, the learning unit 210 applies different expected values to perform learning so that the division network 320 and the generation network 310 compete with each other.

즉, 학습부(210)는 구분망(320)이 생성망(310)이 생성한 모조 객체 영상(30)을 모조(fake)인 것으로 판별하도록 구분망(320)을 학습시킨다. 이에 대응하여, 학습부(210)는 구분망(320)이 생성망(310)이 생성한 모조 객체 영상(30)을 원본(real)인 것으로 판별하도록 생성망(310)을 학습시킨다. That is, the learning unit 210 trains the division network 320 so that the division network 320 determines that the dummy object image 30 generated by the generation network 310 is a fake. Correspondingly, the learning unit 210 trains the generation network 310 so that the division network 320 determines that the dummy object image 30 generated by the generation network 310 is real.

그러면, 보다 자세히 본 발명의 실시예에 따른 연산망(300)의 초기 학습에 대해서 설명하기로 한다. 도 8은 본 발명의 실시예에 따른 연산망의 초기 학습을 설명하기 위한 흐름도이다. Then, the initial learning of the computing network 300 according to an embodiment of the present invention will be described in more detail. 8 is a flowchart illustrating initial learning of a computing network according to an embodiment of the present invention.

도 5 및 도 8을 참조하면, 학습부(210)는 S110 단계에서 학습 데이터를 이용하여 생성망(310)에 대해 초기 학습을 수행한다. S110 단계의 초기 학습 시, 학습부(210)는 학습 데이터로 원본 혼합 영상(10) 및 원본 객체 영상(40)을 이용한다. 학습부(210)는 학습 데이터인 원본 혼합 영상(10)을 생성망(310)에 입력한다. 그러면, 생성망(310)은 입력된 원본 혼합 영상(10)에 대해 가중치가 적용되는 복수의 연산을 수행하여 모조 객체 영상(30)을 출력한다. 그러면, 학습부(210)는 모조 객체 영상(30)과 원본 객체 영상(40)을 상호 비교하여 모조 객체 영상(30)이 원본 객체 영상(40)에 대한 차이가 최소가 되도록 역확산(back-propagation) 알고리즘을 통해 생성망(310)의 가중치를 수정한다. 이러한 S110 단계는 서로 다른 복수의 학습 데이터, 즉, 원본 혼합 영상(10) 및 원본 객체 영상(40) 쌍을 이용하여 반복하여 수행된다. 5 and 8, the learning unit 210 performs initial learning on the generation network 310 using the training data in step S110. During initial learning in step S110, the learning unit 210 uses the original mixed image 10 and the original object image 40 as the training data. The learning unit 210 inputs the original mixed image 10 as training data into the generation network 310. Then, the generation network 310 outputs the dummy object image 30 by performing a plurality of operations to which weights are applied to the input original mixed image 10. Then, the learning unit 210 compares the dummy object image 30 and the original object image 40 to each other, so that the dummy object image 30 is back-diffused so that the difference with the original object image 40 is minimized. propagation) algorithm to modify the weight of the generation network 310. This step S110 is repeatedly performed using a plurality of different training data, that is, the original mixed image 10 and the original object image 40 pair.

다음으로, 도 6 및 도 8을 학습부(210)는 S120 단계에서 구분망(320)에 대해 초기 학습을 수행한다. 학습부(210)는 구분망(320) 초기 학습 시, 학습 데이터로 모조 객체 영상(30) 및 원본 객체 영상(40) 각각을 개별적으로 이용한다. 이러한 S120 단계에서 학습부(210)는 학습 데이터를 이용하여 구분망(320)이 모조 객체 영상(30)을 모조(fake)인 것으로 판별하고, 원본 객체 영상(40)을 원본(real)인 것으로 판별하도록 한다. 이러한 S120 단계에서 학습부(210)는 구분망(320)에 모조 객체 영상(30) 또는 원본 객체 영상(40)을 학습 데이터로 이용한다. 먼저, 학습부(210)는 학습 데이터에 대응하여, 구분망(320)이 모조 객체 영상(30)을 모조인 것으로 판별하고, 원본 객체 영상(40)을 원본인 것으로 판별하도록 기댓값을 설정한다. 즉, 학습부(210)는 모조 객체 영상(30)에 대해 기댓값을 'real = 0.40' 및 'fake = 0.60'으로 설정할 수 있다. 또한, 학습부(210)는 원본 객체 영상(40)에 대해 기댓값을 'real = 0.60' 및 'fake = 0.40'으로 설정할 수 있다. Next, referring to FIGS. 6 and 8, the learning unit 210 performs initial learning on the division network 320 in step S120. The learning unit 210 individually uses each of the dummy object image 30 and the original object image 40 as training data during initial learning of the division network 320. In this step S120, the learning unit 210 uses the learning data to determine that the division network 320 determines the fake object image 30 as a fake, and determines the original object image 40 as a real. Let's determine. In this step S120, the learning unit 210 uses the dummy object image 30 or the original object image 40 as the learning data in the division network 320. First, in response to the learning data, the learning unit 210 sets an expected value so that the classification network 320 determines the imitation object image 30 as being a imitation, and determines the original object image 40 as the original. That is, the learning unit 210 may set the expected values for the dummy object image 30 as'real = 0.40' and'fake = 0.60'. In addition, the learning unit 210 may set the expected values for the original object image 40 as'real = 0.60' and'fake = 0.40'.

그런 다음, 학습부(210)는 구분망(320)에 학습 데이터인 모조 객체 영상(30) 혹은 원본 객체 영상(40)을 입력한다. 학습 데이터가 입력되면, 구분망(320)은 복수의 연산을 통해 입력된 학습 데이터가 원본(real)일 확률 및 모조(fake)일 확률을 출력값으로 출력한다. 즉, 구분망(320)은 모조 객체 영상(30) 또는 원본 객체 영상(40)이 입력되면, 복수의 가중치가 적용되는 연산을 통해 입력된 모조 객체 영상(30) 또는 원본 객체 영상(40)이 원본(real)일 확률과 모조(fake)일 확률을 출력값으로 출력한다. 예를 들면, 구분망(320)은 출력값으로 원본(real)일 확률과 모조(fake)일 확률을 'real = 0.70' 및 'fake = 0.30'과 같이 출력할 수 있다. 그런 다음, 학습부(210)는 구분망(320)의 출력값과 기댓값의 차이인 손실값이 최소가 되도록 역확산 알고리즘을 이용하여 구분망(320)의 가중치를 수정한다. Then, the learning unit 210 inputs the simulated object image 30 or the original object image 40 as training data to the division network 320. When the training data is input, the division network 320 outputs a probability that the training data input through a plurality of operations is a real and a fake probability. In other words, when the dummy object image 30 or the original object image 40 is input, the division network 320 includes the dummy object image 30 or the original object image 40 input through an operation to which a plurality of weights are applied. The probability of being real and the probability of being fake are output as output values. For example, the division network 320 may output a probability of a real and a probability of a fake as output values such as'real = 0.70' and'fake = 0.30'. Then, the learning unit 210 corrects the weight of the division network 320 by using a despreading algorithm so that the difference between the output value of the division network 320 and the expected value is minimized.

전술한 바와 같은 초기 학습이 완료된 후, 수행되는 연산망(300)의 경쟁 학습에 대해서 설명하기로 한다. 도 9는 본 발명의 일 실시예에 따른 인공신경망의 경쟁 학습을 설명하기 위한 흐름도이다. 강조하면, 도 9는 도 7의 S200 단계의 일 실시예이다. Competitive learning of the computing network 300 performed after the initial learning as described above is completed will be described. 9 is a flow chart for explaining competitive learning of an artificial neural network according to an embodiment of the present invention. To emphasize, FIG. 9 is an embodiment of step S200 of FIG. 7.

도 9를 참조하면, 학습부(210)는 S210 단계에서 구분망(320)이 생성망(310)이 생성한 모조 객체 영상(30)을 모조(fake)인 것으로 판별하도록 기댓값을 설정하여 구분망(320)을 학습시킨다. 이를 위하여, 학습부(210)는 원본 혼합 영상(10)을 생성망(310)에 입력하여 생성망(310)부터 모조 객체 영상(30)을 획득한다. Referring to FIG. 9, the learning unit 210 sets an expected value so that the division network 320 determines that the dummy object image 30 generated by the generation network 310 is a fake in step S210. Learn (320). To this end, the learning unit 210 inputs the original mixed image 10 into the generation network 310 and obtains the dummy object image 30 from the generation network 310.

이때, 학습부(210)는 모조 객체 영상(30)에 대한 기댓값을 'real = 0.40' 및 'fake = 0.60'으로 설정한다. 그런 다음, 학습부(210)는 생성망(310)부터 획득한 모조 객체 영상(30)을 구분망(320)에 입력한다. 이에 따라, 구분망(320)은 복수의 가중치가 적용되는 연산을 통해 출력값을 출력할 것이다. 그러면, 학습부(210)는 구분망(320)의 출력값과 기댓값과의 차이인 손실값이 최소가 되도록 역확산 알고리즘을 이용하여 생성망(310)의 가중치를 고정한 상태에서 구분망(320)의 가중치를 수정한다. At this time, the learning unit 210 sets the expected values for the dummy object image 30 as'real = 0.40' and'fake = 0.60'. Then, the learning unit 210 inputs the dummy object image 30 acquired from the generation network 310 into the classification network 320. Accordingly, the division network 320 will output an output value through an operation to which a plurality of weights are applied. Then, the learning unit 210 uses a despreading algorithm to minimize the loss value, which is the difference between the output value of the division network 320 and the expected value, and the weight of the generation network 310 is fixed. Modify the weights.

S210 단계의 구분망(320)의 학습에 대응하여, 학습부(210)는 S220 단계에서 구분망(320)이 생성망(310)이 생성한 모조 객체 영상(30)을 원본(real)인 것으로 판별하도록 기댓값을 설정하여 생성망(310)을 학습시킨다. 이를 위하여, 학습부(210)는 원본 혼합 영상(10)을 생성망(310)에 입력하여 생성망(310)으로부터 모조 객체 영상(30)을 획득한다. 이때, 학습부(210)는 모조 객체 영상(30)에 대한 기댓값을 'real = 0.60' 및 'fake = 0.40'으로 설정한다. 그런 다음, 학습부(210)는 생성망(310)이 생성한 모조 객체 영상(30)을 구분망(320)에 입력한다. 이에 따라, 구분망(320)은 복수의 가중치가 적용되는 연산을 통해 출력값을 출력할 것이다. In response to the learning of the segmentation network 320 in step S210, the learning unit 210 determines that the imitation object image 30 generated by the generation network 310 by the segmentation network 320 in step S220 is real. The generation network 310 is trained by setting an expected value to determine. To this end, the learning unit 210 inputs the original mixed image 10 into the generation network 310 to obtain the dummy object image 30 from the generation network 310. In this case, the learning unit 210 sets the expected values for the dummy object image 30 as'real = 0.60' and'fake = 0.40'. Then, the learning unit 210 inputs the dummy object image 30 generated by the generation network 310 into the classification network 320. Accordingly, the division network 320 will output an output value through an operation to which a plurality of weights are applied.

그러면, 학습부(210)는 구분망(320)의 출력값과 기댓값과의 차이인 손실값이 최소가 되도록 역확산 알고리즘을 이용하여 구분망(320)의 가중치를 고정한 상태에서 생성망(310)의 가중치를 수정한다. 이와 같이, 경쟁 학습은 구분망(320)이 모조 객체 영상(30)을 모조인 것으로 판별하도록 구분망(320)의 가중치를 수정하는 절차와, 구분망(320)이 생성한 모조 객체 영상(30)을 원본인 것으로 판별하도록 생성망(310)의 가중치를 수정하는 절차가 경쟁한다. Then, the learning unit 210 uses the despreading algorithm so that the loss value, which is the difference between the output value of the division network 320 and the expected value, is minimized, and the weight of the division network 320 is fixed. Modify the weights. In this way, the competitive learning is a procedure of modifying the weight of the division network 320 so that the division network 320 determines the dummy object image 30 as a counterfeit, and the dummy object image 30 generated by the division network 320. The procedure of modifying the weight of the generating network 310 competes to determine that) is the original.

이러한 S210 단계 내지 S220 단계는 교번으로 반복하여 수행될 수 있다. These steps S210 to S220 may be performed alternately and repeatedly.

이러한 반복되는 경쟁 학습 과정에서 생성망(310)과 구분망(320)의 가중치의 변화가 없으면, 학습부(210)은 기댓값을 증가시켜 경쟁 학습을 지속할 수 있다. 즉, 학습부(210)는 구분망(320) 학습 시, 모조 객체 영상(30)에 대한 기댓값을 'real = 0.40' 및 'fake = 0.60'에서 'real = 0.30' 및 'fake = 0.70'과 같이 증가시킬 수 있다. 이는 구분망(320)이 모조 객체 영상(30)을 원본(real)인 것으로 판별하도록 하는 기댓값을 증가시키는 것을 의미한다. 이에 대응하여, 학습부(210)는 생성망(310) 학습 시, 모조 객체 영상(30)에 대한 기댓값을 'real = 0.60' 및 'fake = 0.40'에서 'real = 0.70' 및 'fake = 0.30'과 같이 증가시킬 수 있다. 이는 생성망(310)이 구분망(320)으로 하여금 모조 객체 영상(30)을 원본(real)인 것으로 판별하도록 하는 기댓값을 증가시키는 것을 의미한다. 한편, 학습부(210)는 기댓값을 최대(예컨대, 구분망 'real = 0.00' 및 'fake = 1.00', 생성망 'real = 1.00' 및 'fake = 0.00')로 증가시킨 후에도 구분망(320)과 생성망(310)의 가중치의 변화가 없으면, 학습을 완료할 수 있다. If there is no change in the weights of the generation network 310 and the division network 320 in the repeated competitive learning process, the learning unit 210 may increase the expected value to continue the competitive learning. That is, when learning the division network 320, the learning unit 210 sets the expected values for the dummy object image 30 in'real = 0.40' and'fake = 0.60' with'real = 0.30' and'fake = 0.70'. Can be increased together. This means that an expected value for allowing the division network 320 to determine the simulated object image 30 as being real is increased. In response, the learning unit 210 sets the expected values for the dummy object image 30 when learning the generation network 310 in'real = 0.60' and'fake = 0.40', and'real = 0.70' and'fake = 0.30'. It can be increased like'. This means that the generation network 310 increases an expected value that causes the classification network 320 to determine the simulated object image 30 as being real. On the other hand, the learning unit 210 increases the expected value to the maximum (for example, the division network'real = 0.00' and'fake = 1.00', the generation network'real = 1.00' and'fake = 0.00') even after increasing the division network 320 ) And the weights of the generation network 310 do not change, the learning may be completed.

전술한 바에 따라 학습이 완료되면, 제어장치(100)는 연산망(200)을 이용하여 로봇장치(400)의 작업 반경(OR) 내에 객체가 진입하는지 여부를 판별할 수 있다. 이러한 방법에 대해서 설명하기로 한다. 도 10은 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 방법을 설명하기 위한 흐름도이다. When learning is completed as described above, the control device 100 may determine whether an object enters within the working radius OR of the robot device 400 using the computing network 200. This method will be described. 10 is a flowchart illustrating a method for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.

도 10을 참조하면, 처리부(220)는 S310 단계에서 카메라부(210)를 통해 로봇장치(400)와 로봇장치(400)의 주변의 작업자 혹은 자재를 포함하는 객체를 촬영하여 원본 혼합 영상(10)을 생성한다. 여기서, 원본 혼합 영상(10)은 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함한다. 이때, 원본 혼합 영상(10)은 각 픽셀의 픽셀값과, 위치 정보(3차원 좌표)를 포함한다. 전술한 바와 같이, 위치 정보는 카메라부(10)의 3D 센서를 통해 획득할 수 있다. Referring to FIG. 10, the processing unit 220 captures an object including workers or materials around the robot device 400 and the robot device 400 through the camera unit 210 in step S310, and the original mixed image 10 ). Here, the original mixed image 10 includes an object region representing an object and a background region other than the object region. In this case, the original mixed image 10 includes pixel values of each pixel and location information (three-dimensional coordinates). As described above, the location information may be obtained through the 3D sensor of the camera unit 10.

그런 다음, 처리부(220)는 S320 단계에서 연산망(300)의 생성망(310)을 통해 모조 객체 영상(30)을 생성한다. 즉, 처리부(220)는 원본 혼합 영상(10)을 학습이 완료된 연산망(300)의 생성망(310)에 입력한다. 그러면, 연산망(300)의 생성망(310)은 학습된 가중치를 적용한 복수의 연산을 수행하여 모조 객체 영상(30)을 생성한다. Then, the processing unit 220 generates the dummy object image 30 through the generation network 310 of the computing network 300 in step S320. That is, the processing unit 220 inputs the original mixed image 10 into the generation network 310 of the computing network 300 on which the training has been completed. Then, the generation network 310 of the computing network 300 generates a dummy object image 30 by performing a plurality of operations to which the learned weight is applied.

전술한 바와 같이, 원본 혼합 영상(10)의 각 픽셀은 픽셀값 뿐만 아니라 위치 정보를 포함한다. 이에 따라, 모조 객체 영상(30)의 각 픽셀 또한 픽셀값 뿐만 아니라 위치 정보를 포함한다. 따라서 처리부(220)는 S330 단계에서 모조 객체 영상(30)의 객체 영역의 위치 정보를 도출한다. As described above, each pixel of the original mixed image 10 includes location information as well as a pixel value. Accordingly, each pixel of the dummy object image 30 also includes location information as well as a pixel value. Therefore, the processing unit 220 derives the location information of the object area of the dummy object image 30 in step S330.

그런 다음, 처리부(220)는 S340 단계에서 앞서 도출된 객체 영역의 위치 정보와, 기 저장된 로봇장치(400)의 작업 반경의 위치 정보를 비교하여 모조 객체 영상(30)의 객체가 로봇장치(400)의 작업 반경 내에 포함되는지 여부를 판별한다. Then, the processing unit 220 compares the position information of the object area derived earlier in step S340 with the position information of the working radius of the previously stored robot device 400, so that the object of the dummy object image 30 is converted to the robot device 400. Determines whether it is within the working radius of ).

처리부(220)는 판별 결과, 작업 반경 내에 포함되면, 로봇장치(400)의 작업을 중단하도록 하는 제어 명령을 생성하여 통신부(110)를 통해 로봇장치(400)로 전송한다. 이에 따라, 로봇장치(400)는 작업을 중단할 것이다. As a result of the determination, the processing unit 220 generates a control command for stopping the work of the robot device 400 and transmits it to the robot device 400 through the communication unit 110 when it is included within the working radius. Accordingly, the robot device 400 will stop working.

반면, 처리부(220)는 판별 결과, 작업 반경 내에 포함되지 않으면, 전술한 S310 단계 내지 S340 단계를 반복한다. On the other hand, as a result of the determination, the processing unit 220 repeats steps S310 to S340 if it is not included within the working radius.

한편, 앞서 설명된 본 발명의 실시예에 따른 다양한 방법들은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Meanwhile, various methods according to an embodiment of the present invention described above may be implemented in the form of programs that can be read through various computer means and recorded in a computer-readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, or the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of the program instructions may include not only machine language wires such as those made by a compiler, but also high-level language wires that can be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. Although the present invention has been described above using some preferred embodiments, these embodiments are illustrative and not limiting. As such, those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made according to the equivalence theory without departing from the spirit of the present invention and the scope of the rights set forth in the appended claims.

100: 제어장치 110: 통신부
120: 카메라부 130: 입력부
140: 표시부 150: 오디오부
160: 저장부 200: 제어부
210: 학습부 220: 처리부
300: 연산망 310: 생성망
320: 구분망 400: 로봇장치
100: control device 110: communication unit
120: camera unit 130: input unit
140: display unit 150: audio unit
160: storage unit 200: control unit
210: learning unit 220: processing unit
300: computing network 310: generating network
320: division network 400: robot device

Claims (7)

인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치에 있어서,
로봇장치와 상기 로봇장치의 주변의 작업자 혹은 자재를 포함하는 객체를 촬영하여 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상을 생성하는 카메라부;
상기 원본 혼합 영상으로부터 가중치가 적용되는 복수의 연산을 수행하여 상기 배경 영역을 제외한 상기 객체 영역만으로 이루어진 모조 객체 영상을 생성하는 생성망; 및
상기 모조 객체 영상의 객체 영역이 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하고, 상기 판별 결과, 상기 작업 반경 내에 포함되면, 상기 로봇장치의 작업을 중단하도록 제어하는 처리부;를 포함하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 장치.
In an apparatus for controlling a dangerous situation of a robot operation using an artificial neural network,
A camera unit for generating an original mixed image including an object area representing the object and a background area other than the object area by photographing an object including a robot device and a worker or material around the robot device;
A generation network that performs a plurality of operations to which weights are applied from the original mixed image to generate a dummy object image composed of only the object region excluding the background region; And
And a processing unit that determines whether the object area of the simulated object image is included within the working radius of the robot device, and controls to stop the work of the robot device if it is included within the working radius as a result of the determination. With
A device for controlling dangerous situations in robot work.
제1항에 있어서,
상기 원본 혼합 영상 및 상기 모조 객체 영상은 각 픽셀의 픽셀값과 각 픽셀의 위치 정보를 포함하며,
상기 처리부는
상기 원본 혼합 영상을 상기 생성망에 입력하여 상기 모조 객체 영상을 생성하고, 생성된 상기 모조 객체 영상의 객체 영역의 위치 정보를 이용하여 상기 객체가 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 장치.
The method of claim 1,
The original mixed image and the dummy object image include a pixel value of each pixel and location information of each pixel,
The processing unit
Generating the fake object image by inputting the original mixed image into the generation network, and determining whether the object is included within the working radius of the robot device using the location information of the object area of the created fake object image Characterized by
A device for controlling dangerous situations in robot work.
제1항에 있어서,
상기 모조 객체 영상에 대해 가중치가 적용되는 복수의 연산을 통해 상기 모조 객체 영상이 원본인지 혹은 모조인지 여부를 출력하는 구분망;
상기 모조 객체 영상이 모조인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 구분망의 가중치를 수정하는 학습과 상기 모조 객체 영상이 원본인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 생성망의 가중치를 수정하는 학습이 경쟁하도록 반복하는 학습부;를 더 포함하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 장치.
The method of claim 1,
A division network that outputs whether the dummy object image is the original or the dummy object image through a plurality of operations in which a weight is applied to the dummy object image;
After setting an expected value to determine that the fake object image is a fake, learning to modify the weight of the partition network so that the difference between the set expected value and the output value of the partition network is minimal, and to determine that the fake object image is the original After setting the expected value, a learning unit that repeats so that learning of modifying the weight of the generation network so that the difference between the set expected value and the output value of the division network is minimized competes; further comprising:
A device for controlling dangerous situations in robot work.
제3항에 있어서,
상기 학습
부는 상기 학습 시, 상기 생성망, 상기 구분망의 가중치의 변화가 없으면, 상기 기댓값을 증가시켜 설정한 후, 상기 학습을 반복하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 장치.
The method of claim 3,
Reminder learning
When the weights of the generation network and the division network do not change during the learning, the learning is repeated after setting by increasing the expected value.
A device for controlling dangerous situations in robot work.
인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 방법에 있어서,
카메라부가 로봇장치와 상기 로봇장치의 주변의 사람 혹은 자재를 포함하는 객체를 촬영하여 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상을 생성하는 단계;
생성망이 상기 원본 혼합 영상으로부터 가중치가 적용되는 복수의 연산을 수행하여 상기 배경 영역을 제거하고, 상기 객체 영역만으로 이루어진 모조 객체 영상을 생성하는 단계; 및
처리부가 상기 모조 객체 영상의 객체 영역이 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하는 단계;
상기 처리부가 상기 판별 결과, 상기 작업 반경 내에 포함되면, 상기 로봇장치의 작업을 중단하도록 제어하는 단계;를 포함하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 방법.
In a method for controlling a dangerous situation of a robot operation using an artificial neural network,
Generating an original mixed image including an object area representing the object and a background area other than the object area by photographing the robot device and an object including people or materials around the robot device;
Removing the background region by performing a plurality of operations to which weights are applied from the original mixed image, and generating a dummy object image consisting of only the object region; And
Determining, by a processing unit, whether the object area of the fake object image is included within the working radius of the robot device;
And if the processing unit is included within the working radius as a result of the determination, controlling to stop the operation of the robot device.
A method for controlling hazardous situations in robotic work.
제5항에 있어서,
상기 원본 혼합 영상을 생성하는 단계 전,
학습부가 상기 모조 객체 영상에 대해 가중치가 적용되는 복수의 연산을 통해 상기 모조 객체 영상이 원본인지 혹은 모조인지 여부를 출력하는 구분망이 상기 모조 객체 영상이 모조인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 구분망의 가중치를 수정하는 학습과,
상기 모조 객체 영상이 원본인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 생성망의 가중치를 수정하는 학습이
경쟁하도록 반복하는 단계;를 포함하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 방법.
The method of claim 5,
Before the step of generating the original mixed image,
After the learning unit sets an expected value so that the division network outputting whether the fake object image is the original or the fake object through a plurality of calculations in which weight is applied to the fake object image determines that the fake object image is a fake, Learning of modifying the weight of the division network so that the difference between the set expected value and the output value of the division network is minimum,
After setting an expected value to determine that the dummy object image is the original, learning to modify the weight of the generation network so that the difference between the set expected value and the output value of the division network is minimum
Repetitive step to compete; comprising a
A method for controlling hazardous situations in robotic work.
제5항 또는 제6항에 따른 로봇 작업의 위험 상황을 제어하기 위한 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체. A computer-readable recording medium in which a program for performing a method for controlling a dangerous situation of a robot operation according to claim 5 or 6 is recorded.
KR1020190008392A 2019-01-22 2019-01-22 Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method KR102184397B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008392A KR102184397B1 (en) 2019-01-22 2019-01-22 Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008392A KR102184397B1 (en) 2019-01-22 2019-01-22 Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method

Publications (2)

Publication Number Publication Date
KR20200094837A true KR20200094837A (en) 2020-08-10
KR102184397B1 KR102184397B1 (en) 2020-11-30

Family

ID=72049165

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008392A KR102184397B1 (en) 2019-01-22 2019-01-22 Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method

Country Status (1)

Country Link
KR (1) KR102184397B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100871114B1 (en) * 2007-04-03 2008-11-28 엘지전자 주식회사 Moving robot and operating method for same
JP5523386B2 (en) * 2011-04-15 2014-06-18 三菱電機株式会社 Collision avoidance device
KR20160131848A (en) * 2015-05-08 2016-11-16 삼성전자주식회사 Recognition apparatus and method
KR101785998B1 (en) 2017-06-26 2017-10-18 주식회사 썬에이치에스티 Human access detecting system for preventing safety accident

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100871114B1 (en) * 2007-04-03 2008-11-28 엘지전자 주식회사 Moving robot and operating method for same
JP5523386B2 (en) * 2011-04-15 2014-06-18 三菱電機株式会社 Collision avoidance device
KR20160131848A (en) * 2015-05-08 2016-11-16 삼성전자주식회사 Recognition apparatus and method
KR101785998B1 (en) 2017-06-26 2017-10-18 주식회사 썬에이치에스티 Human access detecting system for preventing safety accident

Also Published As

Publication number Publication date
KR102184397B1 (en) 2020-11-30

Similar Documents

Publication Publication Date Title
CN110974088B (en) Sweeping robot control method, sweeping robot and storage medium
Premebida et al. Pedestrian detection combining RGB and dense LIDAR data
JP2019028843A (en) Information processing apparatus for estimating person's line of sight and estimation method, and learning device and learning method
CN110858098A (en) Self-driven mobile robot using human-robot interaction
US10782780B2 (en) Remote perception of depth and shape of objects and surfaces
KR20190119212A (en) System for performing virtual fitting using artificial neural network, method thereof and computer recordable medium storing program to perform the method
Bhandari et al. Object detection and recognition: using deep learning to assist the visually impaired
KR102436906B1 (en) Electronic device for identifying human gait pattern and method there of
JP6075888B2 (en) Image processing method, robot control method
CN114391777A (en) Obstacle avoidance method and apparatus for cleaning robot, electronic device, and medium
US20220307231A1 (en) Utility Vehicle and Corresponding Apparatus, Method and Computer Program for a Utility Vehicle
KR20150003573A (en) Method and apparatus for extracting pattern of image
CN104065949A (en) Television virtual touch method and system
KR102184397B1 (en) Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method
WO2019156990A1 (en) Remote perception of depth and shape of objects and surfaces
Atienza et al. Intuitive human-robot interaction through active 3d gaze tracking
JP2015011404A (en) Motion-recognizing and processing device
KR102039164B1 (en) Apparatus for performing virtual fitting using multi-level artificial neural network, method thereof and computer recordable medium storing program to perform the method
KR20180034387A (en) Method and apparatus for interacting with virtual objects
JP2021026599A (en) Image processing system
Birk et al. Autonomous rescue operations on the iub rugbot
Heindl et al. Metric pose estimation for human-machine interaction using monocular vision
Kassim et al. Vision-based tactile paving detection method in navigation systems for visually impaired persons
Mital et al. Neural network implementation of divers sign language recognition based on eight Hu-moment parameters
Ghazal et al. Localized assistive scene understanding using deep learning and the IoT

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant