KR20200094837A - Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method - Google Patents
Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method Download PDFInfo
- Publication number
- KR20200094837A KR20200094837A KR1020190008392A KR20190008392A KR20200094837A KR 20200094837 A KR20200094837 A KR 20200094837A KR 1020190008392 A KR1020190008392 A KR 1020190008392A KR 20190008392 A KR20190008392 A KR 20190008392A KR 20200094837 A KR20200094837 A KR 20200094837A
- Authority
- KR
- South Korea
- Prior art keywords
- network
- image
- object image
- learning
- fake
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Fuzzy Systems (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 위험 상황 제어 기술에 관한 것으로, 보다 상세하게는, 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체에 관한 것이다. The present invention relates to a dangerous situation control technology, and more particularly, an apparatus for controlling a dangerous situation of a robot operation using an artificial neural network, a method therefor, and a computer-readable recording medium in which a program for performing the method is recorded. About.
자동화 로봇이 동작하는 현장에서 안전사고로 인해 인명피해가 발생하는 사례는 어렵지 않게 언론 매체를 통해서 접할 수 있다. 하지만, 자동화 로봇이 동작하는 영역 밖에 펜스를 치는 등의 단순한 대응이 현장에서 안전사고를 회피하는 유일한 방법이다. 하지만 이러한 방법은 작업 환경에 익숙해져서 안전에 대한 민감도가 떨어지는 작업자를 보호해 줄 수 없다. 즉, 로봇의 동작 경로를 잘 알고 있다고 하는 작업자가 부주의하게 펜스를 넘어 작업 공간으로 진입하여 사고를 유발하는 경우가 발생할 수 있다. Cases of personal injury due to safety accidents in the field where automated robots operate can be accessed through the media without difficulty. However, a simple response, such as hitting a fence outside the area where the automated robot operates, is the only way to avoid safety accidents in the field. However, this method cannot protect workers who are less sensitive to safety because they are accustomed to the work environment. That is, there may be a case where an operator who is said to know the robot's motion path inadvertently crosses the fence and enters the work space, causing an accident.
본 발명의 목적은 인공신경망을 이용하여 로봇 작업의 위험 상황을 제어하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공함에 있다. An object of the present invention is to provide an apparatus for controlling a dangerous situation of a robot operation using an artificial neural network, a method therefor, and a computer-readable recording medium in which a program performing the method is recorded.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치는 로봇장치와 상기 로봇장치의 주변의 작업자 혹은 자재를 포함하는 객체를 촬영하여 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상을 생성하는 카메라부와, 상기 원본 혼합 영상으로부터 가중치가 적용되는 복수의 연산을 수행하여 상기 배경 영역을 제외한 상기 객체 영역만으로 이루어진 모조 객체 영상을 생성하는 생성망과, 상기 모조 객체 영상의 객체 영역이 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하고, 상기 판별 결과, 상기 작업 반경 내에 포함되면, 상기 로봇장치의 작업을 중단하도록 제어하는 처리부를 포함한다. An apparatus for controlling a dangerous situation of a robot operation using an artificial neural network according to a preferred embodiment of the present invention for achieving the above-described object photographs a robot device and an object including workers or materials around the robot device. A camera unit that generates an original mixed image including an object region representing an object and a background region other than the object region, and the object excluding the background region by performing a plurality of operations to which weights are applied from the original mixed image It is determined whether a generation network for generating a dummy object image consisting of only an area, and whether the object area of the dummy object image is included within the working radius of the robot device, and if the determination result is included within the working radius, the It includes a processing unit that controls to stop the work.
상기 원본 혼합 영상 및 상기 모조 객체 영상은 각 픽셀의 픽셀값과 각 픽셀의 위치 정보를 포함하며, 상기 처리부는 상기 원본 혼합 영상을 상기 생성망에 입력하여 상기 모조 객체 영상을 생성하고, 생성된 상기 모조 객체 영상의 객체 영역의 위치 정보를 이용하여 상기 객체가 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하는 것을 특징으로 한다. The original mixed image and the dummy object image include a pixel value of each pixel and location information of each pixel, and the processing unit generates the dummy object image by inputting the original mixed image to the generation network, and generates the It is characterized in that it is determined whether the object is included within a working radius of the robot device by using position information of the object area of the dummy object image.
상기 장치는 상기 모조 객체 영상에 대해 가중치가 적용되는 복수의 연산을 통해 상기 모조 객체 영상이 원본인지 혹은 모조인지 여부를 출력하는 구분망과, 상기 모조 객체 영상이 모조인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 구분망의 가중치를 수정하는 학습과 상기 모조 객체 영상이 원본인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 생성망의 가중치를 수정하는 학습이 경쟁하도록 반복하는 학습부를 더 포함한다. The apparatus is configured to set an expected value to determine whether the fake object image is an original or a fake through a plurality of calculations in which a weight is applied to the fake object image, and to determine that the fake object image is a fake. Thereafter, learning to modify the weight of the division network so that the difference between the set expected value and the output value of the division network is minimal, and after setting the expected value to determine that the fake object image is the original, the set expected value and the output value of the division network It further includes a learning unit that repeats so that learning of modifying the weight of the generation network to compete so that the difference of is minimal.
상기 학습부는 상기 학습 시, 상기 생성망, 상기 구분망의 가중치의 변화가 없으면, 상기 기댓값을 증가시켜 설정한 후, 상기 학습을 반복하는 것을 특징으로 한다. The learning unit is characterized in that during the learning, if there is no change in the weight of the generation network and the division network, the learning unit repeats the learning after setting by increasing the expected value.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 방법은 카메라부가 로봇장치와 상기 로봇장치의 주변의 사람 혹은 자재를 포함하는 객체를 촬영하여 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상을 생성하는 단계와, 생성망이 상기 원본 혼합 영상으로부터 가중치가 적용되는 복수의 연산을 수행하여 상기 배경 영역을 제거하고, 상기 객체 영역만으로 이루어진 모조 객체 영상을 생성하는 단계와, 처리부가 상기 모조 객체 영상의 객체 영역이 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하는 단계와, 상기 처리부가 상기 판별 결과, 상기 작업 반경 내에 포함되면, 상기 로봇장치의 작업을 중단하도록 제어하는 단계를 포함한다. A method for controlling a dangerous situation of a robot operation using an artificial neural network according to a preferred embodiment of the present invention for achieving the above object is an object including a robot device and a person or material around the robot device. Generating an original mixed image including an object region representing an object and a background region other than the object region by photographing, and the background region by performing a plurality of operations to which weights are applied from the original mixed image by a generation network And generating a dummy object image consisting of only the object region; determining whether the object region of the dummy object image is included within the working radius of the robot; and the processing unit as a result of the determination And, if included within the working radius, controlling to stop the work of the robot device.
상기 방법은 상기 원본 혼합 영상을 생성하는 단계 전, 학습부가 상기 모조 객체 영상에 대해 가중치가 적용되는 복수의 연산을 통해 상기 모조 객체 영상이 원본인지 혹은 모조인지 여부를 출력하는 구분망이 상기 모조 객체 영상이 모조인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 구분망의 가중치를 수정하는 학습과, 상기 모조 객체 영상이 원본인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 생성망의 가중치를 수정하는 학습이 경쟁하도록 반복하는 단계를 더 포함한다. In the method, before the step of generating the original mixed image, a division network for outputting whether the fake object image is the original or the fake object through a plurality of calculations in which a weight is applied to the fake object image by the learning unit is the fake object. After setting an expected value to determine that the image is a fake, learning to modify the weight of the partition network so that the difference between the set expected value and the output value of the partition network is minimal, and the expected value to determine that the fake object image is the original. After setting, the step of repeating the learning of correcting the weight of the generation network so that the difference between the set expected value and the output value of the division network is minimized to compete.
본 발명의 다른 견지에 따르면, 전술한 본 발명의 바람직한 실시예에 따른 로봇 작업의 위험 상황을 제어하기 위한 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공한다. According to another aspect of the present invention, there is provided a computer-readable recording medium in which a program for performing a method for controlling a dangerous situation of a robot operation according to a preferred embodiment of the present invention is recorded.
인경 신경망을 이용하여 작업자가 로봇 작업 반경 내에 진입하는 것을 감지하고, 로봇 작업을 신속하게 정지시킬 수 있어 산업 현장의 안정성을 확보할 수 있다. By using a neural network, it is possible to detect that an operator enters the robot working radius and stop the robot work quickly, thereby ensuring the stability of the industrial site.
도 1은 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치를 설명하기 위한 블록도이다.
도 3은 본 발명의 실시예에 따른 제어부의 세부 구성을 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 연산망의 세부 구성을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 생성망의 세부적인 구성을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 구분망의 세부 구성을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 연산망을 학습시키는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 실시예에 따른 연산망의 초기 학습을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 인공신경망의 경쟁 학습을 설명하기 위한 흐름도이다.
도 10은 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 방법을 설명하기 위한 흐름도이다. 1 is a view for explaining a system for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.
2 is a block diagram illustrating an apparatus for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.
3 is a block diagram illustrating a detailed configuration of a control unit according to an embodiment of the present invention.
4 is a diagram illustrating a detailed configuration of a computing network according to an embodiment of the present invention.
5 is a diagram for explaining a detailed configuration of a generation network according to an embodiment of the present invention.
6 is a diagram for explaining a detailed configuration of a division network according to an embodiment of the present invention.
7 is a flowchart illustrating a method of learning a computing network according to an embodiment of the present invention.
8 is a flowchart illustrating initial learning of a computing network according to an embodiment of the present invention.
9 is a flow chart for explaining competitive learning of an artificial neural network according to an embodiment of the present invention.
10 is a flowchart illustrating a method for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.
본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, terms or words used in the present specification and claims described below should not be construed as being limited to their usual or dictionary meanings, and the inventors will use their own invention in the best way. For explanation, based on the principle that it can be appropriately defined as a concept of terms, it should be interpreted as a meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all the technical ideas of the present invention, and thus various equivalents that can replace them at the time of application It should be understood that there may be water and variations.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that the same components in the accompanying drawings are indicated by the same reference numerals as possible. In addition, detailed descriptions of well-known functions and configurations that may obscure the subject matter of the present invention will be omitted. For the same reason, in the accompanying drawings, some components are exaggerated, omitted, or schematically illustrated, and the size of each component does not entirely reflect the actual size.
먼저, 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 시스템에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 시스템을 설명하기 위한 도면이다. First, a system for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention will be described. 1 is a view for explaining a system for controlling a dangerous situation of a robot operation using an artificial neural network according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 시스템(이하, '제어시스템'으로 축약함)은 제어장치(100) 및 로봇장치(400)를 포함한다. Referring to FIG. 1, a system for controlling a dangerous situation of a robot operation using an artificial neural network (hereinafter, abbreviated as'control system') according to an embodiment of the present invention includes a
로봇장치(400)는 산업용 로봇으로, 기억장치가 있고 물체를 잡을 수 있는 선단부가 달린 팔의 신축, 선회, 상하 이동 등의 동작을 자동적으로 행함으로써 사람이 하는 작업을 대신할 수 있는 범용성의 기계를 말한다. 이러한 로봇장치(400)는 제어장치(100)에 의해 제어될 수 있다. The
제어장치(100)는 카메라 기능을 수행하는 복수의 카메라부를 통해 로봇장치(400) 주변을 촬영하고, 촬영된 영상을 분석하여 로봇장치(400)의 작업 반경(OR: Operation Radius) 내에 작업자 혹은 자재와 같은 객체가 진입한 경우, 이를 감지하여, 즉시, 로봇장치(400)의 동작이 중단되도록 로봇장치(400)를 제어한다. The
다음으로, 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 제어장치(100)에 대해서 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 장치를 설명하기 위한 블록도이다. Next, a description will be given of a
도 2를 참조하면, 본 발명의 실시예에 따른 제어장치(100)는 통신부(110), 카메라부(120), 입력부(130), 표시부(140), 오디오부(150), 저장부(160) 및 제어부(200)를 포함한다. Referring to FIG. 2, the
통신부(110)는 예컨대, 로봇장치(400)와 통신하기 위한 수단이다. 통신부(110)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신부(110)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. The
카메라부(120)는 영상을 촬영하기 위한 것으로, 이미지 센서를 포함한다. 이미지 센서는 피사체에서 반사되는 빛을 입력받아 전기신호로 변환하며, CCD(Charged Coupled Device), CMOS(Complementary Metal-Oxide Semiconductor) 등을 기반으로 구현될 수 있다. 카메라부(120)는 아날로그-디지털 변환기(Analog to Digital Converter)를 더 포함할 수 있으며, 이미지 센서에서 출력되는 전기신호를 디지털 수열로 변환하여 제어부(200)로 출력할 수 있다. The
특히, 카메라부(120)는 3D 센서를 포함한다. 3D 센서는 비접촉 방식으로 영상의 각 픽셀의 3차원 좌표를 획득하기 위한 센서이다. 카메라부(120)가 영상을 촬영하면, 3D 센서는 촬영된 영상과 함께, 카메라부(120)의 소정의 기준점(예컨대, 초점)으로부터 촬영한 객체까지의 실제 거리를 측정하여 촬영한 영상의 각 픽셀의 3차원 좌표를 생성한다. 3D 센서는 레이저, 적외선, 가시광 등을 이용하는 다양한 방식의 센서를 이용할 수 있다. 이러한 3D 센서는 TOP(Time of Flight), 위상변위(Phase-shift) 및 Online Waveform Analysis 중 어느 하나를 이용하는 레이저 방식 3차원 스캐너, 광 삼각법을 이용하는 레이저 방식 3차원 스캐너, 백색광 혹은 변조광을 이용하는 광학방식 3차원 스캐너, Handheld Real Time 방식의 PHOTO, 광학방식 3차원 스캐너, Pattern Projection 혹은 Line Scanning을 이용하는 광학방식, 레이저 방식 전신 스캐너, 사진 측량(Photogrammetry)을 이용하는 사진방식 스캐너, 키네틱(Kinect Fusion)을 이용하는 실시간(Real Time) 스캐너 등을 예시할 수 있다. In particular, the
입력부(130)는 제어장치(100)을 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어부(200)에 전달할 수 있다. 입력부(130)는 제어장치(100)을 제어하기 위한 각 종 키들을 포함할 수 있다. 입력부(130)는 표시부(140)가 터치스크린으로 이루어진 경우, 각 종 키들의 기능이 표시부(140)에서 이루어질 수 있으며, 터치스크린만으로 모든 기능을 수행할 수 있는 경우, 입력부(130)는 생략될 수도 있다. The
표시부(140)는 화면 표시를 위한 것으로, 제어장치(100)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공할 수 있다. 또한, 표시부(140)는 제어장치(100)의 부팅 화면, 대기 화면, 메뉴 화면, 등의 화면을 출력하는 기능을 수행한다. 표시부(140)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 한편, 표시부(140)는 터치스크린으로 구현될 수 있다. 이러한 경우, 표시부(140)는 터치센서를 포함한다. 터치센서는 사용자의 터치 입력을 감지한다. 터치센서는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서로 이용될 수 있다. 터치센서는 사용자의 터치 입력을 감지하고, 감지 신호를 발생시켜 제어부(200)로 전송한다. 특히, 표시부(140)가 터치스크린으로 이루어진 경우, 입력부(130) 기능의 일부 또는 전부는 표시부(140)를 통해 이루어질 수 있다. The
오디오부(150)는 본 발명의 실시예에 따른 음성과 같은 오디오 신호를 출력하기 위한 스피커(SPK)와, 음성과 같은 오디오 신호를 수집하기 위한 마이크(MIKE)를 포함한다. 즉, 오디오부(150)는 제어부(200)의 제어에 따라 오디오 신호를 스피커(SPK)를 통해 출력하거나, 마이크(MIKE)를 통해 입력된 오디오 신호를 제어부(200)로 전달할 수 있다. The
저장부(160)는 제어장치(100)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 저장부(160)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The
제어부(200)는 제어장치(100)의 전반적인 동작 및 제어장치(100)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 또한, 제어부(200)는 기본적으로, 제어장치(100)의 각 종 기능을 제어하는 역할을 수행한다. 제어부(200)는 중앙처리장치(CPU: Central Processing Unit), 디지털신호처리기(DSP: Digital Signal Processor) 등을 예시할 수 있다. 다음으로, 제어부(200)의 구성 및 동작에 대해서는 아래에서 더 상세하게 설명될 것이다. The
먼저, 본 발명의 실시예에 따른 제어부(200)의 구성에 대해서 설명하기로 한다. 도 3은 본 발명의 실시예에 따른 제어부의 세부 구성을 설명하기 위한 블록도이다. 도 3을 참조하면, 본 발명의 실시예에 따른 제어부(200)는 학습부(210), 처리부(220) 및 연산망(300)을 포함한다. First, the configuration of the
연산망(300)은 복수의 인공신경망으로 형성되며, 이러한 인공신경망은 생성망(310) 및 구분망(320)을 포함한다. 학습부(210)는 학습 데이터를 통해 연산망(300)을 학습시키기 위한 것이다. The computing network 300 is formed of a plurality of artificial neural networks, and the artificial neural network includes a
학습부(210)는 학습 데이터를 통해 연산망(300)을 학습시키기 위한 것이다. 즉, 학습부(210)는 작업자 혹은 자재를 포함하는 객체를 나타내는 객체 영역과 그 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상(10)으로부터 배경 영역을 제외한 객체 영역만을 추출한 모조 객체 영상(30)을 생성하도록 연산망(300)을 학습시킨다. The learning unit 210 is for learning the computing network 300 through learning data. That is, the learning unit 210 extracts only the object area excluding the background area from the original
처리부(220)는 학습이 완료된 연산망(300)에 카메라부(120)를 통해 촬영된 원본 혼합 영상(10)으로부터 연산망(300)을 통해 모조 객체 영상(30)을 생성하고, 모조 객체 영상(30)의 객체 영역의 위치 정보를 통해 모조 객체 영상(30)의 객체가 로봇장치(400)의 작업 반경 내에 포함되는지 여부를 판별한다. The
그러면, 본 발명의 일 실시예에 따른 연산망(300)의 세부 구성에 대해서 설명하기로 한다. 도 4는 본 발명의 일 실시예에 따른 연산망의 세부 구성을 설명하기 위한 도면이다. 도 4를 참조하면, 연산망(300)은 생성망(310) 및 구분망(320)을 포함한다. 생성망(310) 및 구분망(320) 각각은 하나의 인공신경망(ANN)을 구성한다. 이러한 생성망(310) 및 구분망(320) 각각에 대해서 설명하기로 한다. Then, a detailed configuration of the computing network 300 according to an embodiment of the present invention will be described. 4 is a diagram illustrating a detailed configuration of a computing network according to an embodiment of the present invention. Referring to FIG. 4, the computing network 300 includes a
먼저, 생성망(310)에 대해서 설명하기로 한다. 도 5는 본 발명의 실시예에 따른 생성망의 세부적인 구성을 설명하기 위한 도면이다. 도 5를 참조하면, 생성망(310)은 가중치가 적용되는 복수의 연산을 포함하는 복수의 계층을 포함한다. 여기서, 복수의 연산을 포함하는 복수의 계층은 컨볼루션(Convolution) 연산을 수행하는 컨볼루션계층(CL: Convolution Layer), 다운샘플링(Down Sampling) 연산을 수행하는 풀링계층(PL: Pooling Layer) 및 업샘플링(Up Sampling) 연산을 수행하는 언풀링(UL: Unpooling Layer) 계층 및 디컨불루션 연산을 수행하는 디컨불루션 계층(DL: Deconvolution Layer) 각각을 하나 이상 포함한다. 컨볼루션, 다운샘플링, 업샘플링 및 디컨불루션 연산 각각은 소정의 행렬로 이루어진 필터를 이용하며, 이러한 행렬의 원소의 값들이 가중치가 된다. First, the
생성망(310)은 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상(10)을 입력 받는다. 특히, 원본 혼합 영상(10)은 각 픽셀의 픽셀값과 각 픽셀의 위치 정보를 포함한다. 여기서, 위치 정보는 소정의 기준점을 가지며, 소정의 단위(예컨대, cm, mm 등)를 가지는 3차원 좌표값 (x, y z)이다. 예컨대, 원본 혼합 영상(10의 어느 하나의 픽셀 P1은 3차원 좌표값 (a, b, c)을 가지며, 단위가 mm라고 가정하면, 이러한 픽셀 P1은 기준점 (0, 0, 0)으로부터 mm 떨어진 점이된다. The
생성망(310)은 원본 혼합 영상(10)이 입력되면, 전술한 복수의 계층의 가중치가 적용되는 복수의 연산을 수행하여 배경 영역을 제외한 상기 객체 영역만으로 이루어진 모조 객체 영상(30)을 생성한다. 생성된 모조 객체 영상(30)은 각 픽셀의 픽셀값 및 각 픽셀의 위치 정보를 포함한다. 여기서, 위치 정보는 원본 혼합 영상(10)과 동일한 기준점을 가지며, 원본 혼합 영상(10)과 동일한 단위(예컨대, cm, mm 등)를 가지는 3차원 좌표값(x, y z)이다. When the original
이에 따라, 생성망(310)이 생성한 모조 객체 영상(30)의 객체 영역의 각 픽셀의 위치 정보에 따라 실제 객체, 작업자 혹은 자재가 3차원의 공간에서의 위치를 알 수 있다. Accordingly, according to the location information of each pixel in the object area of the
다음으로, 구분망(320)에 대해서 설명하기로 한다. 도 6은 본 발명의 실시예에 따른 구분망의 세부 구성을 설명하기 위한 도면이다. Next, the
도 6에 도시된 바와 같이, 구분망(320)은 가중치가 적용되는 복수의 연산을 포함하는 복수의 계층을 포함한다. 여기서, 복수의 연산을 포함하는 복수의 계층은 컨볼루션(Convolution) 연산을 수행하는 컨볼루션계층(CL: Convolution Layer) 및 소프트맥스(Soft-max) 연산을 수행하는 완전연결층(FL: Fully Connected Layer)을 포함한다. 컨볼루션 연산은 소정의 행렬로 이루어진 필터를 이용하며, 이러한 행렬의 원소의 값들이 가중치가 된다. 또한, 소프트맥스 연산 또한 가중치를 적용하여 수행된다. As shown in FIG. 6, the
구분망(320)은 배경 영역을 제외한 객체 영역만으로 이루어진 객체 영상(30, 40)을 입력 받고, 객체 영상(30, 40)에 대해 가중치가 적용되는 복수의 연산을 수행하여 입력된 객체 영상(30, 40)이 원본(real)인지 혹은 모조(fake)의 것인지 여부를 출력한다. 여기서, 객체 영상(30, 40)은 모조 객체 영상(30) 및 원본 객체 영상(40)을 포함한다. 전술한 바와 같이, 원본 혼합 영상(10)은 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 영상이다. 모조 객체 영상(30)은 원본 혼합 영상(10)으로부터 생성망(310)이 모조로 생성한 영상이다. 원본 객체 영상(40)은 학습을 위해 제작된 영상이며, 원본 혼합 영상(10)으로부터 그래픽 작업을 통해 객체 영역만을 추출한 영상이다. The
다음으로, 전술한 본 발명의 일 실시예에 따른 연산망(300)의 학습 방법에 대해서 설명하기로 한다. 도 7은 본 발명의 일 실시예에 따른 연산망을 학습시키는 방법을 설명하기 위한 흐름도이다. Next, a method of learning the computing network 300 according to an embodiment of the present invention will be described. 7 is a flowchart illustrating a method of learning a computing network according to an embodiment of the present invention.
도 7을 참조하면, 학습부(210)는 S100 단계에서 연산망(300)의 생성망(310) 및 구분망(320) 각각에 대해 개별적으로 초기 학습을 수행한다. 초기 학습 시, 학습부(210)는 생성망(310)이 원본 혼합 영상(10)을 입력 받아 모조 객체 영상(30)을 출력하도록 학습시킨다. 또한, 학습부(210)는 초기 학습 시, 구분망(320)이 모조 객체 영상(30)을 모조(fake)인 것으로 판별하고, 원본 객체 영상(40)을 원본(real)인 것으로 판별하도록 학습시킨다. Referring to FIG. 7, the learning unit 210 individually performs initial learning for each of the
그런 다음, 학습부(210)는 S200 단계에서 생성망(310) 및 구분망(320)에 대해 경쟁 학습을 수행한다. 이때, 학습부(210)는 상이한 기댓값을 적용하여 구분망(320)과 생성망(310)이 상호 경쟁하도록 하는 학습을 수행한다. Then, the learning unit 210 performs competitive learning on the
즉, 학습부(210)는 구분망(320)이 생성망(310)이 생성한 모조 객체 영상(30)을 모조(fake)인 것으로 판별하도록 구분망(320)을 학습시킨다. 이에 대응하여, 학습부(210)는 구분망(320)이 생성망(310)이 생성한 모조 객체 영상(30)을 원본(real)인 것으로 판별하도록 생성망(310)을 학습시킨다. That is, the learning unit 210 trains the
그러면, 보다 자세히 본 발명의 실시예에 따른 연산망(300)의 초기 학습에 대해서 설명하기로 한다. 도 8은 본 발명의 실시예에 따른 연산망의 초기 학습을 설명하기 위한 흐름도이다. Then, the initial learning of the computing network 300 according to an embodiment of the present invention will be described in more detail. 8 is a flowchart illustrating initial learning of a computing network according to an embodiment of the present invention.
도 5 및 도 8을 참조하면, 학습부(210)는 S110 단계에서 학습 데이터를 이용하여 생성망(310)에 대해 초기 학습을 수행한다. S110 단계의 초기 학습 시, 학습부(210)는 학습 데이터로 원본 혼합 영상(10) 및 원본 객체 영상(40)을 이용한다. 학습부(210)는 학습 데이터인 원본 혼합 영상(10)을 생성망(310)에 입력한다. 그러면, 생성망(310)은 입력된 원본 혼합 영상(10)에 대해 가중치가 적용되는 복수의 연산을 수행하여 모조 객체 영상(30)을 출력한다. 그러면, 학습부(210)는 모조 객체 영상(30)과 원본 객체 영상(40)을 상호 비교하여 모조 객체 영상(30)이 원본 객체 영상(40)에 대한 차이가 최소가 되도록 역확산(back-propagation) 알고리즘을 통해 생성망(310)의 가중치를 수정한다. 이러한 S110 단계는 서로 다른 복수의 학습 데이터, 즉, 원본 혼합 영상(10) 및 원본 객체 영상(40) 쌍을 이용하여 반복하여 수행된다. 5 and 8, the learning unit 210 performs initial learning on the
다음으로, 도 6 및 도 8을 학습부(210)는 S120 단계에서 구분망(320)에 대해 초기 학습을 수행한다. 학습부(210)는 구분망(320) 초기 학습 시, 학습 데이터로 모조 객체 영상(30) 및 원본 객체 영상(40) 각각을 개별적으로 이용한다. 이러한 S120 단계에서 학습부(210)는 학습 데이터를 이용하여 구분망(320)이 모조 객체 영상(30)을 모조(fake)인 것으로 판별하고, 원본 객체 영상(40)을 원본(real)인 것으로 판별하도록 한다. 이러한 S120 단계에서 학습부(210)는 구분망(320)에 모조 객체 영상(30) 또는 원본 객체 영상(40)을 학습 데이터로 이용한다. 먼저, 학습부(210)는 학습 데이터에 대응하여, 구분망(320)이 모조 객체 영상(30)을 모조인 것으로 판별하고, 원본 객체 영상(40)을 원본인 것으로 판별하도록 기댓값을 설정한다. 즉, 학습부(210)는 모조 객체 영상(30)에 대해 기댓값을 'real = 0.40' 및 'fake = 0.60'으로 설정할 수 있다. 또한, 학습부(210)는 원본 객체 영상(40)에 대해 기댓값을 'real = 0.60' 및 'fake = 0.40'으로 설정할 수 있다. Next, referring to FIGS. 6 and 8, the learning unit 210 performs initial learning on the
그런 다음, 학습부(210)는 구분망(320)에 학습 데이터인 모조 객체 영상(30) 혹은 원본 객체 영상(40)을 입력한다. 학습 데이터가 입력되면, 구분망(320)은 복수의 연산을 통해 입력된 학습 데이터가 원본(real)일 확률 및 모조(fake)일 확률을 출력값으로 출력한다. 즉, 구분망(320)은 모조 객체 영상(30) 또는 원본 객체 영상(40)이 입력되면, 복수의 가중치가 적용되는 연산을 통해 입력된 모조 객체 영상(30) 또는 원본 객체 영상(40)이 원본(real)일 확률과 모조(fake)일 확률을 출력값으로 출력한다. 예를 들면, 구분망(320)은 출력값으로 원본(real)일 확률과 모조(fake)일 확률을 'real = 0.70' 및 'fake = 0.30'과 같이 출력할 수 있다. 그런 다음, 학습부(210)는 구분망(320)의 출력값과 기댓값의 차이인 손실값이 최소가 되도록 역확산 알고리즘을 이용하여 구분망(320)의 가중치를 수정한다. Then, the learning unit 210 inputs the
전술한 바와 같은 초기 학습이 완료된 후, 수행되는 연산망(300)의 경쟁 학습에 대해서 설명하기로 한다. 도 9는 본 발명의 일 실시예에 따른 인공신경망의 경쟁 학습을 설명하기 위한 흐름도이다. 강조하면, 도 9는 도 7의 S200 단계의 일 실시예이다. Competitive learning of the computing network 300 performed after the initial learning as described above is completed will be described. 9 is a flow chart for explaining competitive learning of an artificial neural network according to an embodiment of the present invention. To emphasize, FIG. 9 is an embodiment of step S200 of FIG. 7.
도 9를 참조하면, 학습부(210)는 S210 단계에서 구분망(320)이 생성망(310)이 생성한 모조 객체 영상(30)을 모조(fake)인 것으로 판별하도록 기댓값을 설정하여 구분망(320)을 학습시킨다. 이를 위하여, 학습부(210)는 원본 혼합 영상(10)을 생성망(310)에 입력하여 생성망(310)부터 모조 객체 영상(30)을 획득한다. Referring to FIG. 9, the learning unit 210 sets an expected value so that the
이때, 학습부(210)는 모조 객체 영상(30)에 대한 기댓값을 'real = 0.40' 및 'fake = 0.60'으로 설정한다. 그런 다음, 학습부(210)는 생성망(310)부터 획득한 모조 객체 영상(30)을 구분망(320)에 입력한다. 이에 따라, 구분망(320)은 복수의 가중치가 적용되는 연산을 통해 출력값을 출력할 것이다. 그러면, 학습부(210)는 구분망(320)의 출력값과 기댓값과의 차이인 손실값이 최소가 되도록 역확산 알고리즘을 이용하여 생성망(310)의 가중치를 고정한 상태에서 구분망(320)의 가중치를 수정한다. At this time, the learning unit 210 sets the expected values for the
S210 단계의 구분망(320)의 학습에 대응하여, 학습부(210)는 S220 단계에서 구분망(320)이 생성망(310)이 생성한 모조 객체 영상(30)을 원본(real)인 것으로 판별하도록 기댓값을 설정하여 생성망(310)을 학습시킨다. 이를 위하여, 학습부(210)는 원본 혼합 영상(10)을 생성망(310)에 입력하여 생성망(310)으로부터 모조 객체 영상(30)을 획득한다. 이때, 학습부(210)는 모조 객체 영상(30)에 대한 기댓값을 'real = 0.60' 및 'fake = 0.40'으로 설정한다. 그런 다음, 학습부(210)는 생성망(310)이 생성한 모조 객체 영상(30)을 구분망(320)에 입력한다. 이에 따라, 구분망(320)은 복수의 가중치가 적용되는 연산을 통해 출력값을 출력할 것이다. In response to the learning of the
그러면, 학습부(210)는 구분망(320)의 출력값과 기댓값과의 차이인 손실값이 최소가 되도록 역확산 알고리즘을 이용하여 구분망(320)의 가중치를 고정한 상태에서 생성망(310)의 가중치를 수정한다. 이와 같이, 경쟁 학습은 구분망(320)이 모조 객체 영상(30)을 모조인 것으로 판별하도록 구분망(320)의 가중치를 수정하는 절차와, 구분망(320)이 생성한 모조 객체 영상(30)을 원본인 것으로 판별하도록 생성망(310)의 가중치를 수정하는 절차가 경쟁한다. Then, the learning unit 210 uses the despreading algorithm so that the loss value, which is the difference between the output value of the
이러한 S210 단계 내지 S220 단계는 교번으로 반복하여 수행될 수 있다. These steps S210 to S220 may be performed alternately and repeatedly.
이러한 반복되는 경쟁 학습 과정에서 생성망(310)과 구분망(320)의 가중치의 변화가 없으면, 학습부(210)은 기댓값을 증가시켜 경쟁 학습을 지속할 수 있다. 즉, 학습부(210)는 구분망(320) 학습 시, 모조 객체 영상(30)에 대한 기댓값을 'real = 0.40' 및 'fake = 0.60'에서 'real = 0.30' 및 'fake = 0.70'과 같이 증가시킬 수 있다. 이는 구분망(320)이 모조 객체 영상(30)을 원본(real)인 것으로 판별하도록 하는 기댓값을 증가시키는 것을 의미한다. 이에 대응하여, 학습부(210)는 생성망(310) 학습 시, 모조 객체 영상(30)에 대한 기댓값을 'real = 0.60' 및 'fake = 0.40'에서 'real = 0.70' 및 'fake = 0.30'과 같이 증가시킬 수 있다. 이는 생성망(310)이 구분망(320)으로 하여금 모조 객체 영상(30)을 원본(real)인 것으로 판별하도록 하는 기댓값을 증가시키는 것을 의미한다. 한편, 학습부(210)는 기댓값을 최대(예컨대, 구분망 'real = 0.00' 및 'fake = 1.00', 생성망 'real = 1.00' 및 'fake = 0.00')로 증가시킨 후에도 구분망(320)과 생성망(310)의 가중치의 변화가 없으면, 학습을 완료할 수 있다. If there is no change in the weights of the
전술한 바에 따라 학습이 완료되면, 제어장치(100)는 연산망(200)을 이용하여 로봇장치(400)의 작업 반경(OR) 내에 객체가 진입하는지 여부를 판별할 수 있다. 이러한 방법에 대해서 설명하기로 한다. 도 10은 본 발명의 실시예에 따른 인공신경망을 이용한 로봇 작업의 위험 상황을 제어하기 위한 방법을 설명하기 위한 흐름도이다. When learning is completed as described above, the
도 10을 참조하면, 처리부(220)는 S310 단계에서 카메라부(210)를 통해 로봇장치(400)와 로봇장치(400)의 주변의 작업자 혹은 자재를 포함하는 객체를 촬영하여 원본 혼합 영상(10)을 생성한다. 여기서, 원본 혼합 영상(10)은 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함한다. 이때, 원본 혼합 영상(10)은 각 픽셀의 픽셀값과, 위치 정보(3차원 좌표)를 포함한다. 전술한 바와 같이, 위치 정보는 카메라부(10)의 3D 센서를 통해 획득할 수 있다. Referring to FIG. 10, the
그런 다음, 처리부(220)는 S320 단계에서 연산망(300)의 생성망(310)을 통해 모조 객체 영상(30)을 생성한다. 즉, 처리부(220)는 원본 혼합 영상(10)을 학습이 완료된 연산망(300)의 생성망(310)에 입력한다. 그러면, 연산망(300)의 생성망(310)은 학습된 가중치를 적용한 복수의 연산을 수행하여 모조 객체 영상(30)을 생성한다. Then, the
전술한 바와 같이, 원본 혼합 영상(10)의 각 픽셀은 픽셀값 뿐만 아니라 위치 정보를 포함한다. 이에 따라, 모조 객체 영상(30)의 각 픽셀 또한 픽셀값 뿐만 아니라 위치 정보를 포함한다. 따라서 처리부(220)는 S330 단계에서 모조 객체 영상(30)의 객체 영역의 위치 정보를 도출한다. As described above, each pixel of the original
그런 다음, 처리부(220)는 S340 단계에서 앞서 도출된 객체 영역의 위치 정보와, 기 저장된 로봇장치(400)의 작업 반경의 위치 정보를 비교하여 모조 객체 영상(30)의 객체가 로봇장치(400)의 작업 반경 내에 포함되는지 여부를 판별한다. Then, the
처리부(220)는 판별 결과, 작업 반경 내에 포함되면, 로봇장치(400)의 작업을 중단하도록 하는 제어 명령을 생성하여 통신부(110)를 통해 로봇장치(400)로 전송한다. 이에 따라, 로봇장치(400)는 작업을 중단할 것이다. As a result of the determination, the
반면, 처리부(220)는 판별 결과, 작업 반경 내에 포함되지 않으면, 전술한 S310 단계 내지 S340 단계를 반복한다. On the other hand, as a result of the determination, the
한편, 앞서 설명된 본 발명의 실시예에 따른 다양한 방법들은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Meanwhile, various methods according to an embodiment of the present invention described above may be implemented in the form of programs that can be read through various computer means and recorded in a computer-readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, or the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of the program instructions may include not only machine language wires such as those made by a compiler, but also high-level language wires that can be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. Although the present invention has been described above using some preferred embodiments, these embodiments are illustrative and not limiting. As such, those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made according to the equivalence theory without departing from the spirit of the present invention and the scope of the rights set forth in the appended claims.
100: 제어장치
110: 통신부
120: 카메라부
130: 입력부
140: 표시부
150: 오디오부
160: 저장부
200: 제어부
210: 학습부
220: 처리부
300: 연산망
310: 생성망
320: 구분망
400: 로봇장치100: control device 110: communication unit
120: camera unit 130: input unit
140: display unit 150: audio unit
160: storage unit 200: control unit
210: learning unit 220: processing unit
300: computing network 310: generating network
320: division network 400: robot device
Claims (7)
로봇장치와 상기 로봇장치의 주변의 작업자 혹은 자재를 포함하는 객체를 촬영하여 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상을 생성하는 카메라부;
상기 원본 혼합 영상으로부터 가중치가 적용되는 복수의 연산을 수행하여 상기 배경 영역을 제외한 상기 객체 영역만으로 이루어진 모조 객체 영상을 생성하는 생성망; 및
상기 모조 객체 영상의 객체 영역이 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하고, 상기 판별 결과, 상기 작업 반경 내에 포함되면, 상기 로봇장치의 작업을 중단하도록 제어하는 처리부;를 포함하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 장치. In an apparatus for controlling a dangerous situation of a robot operation using an artificial neural network,
A camera unit for generating an original mixed image including an object area representing the object and a background area other than the object area by photographing an object including a robot device and a worker or material around the robot device;
A generation network that performs a plurality of operations to which weights are applied from the original mixed image to generate a dummy object image composed of only the object region excluding the background region; And
And a processing unit that determines whether the object area of the simulated object image is included within the working radius of the robot device, and controls to stop the work of the robot device if it is included within the working radius as a result of the determination. With
A device for controlling dangerous situations in robot work.
상기 원본 혼합 영상 및 상기 모조 객체 영상은 각 픽셀의 픽셀값과 각 픽셀의 위치 정보를 포함하며,
상기 처리부는
상기 원본 혼합 영상을 상기 생성망에 입력하여 상기 모조 객체 영상을 생성하고, 생성된 상기 모조 객체 영상의 객체 영역의 위치 정보를 이용하여 상기 객체가 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 장치. The method of claim 1,
The original mixed image and the dummy object image include a pixel value of each pixel and location information of each pixel,
The processing unit
Generating the fake object image by inputting the original mixed image into the generation network, and determining whether the object is included within the working radius of the robot device using the location information of the object area of the created fake object image Characterized by
A device for controlling dangerous situations in robot work.
상기 모조 객체 영상에 대해 가중치가 적용되는 복수의 연산을 통해 상기 모조 객체 영상이 원본인지 혹은 모조인지 여부를 출력하는 구분망;
상기 모조 객체 영상이 모조인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 구분망의 가중치를 수정하는 학습과 상기 모조 객체 영상이 원본인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 생성망의 가중치를 수정하는 학습이 경쟁하도록 반복하는 학습부;를 더 포함하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 장치. The method of claim 1,
A division network that outputs whether the dummy object image is the original or the dummy object image through a plurality of operations in which a weight is applied to the dummy object image;
After setting an expected value to determine that the fake object image is a fake, learning to modify the weight of the partition network so that the difference between the set expected value and the output value of the partition network is minimal, and to determine that the fake object image is the original After setting the expected value, a learning unit that repeats so that learning of modifying the weight of the generation network so that the difference between the set expected value and the output value of the division network is minimized competes; further comprising:
A device for controlling dangerous situations in robot work.
상기 학습
부는 상기 학습 시, 상기 생성망, 상기 구분망의 가중치의 변화가 없으면, 상기 기댓값을 증가시켜 설정한 후, 상기 학습을 반복하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 장치. The method of claim 3,
Reminder learning
When the weights of the generation network and the division network do not change during the learning, the learning is repeated after setting by increasing the expected value.
A device for controlling dangerous situations in robot work.
카메라부가 로봇장치와 상기 로봇장치의 주변의 사람 혹은 자재를 포함하는 객체를 촬영하여 객체를 나타내는 객체 영역과 객체 영역 이외의 영역인 배경 영역을 포함하는 원본 혼합 영상을 생성하는 단계;
생성망이 상기 원본 혼합 영상으로부터 가중치가 적용되는 복수의 연산을 수행하여 상기 배경 영역을 제거하고, 상기 객체 영역만으로 이루어진 모조 객체 영상을 생성하는 단계; 및
처리부가 상기 모조 객체 영상의 객체 영역이 상기 로봇장치의 작업 반경 내에 포함되는지 여부를 판별하는 단계;
상기 처리부가 상기 판별 결과, 상기 작업 반경 내에 포함되면, 상기 로봇장치의 작업을 중단하도록 제어하는 단계;를 포함하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 방법. In a method for controlling a dangerous situation of a robot operation using an artificial neural network,
Generating an original mixed image including an object area representing the object and a background area other than the object area by photographing the robot device and an object including people or materials around the robot device;
Removing the background region by performing a plurality of operations to which weights are applied from the original mixed image, and generating a dummy object image consisting of only the object region; And
Determining, by a processing unit, whether the object area of the fake object image is included within the working radius of the robot device;
And if the processing unit is included within the working radius as a result of the determination, controlling to stop the operation of the robot device.
A method for controlling hazardous situations in robotic work.
상기 원본 혼합 영상을 생성하는 단계 전,
학습부가 상기 모조 객체 영상에 대해 가중치가 적용되는 복수의 연산을 통해 상기 모조 객체 영상이 원본인지 혹은 모조인지 여부를 출력하는 구분망이 상기 모조 객체 영상이 모조인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 구분망의 가중치를 수정하는 학습과,
상기 모조 객체 영상이 원본인 것으로 판별하도록 기댓값을 설정한 후, 설정된 기댓값과 상기 구분망의 출력값의 차이가 최소가 되도록 상기 생성망의 가중치를 수정하는 학습이
경쟁하도록 반복하는 단계;를 포함하는 것을 특징으로 하는
로봇 작업의 위험 상황을 제어하기 위한 방법. The method of claim 5,
Before the step of generating the original mixed image,
After the learning unit sets an expected value so that the division network outputting whether the fake object image is the original or the fake object through a plurality of calculations in which weight is applied to the fake object image determines that the fake object image is a fake, Learning of modifying the weight of the division network so that the difference between the set expected value and the output value of the division network is minimum,
After setting an expected value to determine that the dummy object image is the original, learning to modify the weight of the generation network so that the difference between the set expected value and the output value of the division network is minimum
Repetitive step to compete; comprising a
A method for controlling hazardous situations in robotic work.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190008392A KR102184397B1 (en) | 2019-01-22 | 2019-01-22 | Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190008392A KR102184397B1 (en) | 2019-01-22 | 2019-01-22 | Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200094837A true KR20200094837A (en) | 2020-08-10 |
KR102184397B1 KR102184397B1 (en) | 2020-11-30 |
Family
ID=72049165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190008392A KR102184397B1 (en) | 2019-01-22 | 2019-01-22 | Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102184397B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100871114B1 (en) * | 2007-04-03 | 2008-11-28 | 엘지전자 주식회사 | Moving robot and operating method for same |
JP5523386B2 (en) * | 2011-04-15 | 2014-06-18 | 三菱電機株式会社 | Collision avoidance device |
KR20160131848A (en) * | 2015-05-08 | 2016-11-16 | 삼성전자주식회사 | Recognition apparatus and method |
KR101785998B1 (en) | 2017-06-26 | 2017-10-18 | 주식회사 썬에이치에스티 | Human access detecting system for preventing safety accident |
-
2019
- 2019-01-22 KR KR1020190008392A patent/KR102184397B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100871114B1 (en) * | 2007-04-03 | 2008-11-28 | 엘지전자 주식회사 | Moving robot and operating method for same |
JP5523386B2 (en) * | 2011-04-15 | 2014-06-18 | 三菱電機株式会社 | Collision avoidance device |
KR20160131848A (en) * | 2015-05-08 | 2016-11-16 | 삼성전자주식회사 | Recognition apparatus and method |
KR101785998B1 (en) | 2017-06-26 | 2017-10-18 | 주식회사 썬에이치에스티 | Human access detecting system for preventing safety accident |
Also Published As
Publication number | Publication date |
---|---|
KR102184397B1 (en) | 2020-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110974088B (en) | Sweeping robot control method, sweeping robot and storage medium | |
Premebida et al. | Pedestrian detection combining RGB and dense LIDAR data | |
JP2019028843A (en) | Information processing apparatus for estimating person's line of sight and estimation method, and learning device and learning method | |
CN110858098A (en) | Self-driven mobile robot using human-robot interaction | |
US10782780B2 (en) | Remote perception of depth and shape of objects and surfaces | |
KR20190119212A (en) | System for performing virtual fitting using artificial neural network, method thereof and computer recordable medium storing program to perform the method | |
Bhandari et al. | Object detection and recognition: using deep learning to assist the visually impaired | |
KR102436906B1 (en) | Electronic device for identifying human gait pattern and method there of | |
JP6075888B2 (en) | Image processing method, robot control method | |
CN114391777A (en) | Obstacle avoidance method and apparatus for cleaning robot, electronic device, and medium | |
US20220307231A1 (en) | Utility Vehicle and Corresponding Apparatus, Method and Computer Program for a Utility Vehicle | |
KR20150003573A (en) | Method and apparatus for extracting pattern of image | |
CN104065949A (en) | Television virtual touch method and system | |
KR102184397B1 (en) | Apparatus for controlling risk situation of robot work using artificial neural network, method thereof and computer recordable medium storing program to perform the method | |
WO2019156990A1 (en) | Remote perception of depth and shape of objects and surfaces | |
Atienza et al. | Intuitive human-robot interaction through active 3d gaze tracking | |
JP2015011404A (en) | Motion-recognizing and processing device | |
KR102039164B1 (en) | Apparatus for performing virtual fitting using multi-level artificial neural network, method thereof and computer recordable medium storing program to perform the method | |
KR20180034387A (en) | Method and apparatus for interacting with virtual objects | |
JP2021026599A (en) | Image processing system | |
Birk et al. | Autonomous rescue operations on the iub rugbot | |
Heindl et al. | Metric pose estimation for human-machine interaction using monocular vision | |
Kassim et al. | Vision-based tactile paving detection method in navigation systems for visually impaired persons | |
Mital et al. | Neural network implementation of divers sign language recognition based on eight Hu-moment parameters | |
Ghazal et al. | Localized assistive scene understanding using deep learning and the IoT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |