KR102366396B1 - RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System - Google Patents
RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System Download PDFInfo
- Publication number
- KR102366396B1 KR102366396B1 KR1020200054839A KR20200054839A KR102366396B1 KR 102366396 B1 KR102366396 B1 KR 102366396B1 KR 1020200054839 A KR1020200054839 A KR 1020200054839A KR 20200054839 A KR20200054839 A KR 20200054839A KR 102366396 B1 KR102366396 B1 KR 102366396B1
- Authority
- KR
- South Korea
- Prior art keywords
- rgb
- deep learning
- data
- region
- camera
- Prior art date
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000011218 segmentation Effects 0.000 title claims abstract description 36
- 238000012544 monitoring process Methods 0.000 claims abstract description 15
- 238000013136 deep learning model Methods 0.000 claims description 33
- 230000009466 transformation Effects 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000013527 convolutional neural network Methods 0.000 description 9
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 239000010865 sewage Substances 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 230000004397 blinking Effects 0.000 description 3
- 239000000428 dust Substances 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 101000746134 Homo sapiens DNA endonuclease RBBP8 Proteins 0.000 description 1
- 101000969031 Homo sapiens Nuclear protein 1 Proteins 0.000 description 1
- 102100021133 Nuclear protein 1 Human genes 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- Image Analysis (AREA)
Abstract
실시예는 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 방법과 그 시스템에 관한 것이다.
구체적으로, 이러한 방법과 시스템은 RGB-D카메라와 최근의 딥러닝 기술을 활용해서 3차원으로 물체의 영역을 분할하여 객체의 xyz값과 RGB값을 찾아낼 수 있도록 한다.
구체적으로, 인식할 물체의 RGB영상과 깊이데이터 및 딥 러닝에 의해 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB컬러 정보를 획득할 수 있도록 하는 것을 특징으로 한다.
따라서, 이를 통해 실시예는 최종적으로 자동화 등의 로봇비전 감시를 할 경우에, 카메라를 이용하면서도 객체의 3D xyz 데이터(즉, 3차원적 정보)와 RGB 컬러 정보를 찾아서 표현함으로써, 3차원으로 물체를 인식하여 구분해낸다.The embodiment relates to a 3D object region segmentation method and system using RGB-D data and deep learning.
Specifically, these methods and systems utilize RGB-D cameras and recent deep learning techniques to segment the object area in three dimensions to find the xyz and RGB values of the object.
Specifically, it is characterized in that xyz and RGB color information of the object can be obtained by performing 3D object region segmentation of the object by RGB image and depth data and deep learning of the object to be recognized.
Therefore, through this, the embodiment finally finds and expresses the 3D xyz data (ie, three-dimensional information) and RGB color information of the object while using the camera, in the case of robot vision monitoring such as automation, to display the object in three dimensions. Recognize and distinguish
Description
본 명세서에 개시된 내용은 3차원으로 물체를 인식하는 로봇비전 기술을 응용하여 물체를 구분해내기 위한 시스템에 관한 것으로서, 자동화 등에 활용되는 로봇비전 분야에 속하는 기술분야에 관한 것이다.The content disclosed in the present specification relates to a system for classifying an object by applying a robot vision technology for recognizing an object in three dimensions, and relates to a technology field belonging to the field of robot vision used for automation and the like.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and inclusion in this section is not an admission that it is prior art.
일반적으로, 로봇에 있어서 물체인식이란 로봇이 감지한 물체가 무엇인지를 판단하는 것이며, 로봇은 상기 판단 결과를 통해 프로그램된 대로 적절한 임무를 수행할 수 있게 된다.In general, object recognition in a robot is to determine what an object is detected by the robot, and the robot can perform an appropriate task as programmed through the determination result.
한편, 물체를 인식하는 방법으로는, 3차원 물체에 대한 다량의 정보를 데이터베이스에 저장시킨 후, 로봇이 인식하는 물체와 대조하여 해당 물체의 정보를 획득하는, 소위 모델 기반형 물체인식방법이 일반적으로 사용되고 있다. 모델 기반형 물체인식방법은 크게 모델 데이터베이스 내에 모델 물체에 대한 정보의 저장단계와 센서 시On the other hand, as a method for recognizing an object, a so-called model-based object recognition method, in which a large amount of information about a three-dimensional object is stored in a database, is compared with an object recognized by the robot, and acquired information of the object is generally is being used as The model-based object recognition method is largely divided into the storage step of information about the model object in the model database and the
스템으로부터 얻은 입력정보로부터 모델 물체와의 비교를 위한 처리단계, 즉 특징 추출단계 및 인식단계로 나누어진다.It is divided into a processing step for comparison with a model object from the input information obtained from the system, that is, a feature extraction step and a recognition step.
이러한 종래 로봇에 사용된 비전 기반의 물체인식방법은 카메라로 물체를 촬영하여 영상 데이터를 얻고 이 영상 데이터를 처리하여 해당 물체의 특징점을 추출한 후, 데이터베이스에 저장되어 있는 물체들의 특징점과 비교하여 유사도를 판단하는 과정을 통해 물체인식작업을 수행했다.The vision-based object recognition method used in such a conventional robot captures an object with a camera to obtain image data, processes the image data to extract the feature points of the object, and compares it with the feature points of the objects stored in the database to determine the similarity. Object recognition was performed through the process of judgment.
이러한 배경의 선행기술문헌은 아래의 특허문헌 정도이다.The prior art documents in this background are about the following patent documents.
(특허문헌 1) KR100920457 Y1(Patent Document 1) KR100920457 Y1
참고적으로, 이러한 특허문헌 1의 기술은 로봇에 부착된 카메라를 통해 얻어진 영상이미지로부터 특징점들을 추출하여 물체를 인식하였던 종래 방법들과 달리, 서비스 로봇에 부착된 RFID 리더를 통해 검출된 RFID 코드를 이용하여 물체를 인식하는 것이다.For reference, the technology of Patent Document 1 uses an RFID code detected through an RFID reader attached to a service robot, unlike conventional methods in which an object was recognized by extracting feature points from an image image obtained through a camera attached to the robot. is used to recognize objects.
한편, 특히 본 명세서에 개시된 내용과 관련하여 보다 상세하게는 종래에도 카메라를 이용하여 물체를 인식하기 위한 기술들이 활용되고 있으나 2차원적 정보로서 로봇이 물체를 완전히 인식하기가 어렵다.On the other hand, in particular, in relation to the content disclosed in this specification, in more detail, techniques for recognizing an object using a camera have been used in the prior art, but it is difficult for a robot to fully recognize an object as two-dimensional information.
그리고, 딥러닝을 이용한 기술에 있어서도 대부분 2차원 영상 내에서의 물체에 대한 영역을 도출해 내는 것으로써 사전에 보정(calibration)과정으로서 영상내의 화소의 크기와 실제 xy의 크기의 상관관계를 수식으로 도출하여 물체가 속한 영역에 대한 xy영역을 찾아 내는 방법을 활용하고 있다.And, in the technology using deep learning, most of the areas for the object in the two-dimensional image are derived, and as a calibration process in advance, the correlation between the size of the pixel in the image and the size of the actual xy is derived with a formula Thus, the method of finding the xy region for the region to which the object belongs is utilized.
또한 종래의 기술 중에서는 물체의 z축 정보도 보정과정을 통해 고정된 환경하에서 z정보를 찾아내는 경우도 있다.Also, in the prior art, there is a case in which z-axis information of an object is also found in a fixed environment through a correction process.
그러나 보정 과정을 거치지 않는 경우나 일반적인 물체 인식의 경우 카메라를 가지고 3차원적인 물체 영역 정보를 얻는 것이 종래의 기술로는 해결되지 못하고 있다. However, in the case of not undergoing a calibration process or in general object recognition, obtaining three-dimensional object area information with a camera has not been solved by the prior art.
또한 RGB-D 카메라를 활용하는 경우에도 깊이(Depth) 정보를 활용하여 거리감을 느낄 수 있도록 하는 것은 가능할 수 있으나 특정 물체에 대한 구분이 이루어 져서 특정한 물체 영역의 xyz 값을 포함하는 3차원적 정보를 얻어내는 것에 대한 종래의 기술은 아직 없는 상황이다.Also, even when using an RGB-D camera, it may be possible to feel a sense of distance by using depth information, but three-dimensional information including the xyz value of a specific object area is obtained by classifying a specific object. There is still no prior art for obtaining it.
개시된 내용은, RGB-D 카메라를 이용하고 최근의 딥러닝 기술을 이용하여 3차원으로 물체의 영역을 분할하여 xyz값과 RGB값을 찾아낼 수 있도록 하는 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 방법과 그 시스템을 제공하고자 한다.The disclosed content is a 3D object using RGB-D data and deep learning that uses an RGB-D camera and uses a recent deep learning technology to segment an object region in three dimensions to find xyz values and RGB values The present invention intends to provide a domain division method and its system.
실시예에 따른 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 방법과 그 시스템은,3D object region segmentation method and system using RGB-D data and deep learning according to the embodiment,
RGB-D카메라와 최근의 딥러닝 기술을 활용해서 3차원으로 물체의 영역을 분할하여 객체의 xyz값과 RGB값을 찾아낼 수 있도록 한다.By using RGB-D camera and recent deep learning technology, it is possible to find the xyz value and RGB value of the object by segmenting the object area in three dimensions.
구체적으로, 인식할 물체의 RGB영상과 깊이데이터 및 딥 러닝에 의해 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB컬러 정보를 획득할 수 있도록 하는 것을 특징으로 한다.Specifically, it is characterized in that xyz and RGB color information of the object can be obtained by performing 3D object region segmentation of the object by RGB image and depth data and deep learning of the object to be recognized.
실시예들에 의하면, 최종적으로 자동화 등의 로봇비전 감시를 할 경우에, 카메라를 이용하면서도 객체의 3D xyz 데이터(즉, 3차원적 정보)와 RGB 컬러 정보를 찾아서 표현함으로써, 3차원으로 물체를 인식하여 구분해낸다.According to the embodiments, when finally performing robot vision monitoring such as automation, the object is displayed in three dimensions by finding and expressing 3D xyz data (ie, three-dimensional information) and RGB color information of the object while using a camera. Recognize and differentiate
따라서, 더 나아가 산업적으로는 3차원 물체인식을 위한 비전시스템으로 활용될 수 있는 효과가 있다. 그리고, 기술적으로는 3D 기반 물체인식이 가능하게 됨으로써 로봇비전 감시용 비전시스템 등의 용도로 다양하게 활용될 수 있다.Therefore, further industrially, there is an effect that can be utilized as a vision system for 3D object recognition. And, technically, as 3D-based object recognition becomes possible, it can be used in various ways, such as a vision system for robot vision monitoring.
부가적으로, RGB-D 카메라를 이용하여 3차원으로 물체를 인식하는 로봇 비전 기술을 응용하여 물체를 구분해내기 위한 시스템에 관한 것으로서 일반적인 물체를 인식하는데 있어서 하나 또는 일부의 객체에 해당하는 xyz 정보와 RGB정보를 얻고자하는 비전 시스템으로 작용하는 것이다.Additionally, it relates to a system for classifying an object by applying a robot vision technology that recognizes an object in three dimensions using an RGB-D camera, and xyz information corresponding to one or some objects in recognizing a general object and it acts as a vision system to obtain RGB information.
도 1a와 도 1b는 일실시예에 따른 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 시스템을 설명하기 위한 도면
도 2는 도 1a와 도 1b의 3D객체영역분할 시스템에 적용된 객체 분할 학습 과정(즉, 전술한 객체2D영역분할 딥러닝 모델 구축 과정)을 보여주는 도면
도 3과 도 4는 도 1a와 도 1b의 시스템에 적용된 일실시예에 따른 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 방법을 설명하기 위한 도면
도 5는 도 1a와 도 1b의 시스템에 적용된 RGB컬러 영상과 깊이데이터를 보여주는 도면이
도 6과 도 7은 도 1a와 도 1b의 시스템에 사용된 객체2D영역분할 딥러닝 모델에 의한 딥러닝객체2D영역분할 과정을 보여주는 도면
도 8과 도 9는 도 1a와 도 1b의 시스템에 의해 3D객체영역분할한 결과를 그래픽으로 표현한 도면1A and 1B are diagrams for explaining a 3D object region division system using RGB-D data and deep learning according to an embodiment;
2 is a view showing an object division learning process (that is, the process of constructing the object 2D region division deep learning model described above) applied to the 3D object region division system of FIGS. 1A and 1B.
3 and 4 are diagrams for explaining a 3D object region division method using RGB-D data and deep learning according to an embodiment applied to the system of FIGS. 1A and 1B
5 is a view showing RGB color images and depth data applied to the system of FIGS. 1A and 1B.
6 and 7 are diagrams showing the deep learning object 2D region division process by the object 2D region division deep learning model used in the system of FIGS. 1A and 1B
8 and 9 are diagrams graphically expressing the result of 3D object region division by the system of FIGS. 1A and 1B.
도 1a와 도 1b는 일실시예에 따른 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 시스템을 설명하기 위한 도면이다.1A and 1B are diagrams for explaining a 3D object region division system using RGB-D data and deep learning according to an embodiment.
구체적으로, 도 1a는 이러한 3D객체영역분할 시스템의 개념을 모식화한 도면이다. 그리고, 도 1b는 상기 3D객체영역분할 시스템의 구성을 도시한 블록도이다.Specifically, FIG. 1A is a diagram schematically illustrating the concept of such a 3D object region division system. And, FIG. 1B is a block diagram showing the configuration of the 3D object region division system.
도 1a와 도 1b에 도시된 바와 같이, 일실시예에 따른 3D객체영역분할 시스템은 자동화 등의 로봇비전 감시를 할 경우에, 비전 데이터에서 3차원으로 물체를 인식함으로써, 로봇비전 감시를 수행할 수 있도록 하는 시스템을 전제로 한다.1A and 1B, the 3D object area division system according to an embodiment performs robot vision monitoring by recognizing an object in 3D from vision data when monitoring robot vision such as automation. It presupposes a system that makes it possible.
이러한 상태에서, 일실시예에 따른 3D객체영역분할 시스템은 RGB-D카메라와 최근의 딥러닝 기술을 활용해서 3차원으로 물체의 영역을 분할하여 객체의 xyz값과 RGB값을 찾아낼 수 있도록 하는 것이다.In this state, the 3D object region division system according to an embodiment divides the object region in three dimensions using an RGB-D camera and recent deep learning technology to find the xyz value and RGB value of the object. will be.
구체적으로, 일실시예의 시스템은 인식할 물체의 RGB영상과 깊이데이터를 수집하는 RGB-D카메라(110)와, RGB영상과 깊이데이터 및 딥 러닝에 의해 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB컬러 정보를 획득하는 중앙제어반(120), 그의 디스플레이 장치(130)를 포함하고 있다.Specifically, the system of one embodiment includes an RGB-
상기 RGB-D카메라(110)는 로봇비전 등을 이용해 물체를 구분하기 위해서, 먼저 인식하고자 하는 물체에 대한 RGB영상과 깊이데이터를 수집하여 이 두 가지의 정보를 중앙제어반에 제공하는 것이다. 이때, 상기 RGB영상과 깊이데이터는 일실시예에 따른 객체의 3D객체영역분할을 위해 사용된다. 부가적으로, 이러한 RGB-D카메라는 Kinect, RealSense 등을 활용한다.The RGB-
상기 중앙제어반(120)은 상기 RGB영상과 깊이데이터만으로 딥 러닝을 적용해서 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB컬러 정보를 획득할 수 있도록 하는 것이다. 구체적으로는, 이러한 중앙제어반(120)은 a) 우선적으로 미리 다수의 상이한 RGB영상만으로부터의 2D객체 영역분할을 위한 딥러닝 학습을 통해 객체 영역에 관한 딥러닝 파라미터를 산출하여 객체2D영역분할 딥러닝 모델을 구축한다. 그리고, 중앙제어반(120)은 b) 상기 RGB-D카메라로부터의 RGB영상으로부터 객체2D영역분할을 상기 객체2D영역분할 딥러닝 모델에 의해 수행한다. 다음, c) 상기 객체2D영역분할 결과와, 상기 RGB-D카메라로부터의 깊이데이터 간에 논리적 AND를 수행함으로써, 객체의 깊이 정보를 획득한다. 그리고 나서, 중앙제어반(120)은 d) 상기 객체의 깊이 정보에 원근변환을 적용하여 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB컬러 정보를 획득할 수 있도록 한다. 따라서, 이를 통해 일실시예에 따른 시스템은 RGB-D 카메라와 최근의 딥러닝 기술을 이용하여 3차원으로 물체의 영역을 분할함으로써, 최종적으로 객체의 3D xyz 데이터와 RGB 컬러 정보를 찾아서 표현한다.The
상기 디스플레이 장치(130)는 이러한 중앙제어반(120)에 의해 객체의 xyz와 RGB컬러 정보를 포함하는 데이트가 추출된 경우, 이 객체의 3D객체영역분할 결과를 표현해서 제공한다.When data including xyz and RGB color information of an object is extracted by the
그리고, 이러한 경우 상기 중앙제어반(120)은 예를 들어 아래의 구성으로 이루어진다.And, in this case, the
즉, 상기 중앙제어반(120)은 상기 RGB-D카메라(110)와 데이터 인터페이스하여 물체의 RGB영상과 깊이데이터를 입력받는 I/O 모듈부(121)와, 상기 물체의 RGB영상과 깊이데이터를 디지털 신호 처리하여 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB컬러 정보를 획득하는 DSP부(122) 및 상기 각 부를 제어하는 CPU(123)를 포함한다. 이때, 상기 디지털 신호 처리는 딥 러닝 동작을 포함한다.That is, the
추가적으로, 상기 중앙제어반(120)은 이러한 경우, 상기 CPU(123)를 통해 상기 DSP부(122)에 미리 객체2D영역분할 딥러닝 모델을 저장하여 제공할 수 있도록 하는 저장부(124)를 더 포함한다. Additionally, in this case, the
도 2는 도 1a와 도 1b의 3D객체영역분할 시스템에 적용된 객체 분할 학습 과정(즉, 전술한 객체2D영역분할 딥러닝 모델 구축 과정)을 보여주는 도면이다.FIG. 2 is a diagram showing an object division learning process (ie, the process of constructing the object 2D region division deep learning model described above) applied to the 3D object region division system of FIGS. 1A and 1B .
도 2에 도시된 바와 같이, 일실시예에 따른 객체 분할 학습 과정은 딥러닝객체2D영역 분할을 위해 RGB 만을 이용하여 딥러닝 객체영역분할의 학습과정을 거친다.As shown in Figure 2, the object division learning process according to an embodiment goes through a learning process of deep learning object region division using only RGB for deep learning object 2D region division.
구체적으로는, 일실시예에 따른 객체 분할 학습 과정은 먼저 인식하고자 하는 물체에 대해 RGB-D 카메라를 통해 RGB 영상만을 수집한다.Specifically, in the object segmentation learning process according to an embodiment, only RGB images are first collected through an RGB-D camera for an object to be recognized.
다음, 이러한 RGB 영상 내의 물체의 영역을 미리 정의하여 표시하고 그 물체의 종류를 지정함으로써, 학습용 데이터를 만든다. 부가적으로, 이 단계는 데이터셋 작성 단계로서 딥러닝 모델에서 학습용 데이터를 만드는 단계이며, 영상내의 물체의 영역을 미리 정의하여 표시하고 그 물체의 종류를 지정하는 단계이다.Next, data for learning is created by defining and displaying the area of the object in the RGB image in advance and designating the type of the object. Additionally, this step is a data set creation step, which is a step to create training data in a deep learning model, and is a step to define and display the area of an object in an image in advance and designate the type of the object.
그리고 나서, 이러한 학습용 데이터에 미리 설정된 객체분할 딥러닝 모델을 적용해서 객체의 영역만을 분할한다. 예를 들어, 상기 객체분할 딥러닝 모델은 마스크 R-CNN(Mask R-CNN)이 대표적이며 그 외에도 다른 동일한 기능을 가지는 다른 모델을 이용할 수 있다.Then, by applying a preset object segmentation deep learning model to these training data, only the area of the object is segmented. For example, the object segmentation deep learning model is a mask R-CNN (Mask R-CNN) is representative, and other models having the same function may be used.
한편, 이렇게 분할된 결과를 통해 나온 데이터셋을 미리 설정된 2D객체 영역분할을 위한 딥러닝 모델에 적용해서 학습한다. 부가적으로, 이 단계는 학습단계로서 데이터셋을 이용하여 딥러님모델에 적용하여 학습을 시키는 단계이다. 이 학습 단계에서는 객체분할 딥러닝모델이 S/W나 H/W 적으로 구성되어 있어야 하며 혹은 온라인상으로 학습을 하는 경우도 포함한다.On the other hand, the data set generated through the divided result is applied to a preset deep learning model for 2D object region segmentation to learn. Additionally, this step is a learning step by applying the data set to the Deep Runim model for learning. In this learning stage, the object segmentation deep learning model must be composed of S/W or H/W, or online learning is included.
그리고 나서, 이러한 학습 결과로부터 객체 영역에 관한 딥러닝 파라미터를 산출한다. 부가하여, 이 단계는 파라미터추출단계로서, 딥러닝모델의 학습이 완료됨과 동시에 그 학습의 결과로서 나타나는 파라미터를 구성하는 단계이다. 상기 파라미터는 가중파일(weight file) 이라고도 한다.Then, the deep learning parameters for the object domain are calculated from these learning results. In addition, this step is a parameter extraction step, which is a step of constructing parameters appearing as a result of the learning as soon as the learning of the deep learning model is completed. The parameter is also referred to as a weight file.
그래서, 상기 객체 영역에 관한 딥러닝 파라미터로부터 객체2D영역분할 딥러닝 모델을 구축한다. 이러한 단계는 딥러닝시스템 단계로서 추출된 파라미터를 적용하여 활용하도록 S/W 또는 H/W시스템을 구축하는 단계이다. 이 시스템은 3D 객체 영역분할을 위해 딥러닝객체2D 영역분할에서 활용되는 것이다.So, an object 2D region division deep learning model is constructed from the deep learning parameters related to the object region. This step is a step of constructing a S/W or H/W system to apply and utilize the extracted parameters as the deep learning system step. This system is utilized in deep learning object 2D segmentation for 3D object segmentation.
예를 들어, 상기 객체2D영역분할 딥러닝 모델은 미리 다수의 상이한 RGB영상으로부터의 2D객체 영역분할을 위한 마스크 R-CNN형 딥러닝 학습을 통해 2D객체 영역별로 대표 임계값을 추출하여 이진 마스크를 생성함으로써, 마스크 R-CNN 기반의 객체2D영역분할 딥러닝 모델로 이루어진다.For example, the object 2D region division deep learning model extracts a representative threshold value for each 2D object region through mask R-CNN type deep learning learning for 2D object region division from a number of different RGB images in advance to create a binary mask. By creating it, it consists of a mask R-CNN based object 2D region segmentation deep learning model.
도 3과 도 4는 일실시예에 따른 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 방법을 설명하기 위한 도면이다.3 and 4 are diagrams for explaining a 3D object region segmentation method using RGB-D data and deep learning according to an embodiment.
구체적으로, 도 3은 도 1a와 도 1b의 시스템에 적용된 일실시예에 따른 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 방법을 순서대로 도시한 플로우 차트이다(도 2 참조). 그리고, 도 4는 이러한 방법에 적용된 원근변환을 설명하기 위한 도면이다.Specifically, FIG. 3 is a flowchart sequentially illustrating a 3D object region segmentation method using RGB-D data and deep learning according to an embodiment applied to the system of FIGS. 1A and 1B (see FIG. 2 ). And, Figure 4 is a view for explaining the perspective transformation applied to this method.
우선적으로 도 3에 도시된 바와 같이, 일실시예에 따른 3D객체영역분할 방법은 먼저 자동화 등의 로봇비전 감시를 할 경우, 비전 데이터에서 3차원으로 물체를 인식함으로써, 로봇비전 감시를 수행할 수 있도록 하는 것을 전제로 한다.First, as shown in FIG. 3, the 3D object area division method according to an embodiment can perform robot vision monitoring by first recognizing an object in 3D from vision data when monitoring robot vision such as automation. presupposes that it be
그리고, 이러한 물체 인식은 전술한 중앙제어반에 의해 전체적으로 수행된다.And, this object recognition is entirely performed by the above-described central control panel.
이러한 상태에서, 일실시예에 따른 3D객체영역분할 방법은 우선적으로 미리 다수의 상이한 RGB영상만으로부터의 2D객체 영역분할을 위한 딥러닝 학습을 통해 객체 영역에 관한 딥러닝 파라미터를 산출하여 객체2D영역분할 딥러닝 모델을 구축한다(S301). 참고적으로, 상기 구축에 관해서는 도 5를 참조하여 보다 상세히 후술한다.In this state, the 3D object region segmentation method according to an embodiment preferentially calculates deep learning parameters for the object region through deep learning learning for 2D object region segmentation from only a plurality of different RGB images in advance to calculate the object 2D region A segmented deep learning model is built (S301). For reference, the construction will be described later in more detail with reference to FIG. 5 .
그리고, 이러한 방법은 상기 RGB-D카메라로부터의(S302) RGB영상으로부터 객체2D영역분할을 상기 객체2D영역분할 딥러닝 모델에 의해 수행한다(S303).And, in this method, object 2D region division from the RGB image from the RGB-D camera (S302) is performed by the object 2D region division deep learning model (S303).
다음, 상기 객체2D영역분할 결과와, 상기 RGB-D카메라로부터의 깊이데이터 간에 논리적 AND를 수행함으로써, 객체의 깊이 정보를 획득한다(S304). 즉, 깊이데이터와 객체2D영역분할이 겹치는 영역만을 분할한다.Next, by performing a logical AND between the object 2D region division result and the depth data from the RGB-D camera, depth information of the object is obtained (S304). That is, only the area where the depth data and the object 2D area division overlap is divided.
그리고 나서, 상기 객체의 깊이 정보에 원근변환을 적용하여 객체의 3D객체영역분할을 수행함으로써(S405), 객체의 xyz와 RGB컬러 정보를 획득할 수 있도록 한다. 즉, 이러한 원근변환 단계에서는 앞 단계에서 나타난 영역분할된 깊이 정보에 원근변환 (perspective transformation)을 활용하여 xyz 정보를 추출하는 단계이다.Then, by performing a 3D object region segmentation of the object by applying perspective transformation to the depth information of the object (S405), xyz and RGB color information of the object can be obtained. That is, in this perspective transformation step, xyz information is extracted by using perspective transformation on the region-divided depth information shown in the previous step.
일반적으로 원근변환은 도 4와 같은 도면으로 설명할 수 있다.In general, perspective transformation can be described with a drawing such as FIG. 4 .
RGB-D 데이터의 깊이 데이터는 도 10에서 보는 바와 같이 영상평면 (U,V) 내의 좌표 (u,v)와 그 영상좌표(u,v)와 깊이값(d)를 제공한다. 이 정보로부터 카메라의 원점 (0,0,0)를 기준으로 하는 실제 좌표 (x,y,z)는 다음 식으로부터 얻을 수 있다.The depth data of RGB-D data provides coordinates (u,v) in the image plane (U,V), the image coordinates (u,v), and a depth value ( d ), as shown in FIG. 10 . From this information, the actual coordinates ( x,y,z ) based on the origin (0,0,0) of the camera can be obtained from the following equation.
원점(0,0,0)에서 (u,v)까지 거리를 l이라고 하고, f를 초점거리, d를 깊이값이라 할 때 ㅣ은 로 표현된다. 이때 원점을 기준으로 (X, Y, Z) 좌표계에서 물체의 위치 (x,y,z)는 , , 로 계산이 될 수 있다. When the distance from the origin (0,0,0) to ( u,v ) is l , f is the focal length, and d is the depth value, l is expressed as . At this time, the position ( x,y,z ) of the object in the (X, Y, Z) coordinate system with respect to the origin can be calculated as , , .
이 식으로부터 RGB-D 데이터가 제공하는 (u,v) 및 d정보로부터 카메라를 기준으로 한 좌표계에서(x,y,z)를 구할 수 있다.From this equation, (x, y, z) can be obtained from the (u, v) and d information provided by the RGB-D data in the coordinate system with respect to the camera.
이것을 활용하며 물체의 영역인 (u,v)과 d의 집합으로부터 실제 물체의 영역의 (x,y,z)좌표들의 집합을 구할 수 있다.Using this, the set of (x,y,z) coordinates of the real object area can be obtained from the set of (u,v) and d, which are the area of the object.
그래서, 그 단계를 거치게 되면 물체가 존재하는 영역만을 3D 즉 (x,y,z)로 구분하여 낼 수 있다(3D객체분할완료). So, if you go through that step, only the area where the object exists can be divided into 3D, that is, (x,y,z) (3D object division is complete).
그리고, 상기 3D객체영역분할은 이와 같은 과정을 거쳐서 최종적으로 지정한 객체의 3D xyz 데이터와 그 해당 객체의 컬러 정보를 동시에 표현할 수 있다.In the 3D object region division, 3D xyz data of a finally designated object and color information of the corresponding object can be simultaneously expressed through this process.
따라서, 이를 통해 일실시예에 따른 3D객체영역분할 방법은 RGB-D 카메라와 최근의 딥러닝 기술을 이용하여 3차원으로 물체의 영역을 분할함으로써, 최종적으로 객체의 3D xyz 데이터와 RGB 컬러 정보를 찾아서 표현한다.Accordingly, the 3D object region segmentation method according to an embodiment divides the object region in three dimensions using an RGB-D camera and recent deep learning technology, thereby finally generating 3D xyz data and RGB color information of the object. find and express
이상과 같이, 일실시예는 RGB-D카메라와 최근의 딥러닝 기술을 활용해서 3차원으로 물체의 영역을 분할하여 객체의 xyz값과 RGB값을 찾아낼 수 있도록 한다.As described above, one embodiment uses an RGB-D camera and recent deep learning technology to segment an object region in three dimensions to find the xyz value and RGB value of the object.
구체적으로, 일실시예는 인식할 물체의 RGB영상과 깊이데이터 및 딥 러닝에 의해 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB컬러 정보를 획득할 수 있도록 한다.Specifically, an embodiment enables to obtain xyz and RGB color information of the object by performing 3D object region segmentation of the object by deep learning and RGB image and depth data of the object to be recognized.
따라서, 이를 통해 최종적으로 자동화 등의 로봇비전 감시를 할 경우에, 카메라를 이용하면서도 객체의 3D xyz 데이터(즉, 3차원적 정보)와 RGB 컬러 정보를 찾아서 표현함으로써, 3차원으로 물체를 인식하여 구분해낸다.Therefore, in the case of robot vision monitoring such as automation through this, 3D xyz data (ie, three-dimensional information) and RGB color information of an object are found and expressed while using a camera, thereby recognizing an object in three dimensions. separate
따라서, 더 나아가 산업적으로는 3차원 물체인식을 위한 비전시스템으로 활용될 수 있는 효과가 있다. 그리고, 기술적으로는 3D 기반 물체인식이 가능하게 됨으로써 로봇비전 감시용 비전시스템 등의 용도로 다양하게 활용될 수 있다.Therefore, further industrially, there is an effect that can be utilized as a vision system for 3D object recognition. And, technically, as 3D-based object recognition becomes possible, it can be used in various ways, such as a vision system for robot vision monitoring.
도 5는 도 2의 시스템에 적용된 RGB컬러 영상과 깊이데이터를 보여주는 도면이다.5 is a view showing an RGB color image and depth data applied to the system of FIG. 2 .
도 5에 도시된 바와 같이, 이러한 일실시예에 따른 데이터는 RGB-D데이터로서 수집한 결과 즉, RGB영상과 깊이데이터를 흑백으로 표현한 결과의 예이다.As shown in FIG. 5 , the data according to this embodiment is an example of the result of collecting RGB-D data, that is, the result of expressing the RGB image and the depth data in black and white.
그리고, 이러한 경우 상기 깊이 데이터는 밝기에 따라 깊이(거리)를 나타내주는 데이터로 된다. 이에 더하여, 상기 깊이 데이터는 카메라의 성능에 따라 고해상도를 가지는 경우를 포함한다.And, in this case, the depth data becomes data indicating depth (distance) according to brightness. In addition, the depth data includes a case of having a high resolution according to the performance of the camera.
구체적으로는, 이때 일실시예에서는 다수의 상이한 카메라 (성능)사양별로 대응하는 해상도 정보를 매칭한 매칭정보를 미리 설정 등록한다.Specifically, in one embodiment, matching information matching resolution information corresponding to a plurality of different camera (performance) specifications is preset and registered.
그리고 나서, 상기 RGB-D카메라로부터의 깊이데이터를 상기 매칭정보에 따라 현재 사용중인 카메라 (성능)사양에 대응하는 해상도로서 추출한다.Then, the depth data from the RGB-D camera is extracted as a resolution corresponding to the currently used camera (performance) specification according to the matching information.
그래서, 상기 객체2D영역분할 결과와, 상기 추출된 RGB-D카메라로부터의 깊이데이터 간에 논리적 AND를 수행함으로써, 객체의 깊이 정보를 획득한다.Therefore, by performing logical AND between the object 2D region division result and the extracted depth data from the RGB-D camera, depth information of the object is obtained.
도 6과 도 7은 도 1a와 도 1b의 시스템에 사용된 객체2D영역분할 딥러닝 모델에 의한 딥러닝객체2D영역분할 과정을 보여주는 도면이다.6 and 7 are diagrams showing a deep learning object 2D region division process by the object 2D region division deep learning model used in the system of FIGS. 1A and 1B.
구체적으로, 도 6은 이러한 딥러닝객체2D영역분할 과정을 거친 기본적인 영역 표현이고, 도 7은 물체별로 별도로 영역을 표현한 것이다.Specifically, FIG. 6 is a basic region representation through the deep learning object 2D region segmentation process, and FIG. 7 shows regions separately for each object.
도 6과 도 7에 도시된 바와 같이, 일실시예에 따른 딥러닝객체2D영역분할 과정은 전술한 학습 과정에서 완성된 일실시예의 객체2D영역분할 딥러닝 모델에 의해 도 6과 같이 기본적으로 표현되거나, 도 7에서와 같이 물체별로 별도로 영역을 표현한다.6 and 7, the deep learning object 2D region division process according to an embodiment is basically expressed as in FIG. 6 by the object 2D region division deep learning model of an embodiment completed in the learning process described above. Alternatively, as shown in FIG. 7 , a region is expressed separately for each object.
도 8과 도 9는 도 1a와 도 1b의 시스템에 의해 3D객체영역분할한 결과를 그래픽으로 표현한 도면이다.8 and 9 are diagrams graphically expressing the result of 3D object region division by the system of FIGS. 1A and 1B.
구체적으로, 도 8은 RGB영상과 깊이데이터를 XYZ좌표계로 표현하고 그래픽으로 표현한 실시의 예이고, 도 9는 3D영역을 분할한 결과를 그래픽으로 표현한 도면이다.Specifically, FIG. 8 is an example in which RGB image and depth data are expressed in an XYZ coordinate system and expressed graphically, and FIG. 9 is a diagram expressing a result of dividing a 3D area graphically.
도 8에 도시된 바와 같이, 일실시예에 따른 시스템은 전술한 바대로 3D객체영역을 분할한 경우, 이를 통해 RGB영상과 깊이데이터를 객체의 3D xyz 데이터와 RGB 컬러 정보로 즉, XYZ좌표계와 그래픽으로 표현한다.8, when the system according to an embodiment divides the 3D object region as described above, through this, the RGB image and depth data are converted into 3D xyz data and RGB color information of the object, that is, the XYZ coordinate system and the represent graphically.
그리고, 도 9에 도시된 바와 같이, 일실시예에 따른 3D객체영역분할은 예를 들어, 물체영역과 배경영역만을 나누어 3D영역을 분할한 결과를 그래픽으로 표현한다.And, as shown in FIG. 9 , in the 3D object region division according to an embodiment, the result of dividing the 3D region by dividing only the object region and the background region, for example, is graphically expressed.
그래서, 일실시예에 따른 3D객체영역분할은 이와 같은 과정을 거쳐서 최종적으로 지정한 객체의 3D xyz 데이터와 그 해당 객체의 컬러 정보를 동시에 표현할 수 있다.Therefore, in the 3D object region division according to an embodiment, the 3D xyz data of the finally designated object and the color information of the corresponding object can be simultaneously expressed through this process.
다른 한편으로, 일실시예에 따른 3D객체영역분할 시스템은 예를 들어 전술한 도 2의 중앙제어반을 PLC 컨트롤러의 형태로 구성하는 다른 실시예를 가진다.On the other hand, the 3D object region division system according to an embodiment has another embodiment in which, for example, the above-described central control panel of FIG. 2 is configured in the form of a PLC controller.
구체적으로는, 이러한 다른 실시예는 중앙제어반이 PLC 컨트롤러로 이루어진다.Specifically, in this other embodiment, the central control panel is composed of a PLC controller.
이러한 경우, 상기 PLC 컨트롤러는 기존과 같이, 기본적으로 전원 모듈과, 상하수도 상태정보 등의 각종 아날로그와 디지털 정보를 통합적으로 입출력하는 I/O 모듈, 데이터를 변환하는 컨버팅 모듈 및 중앙처리부인 CPU 모듈을 포함한다. 그리고, 중앙관제센터 등의 OS를 포함한 각종 제어대상과 통신하는 통신 모듈을 포함한다.In this case, the PLC controller basically includes a power supply module, an I/O module that integrates input/output of various analog and digital information such as water and sewage status information, a converting module that converts data, and a CPU module that is a central processing unit, as in the past. include And, it includes a communication module for communicating with various control objects including the OS of the central control center.
참고적으로, 기존과 같이 상기 I/O 모듈은 A/I 모듈과, A/O 모듈, D/A 모듈, D/O 모듈을 포함하여 이루어지고, 상기 컨버팅 모듈은 A/D 모듈과 D/A 모듈을 포함하여 이루어진다.For reference, as in the prior art, the I/O module includes an A/I module, an A/O module, a D/A module, and a D/O module, and the converting module includes an A/D module and a D/O module. A module is included.
이러한 상태에서, 또한 실시예에서 상기 PLC 컨트롤러는 관리자 모바일 단말기와 무선 통신하는 LTE 모듈을 더 포함한다(이러한 LTE 모듈에 대해서는 보다 상세히 후술함).In this state, also in the embodiment, the PLC controller further includes an LTE module that wirelessly communicates with the manager mobile terminal (this LTE module will be described in more detail later).
이상과 같이, 실시예에 따른 PLC 컨트롤러는 아래의 구성을 가진다.As described above, the PLC controller according to the embodiment has the following configuration.
a) PLC 자체에 전원을 공급하는 전원 모듈과;a) a power module for supplying power to the PLC itself;
b) 상기 기반설비의 전기적 아날로그 신호와 상기 센서부의 상하수도 상태 아날로그 정보를 디지털로 변환하는 A/D 모듈;b) an A/D module that converts the electrical analog signal of the infrastructure and the water and sewage status analog information of the sensor unit into digital;
c) 디지털 유닛의 디지털정보를 아날로그로 변환하는 D/A 모듈;c) D/A module for converting digital information of digital unit into analog;
d) 상기 기반설비의 전기적 디지털 신호와 상기 센서부의 상하수도 상태 디지털정보를 입력받는 D/I 모듈;d) a D/I module for receiving an electrical digital signal of the infrastructure and digital information of the water and sewage status of the sensor unit;
e) 상기 센서부의 상하수도 상태에 따른 중앙관제센터의 운전 동작 제어값을 포함한 디지털 정보를 미리 연결된 구동대상으로 출력하는 D/O 모듈;e) a D/O module for outputting digital information including a driving operation control value of the central control center according to the state of water and sewage of the sensor unit to a previously connected driving target;
f) 상기 중앙관제센터 또는 상기 현장제어반의 운전 동작 제어값을 상기 MCU를 포함한 해당되는 미리 등록된 제어대상과 통신하여 제공하는 통신 모듈;f) a communication module providing the operation operation control value of the central control center or the on-site control panel by communicating with a corresponding pre-registered control target including the MCU;
g) 상기 센서부의 상하수도 상태값이 미리 설정된 상태위험레벨인 경우, 미리 등록된 관리자 모바일 단말기로 알림하는 LTE 모듈; 및g) an LTE module for notifying a pre-registered manager mobile terminal when the water and sewage state value of the sensor unit is a preset state risk level; and
h) 상기 각 모듈을 제어하는 CPU 모듈; 을 포함한다.h) a CPU module for controlling each module; includes
부가적으로, 이와 관련하여 부연설명을 하면 다양한 환경에서 사용되는 기존의 PLC 시스템에 대해서는 여러 기능을 가진 모듈이 필요하며, 이에 따라서 PLC 제조 업체는 사용자의 요구사항을 만족하는 다양한 모듈을 제공한다. 예를 들어, 디지털 입출력 모듈, 아날로그 입출력모듈, 통신 모듈 등 여러 기능을 가진 모듈이 PLC 시스템에 사용되고, 이러한 다양한 모듈을 통해서 사용자가 원하는 시스템이 구축된다.In addition, if we explain further in this regard, modules with various functions are required for the existing PLC system used in various environments, and accordingly, PLC manufacturers provide various modules that satisfy the requirements of users. For example, a module having various functions, such as a digital input/output module, an analog input/output module, and a communication module, is used in a PLC system, and a system desired by a user is built through these various modules.
예를 들어, 특허문헌 KR101778333 Y1의 기술은 이러한 기술로서 등록받은 발명이며, 구체적으로는 PLC의 출력모듈의 동작상 결함 여부를 진단하기 위한 진단모듈을 구비하는 PLC 시스템에 관한 것이다.For example, the technology of patent document KR101778333 Y1 is an invention registered as such a technology, and specifically relates to a PLC system having a diagnostic module for diagnosing whether an output module of the PLC is defective in operation.
일실시예에 따른 전술한 LTE 모듈은 이러한 점들을 이용해서, 그 LTE 모듈로부터 LTE 기능을 제공하는 PLC를 제공하고, 이를 통해 더 나아가 관리자에 의해 쉽게 감시와 제어 등이 이루어지도록 한 것이다.The above-described LTE module according to an embodiment provides a PLC that provides an LTE function from the LTE module by using these points, and furthermore, through this, monitoring and control can be easily performed by an administrator.
따라서, 이를 통해 일실시예에 따른 PLC 컨트롤러는 상기 LTE 모듈을 통해 자체적으로 (무선)인터넷연결부가 구비되어, 실시간으로 감지되는 상하수도 위험상태 데이터를 미리 등록된 관리자 모바일 단말기로 직접 송출할 수 있는 기능을 수행한다.Accordingly, through this, the PLC controller according to an embodiment is provided with a (wireless) internet connection by itself through the LTE module, so that the dangerous state data of water and sewage detected in real time can be directly transmitted to the pre-registered manager mobile terminal. carry out
한편, 이러한 경우 상기 시스템은 상기 LTE 모듈을 통해 관리자 모바일 단말기와 연결할 경우, CPU 모듈에서 관리자 모바일 단말기와의 실시간 연결을 확보함으로써, 상하수도 위험상태시에 즉시 알림을 할 수 있도록 한다.On the other hand, in this case, when the system is connected to the manager mobile terminal through the LTE module, the CPU module secures a real-time connection with the manager mobile terminal, so that an immediate notification can be made in case of a dangerous state of water and sewage.
이를 위해, 상기 시스템은 상기 CPU 모듈이 상기 관리자 모바일 단말기로 알림을 할 시, 관리자 모바일 단말기가 무선통신망으로 연결된 경우 해당하는 무선통신망의 개별 IP 주소로 연결하고, 무선통신망이 연결되지 않은 경우 이동통신데이터 망의 단말기 식별 가입자 번호로 연결하여 실시간 연결확보해서 알람을 한다.To this end, when the CPU module notifies the manager mobile terminal, when the manager mobile terminal is connected through a wireless communication network, the system connects to an individual IP address of the corresponding wireless communication network, and when the wireless communication network is not connected, the mobile communication It connects to the terminal identification subscriber number of the data network to secure a real-time connection and alarm.
부가적으로, 예를 들어 일실시예에 따른 시스템은 상기 PLC 컨트롤러의 입력모듈 중에서 A/I 모듈이 센서부 예를 들어, 미세먼지감지센서로부터 주변의 미세 먼지 아날로그 정보를 입력받는다. 그리고, D/I 모듈이 센서부 예를 들어, 주변의 태양광 디지털정보를 입력받는다.Additionally, for example, in the system according to an embodiment, an A/I module among the input modules of the PLC controller receives analog information about fine dust around a sensor unit, for example, a fine dust detection sensor. Then, the D/I module receives the sensor unit, for example, solar digital information in the vicinity.
이러한 경우, 상기 입력모듈은 PLC의 입력모듈로서 I/O카드를 포함하는 것으로 정의한다.In this case, the input module is defined as including an I/O card as an input module of the PLC.
그리고, 상기 PLC 컨트롤러의 출력모듈은 상기 입력모듈을 통해 감지신호 등이 입력될 경우, CPU 모듈을 통해 구동대상으로 예를 들어, 미세 먼지 저감 장치 등으로 제어신호를 전달한다.And, when a detection signal is inputted through the input module, the output module of the PLC controller transmits a control signal to a driving target through the CPU module, for example, to a fine dust reduction device.
다른 한편으로, 이에 더하여 이러한 시스템은 상기 PLC 컨트롤러의 LTE 모듈이 전술한 바에 더해, 상기한 PLC의 I/O 카드 등으로부터 수집된 데이터와 관련하여 음성 알람을 한다.On the other hand, in addition to this, in this system, the LTE module of the PLC controller makes a voice alarm in relation to the data collected from the I/O card of the PLC, etc. in addition to the above.
이를 위해, 상기 LTE 모듈은 자체 TTS엔진을 구비하여 상기한 주변 환경정보 레벨이 미리 설정된 운전위험레벨인 경우, 음성 알람을 한다.To this end, the LTE module has its own TTS engine, and when the level of the surrounding environment information is a preset driving risk level, a voice alarm is issued.
이러한 경우, 상기 음성멘트는 예를 들어, LTE 모듈 자체에 구비된 플래시 음성메모리에 등록함으로써 이루어진다.In this case, the voice comment is made by, for example, registering in a flash voice memory provided in the LTE module itself.
그래서, 이를 통해 PLC의 I/O 카드 등으로부터 수집된 데이터 등과 관련하여 음성 알람을 한다.So, through this, a voice alarm is made in relation to data collected from an I/O card of the PLC, etc.
이와 관련하여, 추가적으로 상기 LTE 모듈은 관리자 음성을 포함한 외부 음성에 대해 노이즈 캔슬링 기능을 수행한다.In this regard, the LTE module additionally performs a noise canceling function for an external voice including the manager's voice.
구체적으로, 상기 LTE 모듈은 비전감시와 관련된 관리자 등의 음성을 입력받아 노이즈 캔슬링을 수행하고 오디오 출력을 한다.Specifically, the LTE module receives the voice of an administrator related to vision monitoring, performs noise cancellation, and outputs audio.
예를 들어, 이러한 경우 외부 오디오 입력을 받아 노이즈 캔슬링을 수행하고 LTE 모듈 자체에 구비된 오디오 앰프를 통해 오디오 출력을 한다.For example, in this case, noise cancellation is performed by receiving an external audio input, and audio output is performed through an audio amplifier provided in the LTE module itself.
또 다른 한편으로, 전술한 일실시예에 따른 시스템은 위의 PLC 컨트롤러와는 다른 형태로서 아래의 구성으로 된다.On the other hand, the system according to the above-described embodiment is different from the above PLC controller and has the following configuration.
즉, 이러한 시스템은 전술한 PLC와는 다른 형태로서, 외부 입출력 포트, 즉, 디지털 입력(Digital Input), 디지털 출력(Digital Output), 아날로그 입력(Analoge Input:4-20mA입력 등) 통신포트를 RS-485 통신포트, RS-232 통신포트, 랜(LAN)포트, 오디오포트 등을 카메라부에서 직접 처리할 수 있는 시스템을 제공할 수 있도록 한다.That is, this system is different from the above-described PLC, and external input/output ports, that is, digital input, digital output, analog input (Analoge Input: 4-20mA input, etc.) communication ports are RS- 485 communication port, RS-232 communication port, LAN port, audio port, etc. to provide a system that can directly process the camera unit.
이를 위해, 이러한 시스템은 외부 계측 기기로부터 각각 아날로그 데이터와 디지털 데이터를 수신하는 데이터 수집부와, 이에 따른 상용의 CPU를 포함한다.To this end, such a system includes a data collection unit that receives analog data and digital data, respectively, from an external measurement device, and a commercial CPU accordingly.
상기 데이터 수집부는 아날로그 센서의 신호를 디지털 신호로 변환하는 ADC 컨버터와, 뷰어소프트웨어와 연동되어 전기적 입력을 받거나 출력으로 외부 센서를 제어하기 위한 GPIO 포트와, 상기 외부 계측기기로부터 디지털 데이터를 수신하기 위한 RS485 포트와, 상기 데이터 처리부와의 통신과 상기 뷰어소프트웨어와의 통신을 위한 RS232 포트 및 상기 ADC 컨버터, GPIO 포트, RS485 포트, RS232 포트와 연결되어 데이터를 처리하고 뷰어소프트웨어의 제어 명령을 수행하는 MCU를 포함할 수 있다.The data collection unit includes an ADC converter that converts a signal of an analog sensor into a digital signal, a GPIO port for receiving an electrical input or output to control an external sensor by interworking with viewer software, and a method for receiving digital data from the external measuring device An RS485 port, an RS232 port for communication with the data processing unit and communication with the viewer software, and an MCU connected to the ADC converter, GPIO port, RS485 port, and RS232 port to process data and perform control commands of the viewer software may include
따라서, 이를 통해 외부 입출력 포트, 즉, 디지털 입력, 디지털 출력, 아날로그 입력, RS-485 통신포트, RS232 통신포트, 랜포트, 오디오 포트 등을 시스템에서 직접 처리하도록 하여 NVR회사마다 다른 사양을 협의할 필요가 없는 효과가 있다.Therefore, through this, the external input/output port, i.e., digital input, digital output, analog input, RS-485 communication port, RS232 communication port, LAN port, audio port, etc. can be directly processed by the system, so that different specifications can be negotiated for each NVR company. It has no effect.
또한, 외부 계측 기기를 제어하기 위한 데이터출력(D/O(data out)), 접점 출력, 알람 등을 제어하기 위한 포트, 데이터 입력(D/I(data in)), 아날로그 입력(Analog Input:4-20mA입력 등)은 MCU에서 전처리하여 CPU에 전달하고, RS-485 통신 포트, 랜포트, 오디오 포트 등을 두고, 다양한 포트에서 받아들인 외부 입력 데이터를 카In addition, data output (D/O (data out)) for controlling external measuring devices, contact output, port for controlling alarm, etc., data input (D/I (data in)), analog input (Analog Input: 4-20mA input, etc.) is pre-processed by MCU and delivered to CPU, RS-485 communication port, LAN port, audio port, etc.
메라에서 직접 데이터 트렌드화 하여 관리자가 쉽게 유량과, 압력, 수위, 수질과 같은 데이터를 파악할 수 있으며, 이를 통하여 외부 시스템을 효율적으로 제어하는 방법을 제공하는 효과가 있다.By trending data directly from Mera, administrators can easily grasp data such as flow rate, pressure, water level, and water quality, which has the effect of providing a method to efficiently control external systems.
그리고, 이러한 경우 상기한 시스템은 외부 입출력 포트에 입력된 데이터를 자체 메모리에 직접적으로 데이터베이스화하여 이를 모니터에 영상으로 표출시 그래프 형식의 데이터 트렌드가 함께 표출되도록 한다.And, in this case, the above-described system directly database data input to the external input/output port in its own memory, and displays the data trend in graph form when displaying it as an image on the monitor.
이를 위해, 상기 시스템은 수집된 영상과 함께 처리된 주변 환경정보의 아날로그 또는 디지털 데이터는 SD에 데이터베이스로 저장되어 영상과 함께 데이터베이스가 문자 또는 그래프 형식의 데이터 트렌드로 중앙관제센터의 화면에 표시될 수 있다.To this end, the system stores the analog or digital data of the surrounding environment information processed together with the collected image as a database in SD, and the database with the image can be displayed on the screen of the central control center as a data trend in text or graph format. there is.
화면에 표시되는 내용은 주변 환경의 각종 상황에 대한 데이터베이The content displayed on the screen is a database of various situations in the surrounding environment.
스가 영상과 함께 표출되며, 영상에 문자가 표출 될 시 글자의 문구, 문구 값의 단위, 문구의 화면 상 위치, 폰트, 색상 등으로 설정될 수 있다. 그리고, 경고 시, 표출 문구는 지정된 색으로 깜빡 깜빡거리거나, 글자는 지정된 색으로 가만히 있고 화면 전체가 컬러 또는 흑백의 지정된 색으로 깜빡 깜빡거리는 플리커링(flickering)의 경우 중 어느 하나로 표시된다. 또한, 영상에 각종 상황에 대한 데이터베이스를 그래프 형식의 데이터 트렌드로 표출 할 시 데이터의 문구, 단위, 색깔을 관리자가 설정한대로 표출할 수 있다. 또는 영상에 표출된 트렌드의 바를 원하는 시간에 이동하면 이동된 바가 위치한 트렌드의 시간의 값이 나타나고, 데이터의 확인 후 이동바 위에 위치한 데이터 값은 자동으로 사라진다. 그리고, 경고 시, 표출 문구는 지정된 색으로 깜빡 깜빡거리거나, 글자는 지정된 색으로 가만히 있고 화면 전체가 컬러 또는 흑백의 지정된 색으로 깜빡 깜빡거리는 플리커링의 경우 중 어느 하나로 표시되는 기능을 포함한다.Suga is displayed together with the video, and when text is displayed on the video, it can be set as the text of the text, the unit of the text value, the location of the text on the screen, font, color, etc. And, at the time of warning, the expression text is displayed in any one of the cases of flickering in a specified color or flickering in which the text is still in a specified color and the entire screen flickers in a specified color or black and white. In addition, when displaying a database for various situations in a graph-type data trend, the text, unit, and color of the data can be displayed as set by the administrator. Alternatively, if the trend bar displayed on the image is moved at a desired time, the time value of the trend where the moved bar is located is displayed, and the data value located on the moving bar automatically disappears after confirming the data. And, at the time of warning, the expression text includes a function to be displayed in either case of flickering in a specified color, or text is still in a specified color and the entire screen flickers in a specified color or black and white.
상기 영상에 데이터 문자 및 그래프 형식의 데이터 트렌트를 표출 시 표출 방법을 설정하는 프로그램의 방법은 제너럴, 데이터아날로그(Data Analog), 데이터 디지털 입력, 디지털 출력으로 구성된다.A method of a program for setting an expression method when expressing data trends in the form of data characters and graphs on the image consists of general, data analog, data digital input, and digital output.
제너럴에서 일반적인 설정을 하며, 카메라부는 연결된 카메라부의 종류를 선택하는 것이고, 주소(Address)는 선택된 카메라부의 네트워크 주소, 프로토콜(Protocol)은 LS산전, 모드버스(Modbus), 프로피버스(Profibus) 등 카메라부(50)와 맞는 것으로 선택할 수 있으며, 통신(Communication)은 RS-232, RS485, 랜 통신 중 선택을 할 수 있으며 통신포트(Comm. Port)는 통신포트(Common Port) 단자 선택(COM1, COM2, ... , COM10), IP주소는 카메라의 IP 주소, 히스토리(History)의 트렌드(Trend)는 Live 또는 저장된 이전 데이터를 검색할 히스토리(History) 중 선택, 히스토리는 이전 데이터 검색의 날짜 선택, 주기(Period)는 검색 날짜 기간을General settings are made in general, and the camera unit selects the type of the connected camera unit, the Address is the network address of the selected camera unit, and the Protocol is a camera such as LSIS, Modbus, Profibus, etc. You can select the one that matches the part 50, Communication can select one of RS-232, RS485, and LAN communication, and the Communication Port (Comm. Port) selects a communication port (COM1, COM2) , ... , COM10), IP address is the IP address of the camera, History Trend is Live or saved previous data is selected from History, History is selected from the date of previous data search, Period is the search date period.
선택할 수 있다.You can choose.
Analog에서는, 인에이블(Enable)은 표출 데이터의 사용 유무, 스트링(String)은 데이터 명칭, 메저(Measure)는 데이터 단위, X축은 화면에 문자를 표시할 X축의 좌표, Y축은 화면에 문자를 표시할 Y축의 좌표, 사이즈(Size)는 문자의 크기, 컬러(Color)는 문자의 색깔, 디스플레이상태(Display Status)는 Text 또는 트렌드(Trend) 중 선택, 최소범위(Range Min)은 데이터의 최소 수치, 최대범위(Range Max)는 데이터의 최고 수치, 디스플레이시간(Display Time)은 트렌드 표출 시 트렌드 좌표 중 시간 영역 X좌표를 설정한 시간으로 표출한다.In Analog, Enable means whether the displayed data is used or not, String is the name of the data, Measure is the data unit, X-axis is the coordinate of the X-axis to display text on the screen, Y-axis displays the text on the screen The coordinates of the Y axis to be used, Size is the size of the character, Color is the color of the character, Display Status is either Text or Trend, and the Minimum Range is the minimum value of data. , Range Max is the highest value of data, and Display Time is the time when the X coordinate of the time domain is set among trend coordinates when displaying a trend.
디지털 입력의 인에이블은 표출 데이터의 사용 유무, 스트링은 데이터 명칭, X축은 화면에 문자를 표시할 X축의 좌표, Y축은 화면에 문자를 표시할 Y축의 좌표, 사이즈는 문자의 크기, 컬러는 문자의 색깔, 이펙트(Effect)는 경보의 방법(글자의 빠른 깜빡임, 느린 깜빡임, 화면 깜빡임)을 설정하고, 디스플레이상태(Display Status)는 Text 또는 트렌드 중 선택, 디스플레이시간은 트렌드 표출 시 트렌드 좌표 중 시간 영역 X좌표를 설정한 시간으로 표출한다.Enabling of digital input indicates whether or not display data is used, string is data name, X-axis is X-axis coordinate to display text on the screen, Y-axis is Y-axis coordinate to display text on screen, size is text size, color is text Color and Effect set the alarm method (character fast blinking, slow blinking, screen blinking), Display Status, Text or Trend, and Display Time, time among trend coordinates when displaying a trend. The area X-coordinate is expressed as the set time.
디지털 출력의 인에이블은 표출 데이터의 사용 유무, 스트링은 데이터 명칭, X축은 화면에 문자를 표시할 X축의 좌표, Y축은 화면에 문자를 표시할 Y축의 좌표, 사이즈는 문자의 크기, 컬러는 문자의 색깔, 이펙트는 경보의 방법을 설정하고, 제어상태(Control Status)는 제어시스템의 제어를 온/오프 중 선택하는 프로그램을 관리자 임의로 설정할 수 있는 기능이다.Enabling of digital output indicates whether the displayed data is used or not, string is the name of the data, X-axis is the X-axis coordinate to display text on the screen, Y-axis is the Y-axis coordinate to display text on the screen, size is the size of the text, and color is the text The color and effect of , set the alarm method, and the Control Status is a function that allows the administrator to arbitrarily set the program that selects on/off control of the control system.
한편, 부가적으로 이러한 시스템에 적용된 객체인식은 예를 들어 아래의 구성으로 이루어진다.On the other hand, additionally, object recognition applied to such a system consists of, for example, the following configuration.
이러한 객체인식은 RPN(Region Proposal Network)을 이용하여 객체영역을 특정하고, 특정된 객체영역에서 객체인식 알고리즘을 이용하여 영상에 포함된 객체를 인식한 결과를 저장한다. 즉, 객체를 특정하는 RPN과 R-CNN알고리즘을 컨볼루션하여 객체를 인식한다. 그리고 나서, 상기 인식 결과 즉, 객체의 집적영상을 3차원 입체영상으로 표시한다. Such object recognition specifies an object area using a Region Proposal Network (RPN), and stores the result of recognizing an object included in an image by using an object recognition algorithm in the specified object area. That is, the object is recognized by convolving the RPN and R-CNN algorithm that specifies the object. Then, the recognition result, that is, the integrated image of the object is displayed as a 3D stereoscopic image.
예를 들어, 이때 상기 영상은 각종 단말기 또는 정보처리장치 등으로부터 제공받은 영상 등으로 된다.For example, in this case, the image may be an image provided by various terminals or information processing devices.
다른 한편으로, 이와 다른 실시예에 따른 객체인식은 영상에서 인식하고자 하는 물체에 해당하는 영역을 RPN을 이용하여 지정하고, 지정한 영역내의 물체를 학습된 R-CNN 알고리즘을 객체데이터베이스에 저장된 객체특성을 비교하여 영상속의 객체로 특정한다.On the other hand, in object recognition according to another embodiment, the region corresponding to the object to be recognized in the image is specified using RPN, and the R-CNN algorithm learned for the object within the specified region is applied to the object characteristics stored in the object database. By comparison, it is specified as an object in the image.
구체적으로는, 영상에 포함되어 있는 물체에 해당하는 영역을 특정하기 위하여 RPN를 이용하여 객체영역을 추출한다.Specifically, in order to specify a region corresponding to an object included in an image, an object region is extracted using RPN.
다음, 상기 추출된 객체영역에 있는 물체를 하나의 객체로 인식하기 위하여 딥러닝 알고리즘인 R-CNN알고리즘을 이용하여 학습하여 저장된 객체데이터베이스의 여러 객체들과 비교한다.Next, in order to recognize the object in the extracted object area as one object, it is learned using R-CNN algorithm, which is a deep learning algorithm, and compared with several objects in the stored object database.
그래서, 상기 비교 결과 영상 속의 물체가 객체데이터베이스의 객체로 인식이 되면 인식된 객체의 명칭 결과를 객체데이터베이스에 저장하여 학습 결과를 업그레이드한다.Therefore, if the object in the image is recognized as an object of the object database as a result of the comparison, the result of the name of the recognized object is stored in the object database to upgrade the learning result.
즉, 상기 객체인식은 객체영역을 특정하는 RPN과 특정된 객체를 인식하는 알고리즘인 Fast R-CNN을 하나의 네트워크로 컨볼루션 결합을 통해 보다 빠르게 객체인식을 위해 영상내의 물체와 객체데이터베이스에 저장된 다양한 정보와 비교함으로써 발생하는 많은 연산에 따라 소요되는 시간을 줄인다. 그리고, 이에 따라 더 나아가 시스템 성능이 낮은 환경보다 훨씬 빠르게 객체를 인식할 수 있다.That is, in the object recognition, the object in the image and the object stored in the object database are various objects stored in the object database for faster object recognition through convolutional combination of the RPN for specifying the object area and Fast R-CNN, which is an algorithm for recognizing the specified object, into one network. It reduces the time required for many operations that occur by comparing with information. And, according to this, it is possible to further recognize an object much faster than an environment in which the system performance is low.
그래서, 이와 같이 종래 시스템의 성능이 낮은 환경에서 3차원 영상 이미지를 구현하기 위하여 많은 부하가 발생하고, 객체 인식을 많은 시간이 소요되는 문제점을 해결하기 위하여 탐색하고자 하는 물체에 대한 객체 인식을 별도의 딥러닝알고리즘에 의해 사전 훈련 된 신경망을 사용하여 수행 한 FAST R-CNN 알고리즘을 이용한다.Therefore, in order to implement a three-dimensional image image in an environment where the performance of the conventional system is low, a lot of load is generated and object recognition for an object to be searched is separately performed in order to solve the problem that object recognition takes a lot of time. We use the FAST R-CNN algorithm performed using a neural network pre-trained by a deep learning algorithm.
따라서, 이를 통해 시스템 성능이 낮은 환경에서도 3차원 영상을 쉽고, 빠르게 실시간으로 구현할 수 있는 효과가 있다.Accordingly, there is an effect that a 3D image can be easily and quickly implemented in real time even in an environment with low system performance.
110 : RGB-D카메라 120 : 중앙제어반
130 : 디스플레이 장치 121 : I/O 모듈부
122 : DSP부 123 : 제어부
124 : 저장부110: RGB-D camera 120: central control panel
130: display device 121: I/O module unit
122: DSP unit 123: control unit
124: storage
Claims (10)
상기 객체의 영역을 분할하기 전에 미리 다수의 상이한 RGB영상만으로부터의 2D객체 영역분할을 위한 딥러닝 학습을 통해 객체 영역에 관한 딥러닝 파라미터를 산출하여 객체2D영역분할 딥러닝 모델을 구축하는 제 1 단계;
RGB-D카메라로부터의 RGB영상으로부터 객체2D영역분할을 상기 객체2D영역분할 딥러닝 모델에 의해 수행하는 제 2 단계;
상기 객체2D영역분할 결과와, 상기 RGB-D카메라로부터의 깊이(Depth)데이터 간에 논리적 AND를 수행함으로써, 객체의 깊이 정보를 획득하는 제 3 단계; 및
상기 객체의 깊이 정보에 원근변환을 적용하여 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB 정보를 획득할 수 있도록 하는 제 4 단계; 를 포함하고,
상기 제 1 단계는,
상기 객체2D영역분할 딥러닝 모델이 미리 다수의 상이한 RGB영상으로부터의 2D객체 영역분할을 위한 마스크 R-CNN형 딥러닝 학습을 통해 2D객체 영역별로 대표 임계값을 추출하여 이진 마스크를 생성함으로써, 마스크 R-CNN 기반의 객체2D영역분할 딥러닝 모델이며,
상기 제 1 단계는,
인식하고자 하는 객체에 대해 RGB-D 카메라를 통해 RGB 영상만을 수집하는 제 1-1 단계;
상기 RGB 영상 내의 객체의 영역을 미리 정의하여 표시하고 그 객체의 종류를 지정함으로써, 학습용 데이터를 만드는 제 1-2 단계;
상기 학습용 데이터에 미리 설정된 객체분할 딥러닝 모델을 적용해서 객체의 영역만을 분할하는 제 1-3 단계;
상기 분할 결과를 통해 나온 데이터셋을 미리 설정된 2D객체 영역분할을 위한 딥러닝 모델에 적용해서 학습하는 제 1-4 단계;
상기 학습 결과로부터 객체 영역에 관한 딥러닝 파라미터를 산출하는 제 1-5 단계; 및
상기 객체 영역에 관한 딥러닝 파라미터로부터 객체2D영역분할 딥러닝 모델을 구축하는 제 1-6 단계; 를 포함하며,
상기 제 4 단계는,
상기 원근변환을 할 경우, RGB-D 데이터의 깊이 데이터는 영상평면(U,V) 내의 좌표(u,v)와 그 영상좌표(u,v)와 깊이값(d)를 제공해서, 해당 정보로부터 카메라의 원점(0,0,0)를 기준으로 하는 실제 좌표(x,y,z)를 얻고,
실제 좌표를 얻을 경우, 원점(0,0,0)에서 (u,v)까지 거리를 l이라고 하고, f를 초점거리, d를 깊이값이라 하여 표현하고, RGB-D 데이터가 제공하는 (u,v) 및 d정보로부터 카메라를 기준으로 한 좌표계에서(x,y,z)를 구하고,
해당하는 정보로부터 객체의 영역인 (u,v)과 d의 집합으로부터의 실제 객체 영역의 (x,y,z)좌표들의 집합을 구하며,
상기 집합에 의해 객체가 존재하는 영역만을 3D(x,y,z)로 구분해서, 객체의 3D xyz 데이터와 해당 객체의 컬러 정보를 표현하는 것; 을 특징으로 하는 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 방법.
In the case of robot vision monitoring, the method for performing robot vision monitoring by recognizing an object in three dimensions from vision data,
The first to construct an object 2D region division deep learning model by calculating deep learning parameters for the object region through deep learning learning for 2D object region division from only a number of different RGB images in advance before dividing the object region step;
a second step of performing object 2D region division from the RGB image from the RGB-D camera by the object 2D region division deep learning model;
a third step of obtaining depth information of an object by performing a logical AND between the object 2D region division result and depth data from the RGB-D camera; and
a fourth step of obtaining xyz and RGB information of the object by performing a 3D object region division of the object by applying perspective transformation to the depth information of the object; including,
The first step is
The object 2D region division deep learning model generates a binary mask by extracting a representative threshold for each 2D object region through R-CNN type deep learning learning in advance, a mask for 2D object region division from a number of different RGB images, It is an object 2D region segmentation deep learning model based on R-CNN,
The first step is
Step 1-1 of collecting only RGB images of an object to be recognized through an RGB-D camera;
a first 1-2 step of creating learning data by defining and displaying an area of an object in the RGB image in advance and designating a type of the object;
Steps 1-3 of dividing only an object region by applying a preset object division deep learning model to the training data;
Steps 1-4 of learning by applying the dataset obtained through the division result to a preset deep learning model for 2D object region division;
Steps 1-5 of calculating a deep learning parameter for an object region from the learning result; and
Steps 1-6 of constructing an object 2D region division deep learning model from the deep learning parameters related to the object region; includes,
The fourth step is
When the perspective transformation is performed, the depth data of RGB-D data provides the coordinates (u,v) in the image plane (U,V), the image coordinates (u,v), and the depth value ( d ). to get the actual coordinates ( x,y,z ) based on the origin (0,0,0) of the camera,
When real coordinates are obtained, the distance from the origin (0,0,0) to ( u,v ) is expressed as l , f is the focal length, and d is the depth value. Obtain (x, y, z) in the coordinate system based on the camera from , v) and d information,
Obtain the set of (x,y,z) coordinates of the real object area from the set of (u,v) and d, which are the area of the object from the corresponding information,
expressing 3D xyz data of the object and color information of the object by dividing only the region where the object exists by the set into 3D (x, y, z); A 3D object region segmentation method using RGB-D data and deep learning, characterized by
상기 제 3 단계는
다수의 상이한 카메라 (성능)사양별로 대응하는 해상도 정보를 매칭한 매칭정보를 미리 설정 등록하는 제 3-1 단계;
상기 RGB-D카메라로부터의 깊이데이터를 상기 매칭정보에 따라 현재 사용중인 카메라 (성능)사양에 대응하는 해상도로서 추출하는 제 3-2 단계; 및
상기 객체2D영역분할 결과와, 상기 추출된 RGB-D카메라로부터의 깊이데이터 간에 논리적 AND를 수행함으로써, 객체의 깊이 정보를 획득하는 제 3-3 단계; 를 포함하는 것을 특징으로 하는 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 방법.The method according to claim 1,
The third step is
a 3-1 step of presetting and registering matching information that matches resolution information corresponding to a plurality of different camera (performance) specifications;
a 3-2 step of extracting the depth data from the RGB-D camera as a resolution corresponding to the currently used camera (performance) specification according to the matching information; and
a step 3-3 of obtaining depth information of an object by performing a logical AND between the object 2D region division result and the extracted depth data from the RGB-D camera; 3D object region segmentation method using RGB-D data and deep learning, comprising:
인식하고자 하는 객체에 대한 RGB영상과 깊이데이터를 수집하는 RGB-D카메라;
상기 RGB영상과 깊이데이터만으로 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB 정보를 획득할 수 있도록 하는 중앙제어반; 및
상기 객체의 3D객체영역분할 결과를 제공하는 디스플레이 장치; 를 포함하고 있으며,
상기 중앙제어반은
a) 상기 객체의 영역을 분할하기 전에 미리 다수의 상이한 RGB영상만으로부터의 2D객체 영역분할을 위한 딥러닝 학습을 통해 객체 영역에 관한 딥러닝 파라미터를 산출하여 객체2D영역분할 딥러닝 모델을 구축하고,
b) 상기 RGB-D카메라로부터의 RGB영상으로부터 객체2D영역분할을 상기 객체2D영역분할 딥러닝 모델에 의해 수행하고,
c) 상기 객체2D영역분할 결과와, 상기 RGB-D카메라로부터의 깊이(Depth)데이터 간에 논리적 AND를 수행함으로써, 객체의 깊이 정보를 획득하며,
d) 상기 객체의 깊이 정보에 원근변환을 적용하여 객체의 3D객체영역분할을 수행함으로써, 객체의 xyz와 RGB 정보를 획득할 수 있도록 하고,
상기 객체2D영역분할 딥러닝 모델은
미리 다수의 상이한 RGB영상으로부터의 2D객체 영역분할을 위한 마스크 R-CNN형 딥러닝 학습을 통해 2D객체 영역별로 대표 임계값을 추출하여 이진 마스크를 생성함으로써, 마스크 R-CNN 기반의 객체2D영역분할 딥러닝 모델이며,
상기 객체2D영역분할 딥러닝 모델을 구축하는 것(a))은
a-1) 인식하고자 하는 객체에 대해 RGB-D 카메라를 통해 RGB 영상을 수집하고,
a-2) 상기 RGB 영상 내의 객체의 영역을 미리 정의하여 표시하고 그 객체의 종류를 지정함으로써, 학습용 데이터를 만들고,
a-3) 상기 학습용 데이터에 미리 설정된 객체분할 딥러닝 모델을 적용해서 객체의 영역만을 분할하며,
a-4) 상기 분할 결과를 통해 나온 데이터셋을 미리 설정된 2D객체 영역분할을 위한 딥러닝 모델에 적용해서 학습하고,
a-5) 상기 학습 결과로부터 객체 영역에 관한 딥러닝 파라미터를 산출하고,
a-6) 상기 객체 영역에 관한 딥러닝 파라미터로부터 객체2D영역분할 딥러닝 모델을 구축하며,
상기 원근변환은
RGB-D 데이터의 깊이 데이터에서 영상평면 (U,V) 내의 좌표 (u,v)와 그 영상좌표(u,v)와 깊이값(d)를 제공해서, 해당 정보로부터 카메라의 원점(0,0,0)를 기준으로 하는 실제 좌표 (x,y,z)를 얻고,
실제 좌표를 얻을 경우, 원점(0,0,0)에서 (u,v)까지 거리를 l이라고 하고, f를 초점거리, d를 깊이값이라 하여 표현하고, RGB-D 데이터가 제공하는 (u,v) 및 d정보로부터 카메라를 기준으로 한 좌표계에서(x,y,z)를 구하고,
해당하는 정보로부터 객체의 영역인 (u,v)과 d의 집합으로부터의 실제 객체 영역의 (x,y,z)좌표들의 집합을 구하며,
상기 집합에 의해 객체가 존재하는 영역만을 3D(x,y,z)로 구분해서, 객체의 3D xyz 데이터와 해당 객체의 컬러 정보를 표현하는 것; 을 특징으로 하는 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 시스템.
In the case of robot vision monitoring, the system for performing robot vision monitoring by recognizing objects in three dimensions from vision data,
RGB-D camera that collects RGB image and depth data of object to be recognized;
a central control panel for obtaining xyz and RGB information of an object by performing 3D object region division of an object only with the RGB image and depth data; and
a display device that provides a result of dividing the 3D object region of the object; contains,
The central control panel
a) Before dividing the area of the object, the deep learning parameters for the object area are calculated through deep learning for 2D object area segmentation from only a number of different RGB images in advance to construct an object 2D area segmentation deep learning model, ,
b) performing object 2D region division from the RGB image from the RGB-D camera by the object 2D region division deep learning model;
c) obtaining depth information of an object by performing a logical AND between the object 2D region division result and depth data from the RGB-D camera;
d) By applying perspective transformation to the depth information of the object to perform 3D object region segmentation of the object, xyz and RGB information of the object can be obtained,
The object 2D region segmentation deep learning model is
Mask R-CNN-type deep learning learning for 2D object region segmentation from multiple different RGB images in advance to extract representative threshold values for each 2D object region and generate a binary mask, mask R-CNN-based object 2D region segmentation It is a deep learning model,
Building the object 2D region segmentation deep learning model (a))
a-1) Collect RGB images through RGB-D camera for the object to be recognized,
a-2) Create learning data by defining and displaying the area of an object in the RGB image in advance and specifying the type of the object;
a-3) Applying a preset object division deep learning model to the training data to divide only the area of the object,
a-4) learning by applying the dataset obtained through the division result to a preset deep learning model for 2D object region division,
a-5) Calculating a deep learning parameter for an object area from the learning result,
a-6) constructing an object 2D region division deep learning model from the deep learning parameters related to the object region,
The perspective transformation is
From the depth data of RGB-D data, the coordinates (u,v) in the image plane (U,V), the image coordinates (u,v), and the depth value ( d ) are provided, and the origin (0, get real coordinates ( x,y,z ) relative to 0,0),
When real coordinates are obtained, the distance from the origin (0,0,0) to ( u,v ) is expressed as l , f is the focal length, and d is the depth value. Obtain (x, y, z) in the coordinate system based on the camera from , v) and d information,
Obtain the set of (x,y,z) coordinates of the real object area from the set of (u,v) and d, which are the area of the object from the corresponding information,
expressing 3D xyz data of the object and color information of the object by dividing only the region where the object exists by the set into 3D (x, y, z); A 3D object region segmentation system using RGB-D data and deep learning, characterized by
상기 객체의 깊이 정보를 획득하는 것(c))은
c-1) 다수의 상이한 카메라 (성능)사양별로 대응하는 해상도 정보를 매칭한 매칭정보를 미리 설정 등록하고,
c-2) 상기 RGB-D카메라로부터의 깊이데이터를 상기 매칭정보에 따라 현재 사용중인 카메라 (성능)사양에 대응하는 해상도로서 추출하고,
c-3) 상기 객체2D영역분할 결과와, 상기 추출된 RGB-D카메라로부터의 깊이데이터 간에 논리적 AND를 수행함으로써, 객체의 깊이 정보를 획득하는 것; 을 특징으로 하는 RGB-D 데이터와 딥러닝을 이용한 3D객체영역분할 시스템.7. The method of claim 6,
Acquiring the depth information of the object (c))
c-1) preset and register matching information that matches resolution information corresponding to a number of different camera (performance) specifications;
c-2) extracting the depth data from the RGB-D camera as a resolution corresponding to the currently used camera (performance) specification according to the matching information;
c-3) obtaining depth information of an object by performing a logical AND between the object 2D region segmentation result and the extracted depth data from the RGB-D camera; A 3D object region segmentation system using RGB-D data and deep learning, characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200054839A KR102366396B1 (en) | 2020-05-08 | 2020-05-08 | RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200054839A KR102366396B1 (en) | 2020-05-08 | 2020-05-08 | RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210136502A KR20210136502A (en) | 2021-11-17 |
KR102366396B1 true KR102366396B1 (en) | 2022-02-22 |
Family
ID=78702922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200054839A KR102366396B1 (en) | 2020-05-08 | 2020-05-08 | RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102366396B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102630183B1 (en) * | 2021-12-21 | 2024-01-25 | 동아대학교 산학협력단 | Generating apparatus and method of image data for fire detection training, and learning apparatus and method using the same |
KR20230173954A (en) | 2022-06-20 | 2023-12-27 | 주식회사 현대케피코 | Deep learning based button recognition apparatus and method |
-
2020
- 2020-05-08 KR KR1020200054839A patent/KR102366396B1/en active IP Right Grant
Non-Patent Citations (3)
Title |
---|
Fusheng Zha 등, Semantic 3D Reconstruction for Robotic Manipulators with an Eye-In-Hand Vision System. Applied Sciences.(2020.02.10.)* |
michael Danielczuk 등, Segmenting Unknown 3D Objects from Real Depth Images using Mask R-CNN Trained on Synthetic Data, arXiv:1809.05825v2.(2019.03.03.) |
박서희 등, RGB-D 모델을 이용한 강건한 객체 탐지 및 추적 방법, JICS.(2017.08.) |
Also Published As
Publication number | Publication date |
---|---|
KR20210136502A (en) | 2021-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106682665B (en) | Seven-segment type digital display instrument number identification method based on computer vision | |
WO2020228326A1 (en) | Visual three-dimensional scanning modeling method, system and device, and storage medium | |
CN117095005B (en) | Plastic master batch quality inspection method and system based on machine vision | |
KR102366396B1 (en) | RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System | |
CN112489143A (en) | Color identification method, device, equipment and storage medium | |
US11302099B2 (en) | Method and device for recognizing states of electrical devices | |
CN112070053B (en) | Background image self-updating method, device, equipment and storage medium | |
CN115331002A (en) | Method for realizing remote processing of heating power station fault based on AR glasses | |
CN108900895B (en) | Method and device for shielding target area of video stream | |
CN102682282B (en) | Online model identification instrument based on DaVinci framework and embedded type image detection technology | |
CN116883880B (en) | Crane identification method and device based on AR technology and electronic equipment | |
US10789472B1 (en) | Multiple image processing and sensor targeting for object detection | |
CN113283273B (en) | Method and system for detecting front obstacle in real time based on vision technology | |
KR100543706B1 (en) | Vision-based humanbeing detection method and apparatus | |
CN110136104B (en) | Image processing method, system and medium based on unmanned aerial vehicle ground station | |
CN111898525A (en) | Smoke recognition model construction method, smoke detection method and smoke detection device | |
JPH11306325A (en) | Method and device for object detection | |
CN113807244B (en) | Cabinet layout drawing method based on deep learning | |
CN115601712A (en) | Image data processing method and system suitable for field safety measures | |
CN114549809A (en) | Gesture recognition method and related equipment | |
CN112364693A (en) | Barrier identification method, device and equipment based on binocular vision and storage medium | |
CN110991304A (en) | Interactive gesture acquisition and recognition method and device based on camera and thermal sensing probe | |
CN114549499B (en) | High-speed camera standard-reaching detection method, system and medium for terminal equipment | |
KR101280840B1 (en) | Method of identifying the laser point position on screen of presentation system | |
CN114419451B (en) | Method and device for identifying inside and outside of elevator, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E601 | Decision to refuse application | ||
AMND | Amendment | ||
GRNT | Written decision to grant | ||
X701 | Decision to grant (after re-examination) |