KR20190102973A - Camera-based tactile sensor system - Google Patents
Camera-based tactile sensor system Download PDFInfo
- Publication number
- KR20190102973A KR20190102973A KR1020180142739A KR20180142739A KR20190102973A KR 20190102973 A KR20190102973 A KR 20190102973A KR 1020180142739 A KR1020180142739 A KR 1020180142739A KR 20180142739 A KR20180142739 A KR 20180142739A KR 20190102973 A KR20190102973 A KR 20190102973A
- Authority
- KR
- South Korea
- Prior art keywords
- tactile sensing
- image
- information
- deep learning
- pattern
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G06K9/00208—
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Force Measurement Appropriate To Specific Purposes (AREA)
Abstract
Description
본 발명은 카메라 기반의 촉각 센서 시스템에 관한 것이다.The present invention relates to a camera-based tactile sensor system.
로봇 기술 발전과 더불어 사람과 로봇이 보다 긴밀하게 협력하기 위해 촉각 센싱 기술에 대한 연구가 진행되고 있다.With the development of robot technology, research on tactile sensing technology is being conducted in order for humans and robots to cooperate more closely.
그런데, 현재까지 개발된 촉각 센싱 기술은 고가의 촉각 센서를 사용하며 정확도가 높지 않는 등 여러 가지 제한이 있다.However, the tactile sensing technology developed to date has various limitations such as the use of expensive tactile sensors and high accuracy.
따라서, 보다 효율적인 새로운 방식의 촉각 센싱 기술에 대한 개발이 필요하다.Thus, there is a need for the development of new, more efficient tactile sensing techniques.
본 발명은, 보다 효율적인 새로운 방식의 촉각 센싱 기술을 구현하는 방안을 제공하는 것에 과제가 있다.An object of the present invention is to provide a method for implementing a new method of more efficient tactile sensing technology.
전술한 과제를 달성하기 위해, 본 발명은 내면에 다수의 돌기패턴이 형성된 촉감감지부재와, 상기 촉감감지부재의 내면을 촬영하는 단일 카메라를 포함하는 핑거를 구비한 촉각감지장치와; 딥러닝 네트워크를 이용하여 상기 단일 카메라에서 입력된 2D 영상에 대해 거리정보가 포함된 시차 맵을 생성하고, 상기 2D 영상 및 시차 맵을 기초로 촉각센싱 정보를 획득하는 제어 장치를 포함하는 촉각 센싱 시스템을 제공한다.In order to achieve the above object, the present invention provides a tactile sensing device including a tactile sensing member having a plurality of protrusion patterns formed on an inner surface thereof, and a finger including a single camera photographing the inner surface of the tactile sensing member; Tactile sensing system comprising a control device for generating a parallax map including distance information on the 2D image input from the single camera using a deep learning network, and obtains tactile sensing information based on the 2D image and parallax map To provide.
여기서, 상기 딥러닝 네트워크는, 스테레오용 듀얼 카메라를 통해 생성된 시차 맵과 이에 대응되는 상기 스테레어용 듀얼 카메라 중 하나에 의해 생성된 2D 영상으로 구축된 딥러닝 학습용 데이터베이스를 학습하고, 상기 딥러닝 학습용 데이터베이스에 대한 학습 정보를 기초로, 상기 단일 카메라에서 입력된 2D 영상에 대한 시차 맵을 생성할 수 있다.Here, the deep learning network learns a deep learning learning database constructed from a parallax map generated through a dual camera for stereo and a 2D image generated by one of the dual cameras corresponding to the stereo camera, and the deep learning network. A parallax map of the 2D image input by the single camera may be generated based on the learning information about the learning database.
상기 딥러닝 네트워크는 GAN 기반 네트워크로 구성될 수 있다.The deep learning network may be configured as a GAN based network.
상기 제어 장치는, 상기 2D 영상을 캘리브레이션(calibration)하여 보정 2D 영상을 생성하고, 무접촉 상태의 기준 2D 영상을 기준으로 상기 보정 2D 영상을 비교하여, 상기 패턴돌기의 위치 변이에 관한 2D 패턴 분석 정보를 검출하고, 상기 2D 패턴 분석 정보에 상기 시차 맵의 거리 정보가 부가된 3D 패턴 정보를 분석할 수 있다.The control device generates a corrected 2D image by calibrating the 2D image, compares the corrected 2D image based on a
상기 촉각센싱 정보는, 눌린 위치, 눌린 방향, 가해진 힘을 포함할 수 있다.The tactile sensing information may include a pressed position, a pressed direction, and an applied force.
상기 핑거는, 내부에 관통홀이 형성된 튜브 형상을 갖고, 일끝단에 상기 촉각감지부재가 결합된 핑거프레임과; 상기 핑거프레임의 타끝단에 결합되어 상기 관통홀을 덮고, 내면에 상기 단일 카메라가 장착된 리드를 포함할 수 있다.The finger has a tube shape having a through hole formed therein, and a finger frame having the tactile sensing member coupled to one end thereof; It may include a lead coupled to the other end of the finger frame to cover the through hole, the single camera is mounted on the inner surface.
본 발명에서는, 새로운 방식의 효율적인 촉각센싱 기술을 제공하게 되는데, 시차 맵을 이용한 딥러닝 기반의 학습 기법을 통해 단일 카메라에 의해 촬영된 2D 영상에 대해 거리정보를 검출하여 고성능의 촉각센싱을 수행하는 기술을 제공하게 된다.The present invention provides a new method of efficient tactile sensing technology, which performs high-performance tactile sensing by detecting distance information on a 2D image photographed by a single camera through a deep learning based learning technique using parallax maps. Technology.
이에 따라, 촉각센싱 능력이 진화된 로봇을 구현할 수 있어, 로봇 산업이 획기적으로 발전될 수 있다.Accordingly, it is possible to implement a robot in which the tactile sensing capability has evolved, and the robot industry can be greatly developed.
도 1은 본 발명의 실시예에 따른 촉각 센싱 시스템을 개략적으로 도시한 도면.
도 2는 본 발명의 실시예에 따른 촉각 센싱 시스템의 핑거를 개략적으로 도시한 도면.
도 3은 본 발명의 실시예에 따른 핑거의 패턴돌기를 개략적으로 도시한 도면.
도 4는 본 발명의 실시예에 따른 촉각 센싱 시스템에서 딥러닝 학습용 데이터베이스 구축을 수행하는 과정에서 사용되는 핑거의 구조를 개략적으로 도시한 것
도 5는 본 발명의 실시예에 따른 딥러닝 학습용 데이터베이스를 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 딥러닝 기반의 거리 추출 과정을 설명하기 위한 도면.
도 7은 본 발명의 실시예에 따른 제어 장치의 패턴분석부에서의 영상패턴 분석 과정을 도시한 도면.
도 8은 본 발명의 실시예에 따른 특징점 추출 알고리즘을 설명한 도면.
도 9는 본 발명의 실시예에 따른 입력 영상에 대해 특징점 추출 알고리즘을 적용하여 특징점을 추출한 결과를 도시한 도면.
도 10은 본 발명의 실시예에 따른 형상 검출 알고리즘을 설명한 도면.
도 11은 본 발명의 실시예에 따른 힘 검출 과정을 설명한 도면.1 schematically illustrates a tactile sensing system according to an embodiment of the invention.
2 schematically illustrates a finger of a tactile sensing system according to an embodiment of the invention.
3 is a view schematically showing a pattern protrusion of a finger according to an embodiment of the present invention.
Figure 4 schematically illustrates the structure of the finger used in the process of building a deep learning database in the tactile sensing system according to an embodiment of the present invention
5 is a view for explaining a deep learning database for learning according to an embodiment of the present invention.
6 is a view for explaining a deep learning based distance extraction process according to an embodiment of the present invention.
7 is a view showing an image pattern analysis process in the pattern analyzer of the control device according to an embodiment of the present invention.
8 illustrates a feature point extraction algorithm according to an embodiment of the present invention.
9 is a diagram illustrating a result of extracting feature points by applying a feature point extraction algorithm to an input image according to an embodiment of the present invention.
10 illustrates a shape detection algorithm according to an embodiment of the present invention.
11 is a view for explaining a force detection process according to an embodiment of the present invention.
이하, 도면을 참조하여 본 발명의 실시예를 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings.
도 1은 본 발명의 실시예에 따른 촉각 센싱 시스템을 개략적으로 도시한 도면이다. 도 2는 본 발명의 실시예에 따른 촉각 센싱 시스템의 핑거를 개략적으로 도시한 도면이다. 한편, 도 2에서는 하측 및 상측에서 바라본 핑거를 각각 도시하였다. 도 3은 본 발명의 실시예에 따른 핑거의 패턴돌기를 개략적으로 도시한 도면이다.1 is a view schematically showing a tactile sensing system according to an embodiment of the present invention. 2 is a view schematically showing a finger of the tactile sensing system according to an embodiment of the present invention. On the other hand, Figure 2 shows the fingers viewed from the lower side and the upper side, respectively. 3 is a view schematically showing a pattern protrusion of a finger according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 촉각 센싱 시스템은 영상을 기반으로 한 촉각 센싱 시스템에 해당된다.Referring to FIG. 1, a tactile sensing system according to an embodiment of the present invention corresponds to a tactile sensing system based on an image.
이와 같은 촉각 센싱 시스템(10)은, 촉각 감지 장치(100)와 제어 장치(200)를 포함할 수 있다.The
촉각 감지 장치(100)는, 대상체(OB)에 대해 촉각 센싱을 수행하고 센싱 결과에 따라 대상체(OB)에 대한 작업을 수행하는 소위 로봇암(robot arm)을 이용하여 구성될 수 있다.The
이와 같이 구성된 촉각 감지 장치(100)는 로봇암 본체(110)와, 로봇암 본체(110)의 끝단(또는 말단)에 구성된 적어도 하나의 핑거(120)를 포함할 수 있다.The
로봇암 본체(110)에는 적어도 하나의 관절부재가 구성되어, 사람의 팔과 유사한 동작을 수행할 수 있도록 구성될 수 있다.At least one joint member is configured in the robot arm
핑거(120)는 로봇암 본체(110)와 관절부재를 통해 연결될 수 있다. 한편, 핑거(120)의 로봇암 본체(110) 측 끝단에는 힘센서(일예로, 6축 힘센서)가 결합될 수 있다.
이와 같은 핑거(120)는, 핑거(120)의 실질적인 형상을 정의하는 핑거프레임(121)과, 핑거프레임(121)의 일끝단에 장착된 촉각감지부재(또는 촉각감지팁)(130)를 포함할 수 있다.The
이와 같은 핑거(120)에 대해 도 2를 함께 참조하여 살펴보면, 핑거프레임(120)은 내부에 관통홀을 포함할 수 있다. 즉, 핑거프레임(121)은 내부에 이의 길이방향을 따라 양단이 개방된 형태 즉 중공 형태로 구성될 수 있다. 일예로, 핑거프레임(120)은 원형의 튜브 형상인 실리더 형상으로 형성될 수 있는데, 이에 한정되지는 않으며 다각형의 튜브 형상으로 형성될 수 있다.Referring to FIG. 2 with respect to such a
이와 같은 핑거프레임(121)의 일끝단(또는 말단)에는 촉각감지부재(130)가 결합될 수 있다.One end (or end) of the
촉각감지부재(130)는 영상 기반의 촉각센싱을 위한 부재로서, 이는 고무와 같이 탄성을 갖는 물질로 형성될 수 있다. 즉, 촉각감지부재(130)는, 대상체(OB)와 접촉하는 경우에 그 형태가 변형되고, 접촉이 해제되면 원래의 형태로 복원되는 탄성재질로 형성될 수 있다.The
이와 같은 촉각감지부재(130)는 외부 방향으로 볼록하게 돌출된 형태로 형성될 수 있다.Such a
이와 같은 촉각감지부재(130)의 내면(즉, 접촉면인 외면에 반대되는 표면)에는, 도 3에 도시한 바와 같이, 영상 기반의 촉각센싱을 실질적으로 구현하기 위한 다수의 패턴돌기(131)가 형성될 수 있다. On the inner surface of the tactile sensing member 130 (ie, the surface opposite to the outer surface of the contact surface), as shown in FIG. 3, a plurality of
패턴돌기들(131)은 실질적으로 촉각감지부재(130)의 내면 전체를 따라 서로 일정 간격 이격되어 분포될 수 있다. 여기서, 이격 간격은 모두 동일하거나 위치에 따라 변화되도록 구성될 수 있다.The
한편, 패턴돌기들(131)은, 카르테시안 좌표계 또는 폴라 좌표계 기반의 2D-to-3D 매핑 방법에 따라 촉각감지부재(130) 내면에 배치되도록 구성될 수 있다.Meanwhile, the
한편, 촉각감지부재(130)의 내면을 영상 촬영(또는 캡쳐)할 때, 영상 내에서 패턴돌기들(131)의 시인성을 용이하게 확보하기 위해, 패턴돌기들(131)과 이 주변에 위치하는 촉각감지부재(130)의 내면 부분들은 서로 다른 컬러를 갖도록 형성될 수 있다.On the other hand, when capturing (or capturing) the inner surface of the
이와 관련하여 예를 들면, 패턴돌기들(131)의 표면은 반사특성 또는 형광특성을 갖도록 형성될 수 있다. 일예로, 백색이나 은색의 물질 반사 물질이 도포되거나 형광물질이 도포될 수 있다. 그리고, 패턴돌기들(131) 주변에 위치하는 촉각감지부재(130)의 내면 부분들은 광흡수 특성을 갖도록 검은색으로 형성될 수 있다.In this regard, for example, the surface of the
이와 같이 패턴돌기들(131)이 촉각감지부재(130)의 내면에 형성됨으로써, 대상체(OB)에 접촉되는 경우에 패턴돌기들(131)의 분포나 위치 등이 변형되고 이와 같은 변형을 기초로 촉각센싱이 구현될 수 있다.As the
한편, 핑거(120)에는 촉각감지부재(130)의 내면을 촬영하는 촬영수단인 카메라(140)가 장착될 수 있다. 더욱이, 핑거(120)에는 촬영시 요구되는 광을 제공하는 광원으로서 예를 들어 발광다이오드(150)가 적어도 하나 장착될 수 있다.On the other hand, the
여기서, 핑거(120)에는 단일의 카메라(140)가 장착되는 것이 바람직하다. 이와 같은 카메라(140)는, 촉각감지부재(130)의 내면을 바라보는 위치에 장착될 수 있다. 이와 관련하여 예를 들면, 핑거프레임(121)의 타끝단에는 관통홀을 덮는 리드(125)가 구비될 수 있고, 이 리드(125)의 내면에 카메라(140)가 촉각감지부재(130)의 내면을 바라보도록 배치될 수 있다. 이때, 단일의 카메라(140)는 리드(125)의 내면 중앙부에 위치하는 것이 바람직하다.Here, it is preferable that a
그리고, 발광다이오드(150)는 핑거프레임(121)에 설치될 수 있는데, 일예로 핑거프레임(121)의 일끝단 바닥면에 설치될 수 있다. 다른 예로서, 발광다이오드(150)는 핑거프레임(121)의 내주면 하단부에 설치될 수도 있다.In addition, the
이와 같이 설치된 발광다이오드(150)에서 발생된 광은 촉각감지부재(130)의 내면에 제공되고, 이와 같이 광이 제공된 상태에서 카메라(140)가 촉각감지부재(130)를 촬영할 수 있다. The light generated by the
카메라(140)에 의해 촬영된 영상인 2D(2차원) 영상으로서 촉각센싱을 위한 영상이 제어 장치(200)에 전송된다.An image for tactile sensing is transmitted to the
제어 장치(200)는 촉각 감지 장치(100)를 전반적으로 제어하는 구성으로서, 촉각감지에 관한 촉각 감지 장치(100)의 동작을 제어할 수 있다.The
이와 관련하여, 제어 장치(200)는 카메라(140)의 촬영을 제어하고, 카메라(140)에 의해 촬영된 촉각감지부재(130) 내면의 2D 영상 즉 패턴돌기들(131)에 대한 2D 영상을 분석하여, 촉각센싱 정보를 획득할 수 있다. In this regard, the
이에 대해, 입력된 2D 영상에서의 패턴돌기들(131)을 특징점으로 하여 이들의 분포 패턴 또는 배열 패턴을 분석함으로써, 대상체(OB) 터치시의 센서감지부재(130)에 가해진(또는 인가된 또는 작용하는) 힘, 눌린(또는 접촉) 위치, 눌린 방향 등 다양한 촉각센싱 정보를 획득할 수 있다.On the other hand, the pattern protrusions 131 in the
더욱이, 제어 장치(200)는, 획득된 촉각센싱 정보를 기초로 하여 촉각 센싱 장치(100)를 구성하는 로봇암의 후속 동작을 제어할 수 있다.In addition, the
이와 같은 제어 장치(200)는 영상 분석을 포함하여 다양한 데이터 연산 처리를 수행하는 소위 컴퓨터를 이용하여 구성될 수 있다.Such a
한편, 단일의 카메라(140)에서 촬영된 2D 영상은 평면적인 영상으로서 예를 들어 카메라 위치를 기준으로 한 거리 정보(또는 깊이정보)는 포함되어 있지 않은 상태이다. 이러한바, 대상체(OB)에 대한 눌린 위치, 눌린 방향, 3축 힘 등 보다 다양하고 정확한 촉각센싱 정보를 획득하기 위해서, 2D 영상에서 특징점인 패턴돌기(131)에 대한 거리정보(또는 깊이정보)를 추출하는 것이 바람직하다 할 것이다.Meanwhile, the 2D image photographed by the
이를 위해, 본 실시예에서는, 제어 장치(200)는 인공지능 기술인 딥러닝 네트워크(210)를 이용하도록 구성될 수 있다. To this end, in the present embodiment, the
이와 관련하여 예를 들면, 도 4에 도시한 바와 같이, 2대의 카메라(145) 즉 스테레오용 듀얼 카메라(145)를 이용하여, 다양한 접촉 환경에서, 3D 영상에 해당되는 시차 맵(disparity map) (또는 시창 영상 또는 스테레오(stereo) 영상)을 생성하고 이를 딥러닝 학습용 데이터베이스로 구축할 수 있다. 여기서, 딥러닝 학습용 데이터베이스에는, 각 시차 맵에 대해 이에 대응되는 2대의 스테레오용 듀얼 카메라(145) 중 하나에 의해 생성된 2D 영상이 함께 저장될 수 있다.In this regard, for example, as shown in FIG. 4, by using two
한편, 도 4는 딥러닝 학습용 데이터베이스 구축을 수행하는 과정에서 사용되는 핑거(120)의 구조를 개략적으로 도시한 것으로서, 도 2의 촉각센싱 과정에서의 핑거(120)의 구조와 비교할 때, 서로 일정 간격 이격된 2대의 스테레오용 듀얼 카메라(145)가 리드(125)의 내면에 촉각감지부재(130)의 내면을 바라보도록 배치될 수 있다.On the other hand, Figure 4 schematically shows the structure of the
제어 장치(200)는 딥러닝 네트워크를 통해 딥러닝 학습용 데이터베이스를 학습함으로써, 단일 카메라(140)를 통해 촬영된 2D 영상에 대한 거리 정보를 보다 정확하게 추측(또는 예측)할 수 있게 된다.The
이와 관련하여 도 5 및 6을 참조할 수 있다. In this regard, reference may be made to FIGS. 5 and 6.
도 5는 본 발명의 실시예에 따른 딥러닝 학습용 데이터베이스를 설명하기 위한 도면이다. 이와 같은 학습용 데이터베이스에는 스테레오용 카메라를 통해 생성된 각 시차 맵과 이에 대응되는 2D 영상이 데이터베이스화될 수 있다.5 is a diagram for describing a deep learning database according to an embodiment of the present invention. In such a learning database, each parallax map generated by a stereo camera and a 2D image corresponding thereto may be databased.
그리고, 도 6은 본 발명의 실시예에 따른 딥러닝 기반의 거리 추출 과정을 설명하기 위한 도면이다. 촉각센싱 과정에서, 제어 장치(200)에 설치된 딥러닝 네트워크(210)는 입력된 2D 영상에 대해 딥러닝 학습을 기초로 하여 해당 시차 맵을 생성할 수 있다. 즉, 딥러닝 학습 정보를 기초로, 단일 카메라(140)에 의해 입력된 2D 영상에 대해 거리 정보를 예측하고 이 거리 정보를 반영한 시차 맵이 생성될 수 있다.6 is a view for explaining a deep learning based distance extraction process according to an embodiment of the present invention. In the tactile sensing process, the
위와 같이, 본 실시예에서는 딥러닝 기술을 이용하여 2D 영상에 대해 정확도가 높은 거리 정보를 추출할 수 있게 된다. 이에 따라, 단일 카메라(140)를 이용하면서도 듀얼카메라를 사용한 경우와 실질적으로 동등 수준의 촉각센싱을 효과적으로 구현할 수 있는 장점이 있다.As described above, in the present exemplary embodiment, distance information with high accuracy can be extracted from a 2D image using a deep learning technique. Accordingly, there is an advantage that it is possible to effectively implement a tactile sensing substantially equivalent to the case of using a dual camera while using a
한편, 시차 맵을 생성하기 위한 딥러닝 네트워크(210)는, 예를 들면 도 6의 하부에 도시한 GAN 기반의 네트워크를 이용할 수 있다.Meanwhile, the
한편, 제어 장치(200)에서의 영상패턴 분석을 통한 촉각센싱 과정에 대해 도 7을 참조할 수 있다. 도 7은 본 발명의 실시예에 따른 제어 장치의 패턴분석부에서의 영상패턴 분석 과정을 도시한 도면이다.Meanwhile, referring to FIG. 7, a tactile sensing process through image pattern analysis in the
도 7을 참조하면, 제어 장치(200)에는 패턴분석부가 구비될 수 있으며, 이 패턴분석부는 단일 카메라(140)에 의해 촬영된 2D 영상을 입력받고 이를 보정(즉, 캘리브레이션)하여 보정된 2D 영상을 생성할 수 있다. 이와 관련하여, 사전에 준비된 변환행렬(transform matrix)을 통해 입력 영상의 패턴돌기들(131) 즉 특징점들의 위치를 변환함으로써 캘리브레이션된 보정 2D 영상이 생성될 수 있다.Referring to FIG. 7, the
이와 같은 보정 2D 영상은, 기준(reference) 2D 영상과 비교되어 평면적 즉 2D(이차원) 패턴 분석이 수행될 수 있다. 여기서, 기준 2D 영상은, 단일의 카메라(140)를 통해 무접촉 상태 즉 원형 상태의 촉각감지부재(130)의 내면을 촬영한 영상에 해당된다.Such a corrected 2D image may be compared with a
이와 같은 기준 2D 영상을 기초로 한 보정 2D 영상의 패턴 분석은 실질적으로 거리정보가 반영되지 않은 것으로서, 이 2D 패턴 분석에서는 기준 2D 영상의 특징점들(즉, 기준 특징점들)을 기준으로 이들 각각에 대응되는 보정 2D 영상 내의 특징점들의 2D 위치 변이(또는 변화)를 추출할 수 있다. 즉, 특징점들의 배열 패턴의 2D 변이를 추출할 수 있다.The pattern analysis of the corrected 2D image based on the
이와 같은 2D 패턴 분석에서의 특징점들의 위치 변이를 통해, 대상체(OB)에 의해 눌린 위치, 형상 등을 검출할 수 있다.Through the position shift of the feature points in the 2D pattern analysis, the position, shape, etc. pressed by the object OB may be detected.
한편, 단일 카메라(140)에 의해 촬영된 2D 영상 입력시, 딥러닝 네트워크(210)에 의해 생성된 시차 맵이 패턴분석부에 입력될 수 있으며, 입력된 시차 맵은 보정 2D 영상 생성과 연동되어 보정될 수 있다.Meanwhile, when inputting a 2D image captured by a
다음으로, 2D 패턴 분석 정보에 거리 정보(z)가 부가된 3D 패턴 분석 정보가 생성될 수 있다. 이와 같은 거리 정보(z)는, 2D 영상과 함께 입력된 시차 맵에서 추출될 수 있다. Next, 3D pattern analysis information in which distance information z is added to 2D pattern analysis information may be generated. Such distance information z may be extracted from a parallax map input together with a 2D image.
한편, 2D 패턴 분석 정보를 기초로 한 거리 정보가 시차 맵의 거리 정보에 반영되어, 거리 정보(z)의 정확도가 향상될 수도 있다. 이에 대해, 2D 패턴 분석에서의 위치 변화는 거리 변화와 관련되어 있으므로, 2D 패턴 분석 정보를 기초로 한 거리 정보가 시차 맵의 거리 정보에 반영되어, 정확도가 향상된 거리 정보(z)가 추출될 수 있다.Meanwhile, the distance information based on the 2D pattern analysis information is reflected in the distance information of the parallax map, so that the accuracy of the distance information z may be improved. On the other hand, since the position change in the 2D pattern analysis is related to the distance change, the distance information based on the 2D pattern analysis information is reflected in the distance information of the parallax map, so that the distance information z with improved accuracy can be extracted. have.
위와 같은 과정에 따라, 2D 패턴 분석 정보에 거리 정보(z)가 포함된 3D 패턴 정보가 획득될 수 있다.According to the above process, 3D pattern information including distance information z may be obtained in the 2D pattern analysis information.
이와 같이 획득된 거리 정보가 포함된 3D 패턴 정보를 분석하여, 대상체(OB)에 의해 눌린 힘과 방향을 산출할 수 있다.The force and direction pressed by the object OB may be calculated by analyzing the 3D pattern information including the obtained distance information.
한편, 제어 장치(200)에는 특징점 추출을 위한 특징점 추출부가 구성될 수 있으며 이 특징점 추출부는 강인한 특징점 추출을 위한 알고리즘을 이용할 수 있다.On the other hand, the
이와 관련하여 도 8을 참조할 수 있는데, 특징점 추출 알고리즘은 특징점 추출부에 입력된 입력 영상(또는 소스 영상)을 이진화 영상으로 변환하는 것을 포함하는 이진화 프로세스 즉 스레스홀딩(thresholding) 프로세스와, 픽셀 레벨에서의 그룹핑(grouping) 프로세스와, 블럽레벨에서의 머징(merging) 프로세스와, 필터링(filtering) 프로세스와, 볼검출 즉 센터 및 반경 산출 프로세스 등의 단계들을 포함할 수 있다.In this regard, referring to FIG. 8, the feature extraction algorithm may include a binarization process, that is, a thresholding process and a pixel including converting an input image (or a source image) input to a feature extraction unit into a binarization image. It may include the grouping process at the level, the merging process at the blob level, the filtering process, and the ball detection, ie, the center and radius calculation processes.
도 9에는, 입력 영상에 특징점 추출 알고리즘을 적용하여 특징점을 추출한 결과가 도시되어 있다.9 shows a result of extracting feature points by applying a feature point extraction algorithm to an input image.
한편, 제어 장치(200)에는 촉각센싱 대상체(OB)에 의해 눌린 형상(또는 모양)을 검출하는 형상 검출부가 구성될 수 있으며 이 형상 검출부는 정확한 형상 검출을 위한 알고리즘을 이용할 수 있다. 한편, 형상 검출부는, 전술한 패턴분석부에 포함되거나 별도로 구성될 수 있으며, 2D 패턴 분석 정보를 이용할 수 있다.On the other hand, the
도 10을 참조하면, 형상 검출 알고리즘은 오프라인 페이스(offline phase)와 온라인 페이스(online phase)를 포함할 수 있다.Referring to FIG. 10, the shape detection algorithm may include an offline phase and an online phase.
촉각센싱 수행 전의 오프라인 페이스에서는, 무접촉 상태의 입력 영상들을 평균화하여 평균 백그라운드(mBG)를 산출하고, 이를 온라인페이스에 사용할 수 있도록 저장하게 된다.In the off-line face before performing tactile sensing, an average background (mBG) is calculated by averaging contactless input images and stored for use in an online face.
촉각센싱이 수행되는 온라인 페이스에서는, 입력 영상에 대해 특징점들(key points)을 검출하고, 특징점들에 대한 특성(feature)을 산출하고, SVM 분류기(classifier)를 통해 형상을 추정할 수 있다.In an online face where tactile sensing is performed, key points may be detected for the input image, a feature may be calculated for the feature points, and the shape may be estimated through an SVM classifier.
여기서, 특징점들의 특성은, 특징점들의 개수(nK), 특징점 크기의 평균(mS), 특징점들의 표준편차(sS), 백그라운드(mBG)와 입력 영상 사이의 평균 차이(또는 평균 차분 영상)(mD)를 포함할 수 있다.Here, the characteristic of the feature points is the number of feature points (nK), the mean of the feature points (mS), the standard deviation of the feature points (sS), the average difference (or mean difference image) (mD) between the background (mBG) and the input image It may include.
SVM 분류기는 형상 분류기로서, 사전에 정의되고 분류된 다수의 형상들 중 입력 영상의 특징점들의 특성에 대응되는 형상을 출력할 수 있다. 일예를 들면, 삼각형, 사각형, 또는 무접촉 상태 등이 정의될 수 있고, 이들 중 입력 영상의 특성에 대응되는 형상이 선택되어 출력될 수 있다.The SVM classifier is a shape classifier and may output a shape corresponding to a characteristic of feature points of an input image among a plurality of predefined and classified shapes. For example, a triangle, a quadrangle, or a contactless state may be defined, and a shape corresponding to the characteristic of the input image may be selected and output from among them.
한편, 제어 장치(200)는 위와 같이 추출된 형상과 특징점들의 분포 패턴을 이용하여 대상체(OB)의 접촉면의 면적 즉 눌린 면적을 산출할 수 있다.Meanwhile, the
한편, 제어 장치(200)는 위와 같이 추출된 형상과 특징점들의 분포 패턴을 이용하여 눌린 힘 보다 상세하게는 3축 힘의 크기 및/또는 방향을 산출할 수 있다.Meanwhile, the
3축 힘의 산출과 관련하여 도 11을 참조할 수 있는데, 입력 영상에 대해 특징점을 추출하고, 힘의 위치와 방향을 검출할 수 있다. 그 후, 특징점들을 분석하여 힘이 가해진 방향을 확인한 후, 해당 방향에서의 패턴돌기들의 패턴 형태와 주변 돌기들의 패턴 형태를 분석하여 최종 힘을 계산한다.Referring to FIG. 11 regarding the calculation of the three-axis force, feature points may be extracted from the input image, and the position and direction of the force may be detected. After analyzing the feature points to confirm the direction in which the force is applied, the final force is calculated by analyzing the pattern shape of the pattern protrusions and the pattern shape of the surrounding protrusions in the corresponding direction.
전술한 바와 같이, 본 발명의 실시예에서는, 새로운 방식의 효율적인 촉각센싱 기술을 제공하게 되는데, 시차 맵을 이용한 딥러닝 기반의 학습 기법을 통해 단일 카메라에 의해 촬영된 2D 영상에 대해 거리정보를 검출하여 고성능의 촉각센싱을 수행하는 기술을 제공하게 된다.As described above, an embodiment of the present invention provides a new method of efficient tactile sensing technology, which detects distance information on a 2D image captured by a single camera through a deep learning based learning technique using parallax maps. It provides a technology for performing high performance tactile sensing.
이에 따라, 촉각센싱 능력이 진화된 로봇을 구현할 수 있어, 로봇 산업이 획기적으로 발전될 수 있다.Accordingly, it is possible to implement a robot in which the tactile sensing capability has evolved, and the robot industry can be greatly developed.
한편, 전술한 본 발명의 실시예의 촉각센싱 방법은 컴퓨터를 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical), 및 롬(ROM), 램(RAM), 플래시 메모리 등을 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 일 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Meanwhile, the tactile sensing method according to the embodiment of the present invention described above may be embodied in the form of program instructions that can be executed through a computer and recorded in a computer readable medium. Computer-readable media may include, alone or in combination with the program instructions, data files, data structures, and the like. The program instructions recorded on the media may be those specially designed and constructed for the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical, and ROM, RAM, flash memory and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of one embodiment of the present invention, and vice versa.
전술한 본 발명의 실시예는 본 발명의 일예로서, 본 발명의 정신에 포함되는 범위 내에서 자유로운 변형이 가능하다. 따라서, 본 발명은, 첨부된 특허청구범위 및 이와 등가되는 범위 내에서의 본 발명의 변형을 포함한다.Embodiment of the present invention described above is an example of the present invention, it is possible to change freely within the scope included in the spirit of the present invention. Accordingly, the invention includes modifications of the invention within the scope of the appended claims and their equivalents.
10: 촉각 센싱 시스템
100: 촉각 감지 장치
110: 로봇암 본체
120: 핑거
121: 핑거 프레임
125: 리드
130: 촉각감지부재
131: 패턴돌기
140: 카메라
150: 발광다이오드
200: 제어장치
210: 딥러닝 네트워크10: tactile sensing system 100: tactile sensing device
110: robot arm body 120: finger
121: finger frame 125: lead
130: tactile sensing member 131: pattern protrusion
140: camera 150: light emitting diode
200: controller 210: deep learning network
Claims (6)
딥러닝 네트워크를 이용하여 상기 단일 카메라에서 입력된 2D 영상에 대해 거리정보가 포함된 시차 맵을 생성하고, 상기 2D 영상 및 시차 맵을 기초로 촉각센싱 정보를 획득하는 제어 장치
를 포함하는 촉각 센싱 시스템.
A tactile sensing device comprising a tactile sensing member having a plurality of protrusion patterns formed therein and a finger including a single camera photographing the inner surface of the tactile sensing member;
Control device for generating a parallax map including distance information on the 2D image input from the single camera using a deep learning network, and obtains tactile sensing information based on the 2D image and parallax map
Tactile sensing system comprising a.
상기 딥러닝 네트워크는,
스테레오용 듀얼 카메라를 통해 생성된 시차 맵과 이에 대응되는 상기 스테레어용 듀얼 카메라 중 하나에 의해 생성된 2D 영상으로 구축된 딥러닝 학습용 데이터베이스를 학습하고,
상기 딥러닝 학습용 데이터베이스에 대한 학습 정보를 기초로, 상기 단일 카메라에서 입력된 2D 영상에 대한 시차 맵을 생성하는
촉각 센싱 시스템.
The method of claim 1,
The deep learning network,
Study a deep learning database constructed from a parallax map generated through a dual camera for stereo and a 2D image generated by one of the dual cameras corresponding to the stereo,
Generating a parallax map for the 2D image input from the single camera based on the learning information about the deep learning database
Tactile sensing system.
상기 딥러닝 네트워크는 GAN 기반 네트워크로 구성된
촉각 센싱 시스템.
The method of claim 1,
The deep learning network is composed of a GAN-based network
Tactile sensing system.
상기 제어 장치는,
상기 2D 영상을 캘리브레이션(calibration)하여 보정 2D 영상을 생성하고,
무접촉 상태의 기준 2D 영상을 기준으로 상기 보정 2D 영상을 비교하여, 상기 패턴돌기의 위치 변이에 관한 2D 패턴 분석 정보를 검출하고,
상기 2D 패턴 분석 정보에 상기 시차 맵의 거리 정보가 부가된 3D 패턴 정보를 분석하는
촉각 센싱 시스템.
The method of claim 1,
The control device,
Generate a corrected 2D image by calibrating the 2D image,
Comparing the corrected 2D image on the basis of the reference 2D image of the contactless state, to detect the 2D pattern analysis information about the position shift of the pattern projection,
Analyzing 3D pattern information to which the distance information of the parallax map is added to the 2D pattern analysis information
Tactile sensing system.
상기 촉각센싱 정보는, 눌린 위치, 눌린 방향, 가해진 힘을 포함하는
촉각 센싱 시스템.
The method of claim 1,
The tactile sensing information includes a pressed position, a pressed direction, and an applied force
Tactile sensing system.
상기 핑거는,
내부에 관통홀이 형성된 튜브 형상을 갖고, 일끝단에 상기 촉각감지부재가 결합된 핑거프레임과;
상기 핑거프레임의 타끝단에 결합되어 상기 관통홀을 덮고, 내면에 상기 단일 카메라가 장착된 리드를 포함하는
촉각 센싱 시스템.The method of claim 1,
The finger is,
A finger frame having a tube shape having a through hole formed therein and having the tactile sensing member coupled to one end thereof;
A lead coupled to the other end of the finger frame to cover the through hole and having the single camera mounted on an inner surface thereof;
Tactile sensing system.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180023634 | 2018-02-27 | ||
KR20180023634 | 2018-02-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190102973A true KR20190102973A (en) | 2019-09-04 |
Family
ID=67950427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180142739A KR20190102973A (en) | 2018-02-27 | 2018-11-19 | Camera-based tactile sensor system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20190102973A (en) |
-
2018
- 2018-11-19 KR KR1020180142739A patent/KR20190102973A/en active Search and Examination
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255813B (en) | Man-machine cooperation oriented hand-held object pose real-time detection method | |
Calandra et al. | The feeling of success: Does touch sensing help predict grasp outcomes? | |
US9757862B2 (en) | Tactile sensor | |
TWI566204B (en) | Three dimensional object recognition | |
KR100920931B1 (en) | Method for object pose recognition of robot by using TOF camera | |
EP3159126A1 (en) | Device and method for recognizing location of mobile robot by means of edge-based readjustment | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
Aggarwal et al. | Haptic Object Recognition in Underwater and Deep‐sea Environments | |
JP2008506953A (en) | Method and apparatus for machine vision | |
JP2015056057A (en) | Method of estimating posture and robot | |
JP6677522B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
CN103959307A (en) | Method of detecting and describing features from an intensity image | |
Song et al. | DOE-based structured-light method for accurate 3D sensing | |
JP2018119833A (en) | Information processing device, system, estimation method, computer program, and storage medium | |
JP2019164842A (en) | Human body action analysis method, human body action analysis device, equipment, and computer-readable storage medium | |
US20180297215A1 (en) | Eye In-Hand Robot | |
CN114502937A (en) | Tactile sensor | |
Li et al. | End-to-end pixelwise surface normal estimation with convolutional neural networks and shape reconstruction using GelSight sensor | |
Zhang et al. | Finding disaster victims: A sensory system for robot-assisted 3D mapping of urban search and rescue environments | |
Andrussow et al. | Minsight: A Fingertip‐Sized Vision‐Based Tactile Sensor for Robotic Manipulation | |
KR20190102973A (en) | Camera-based tactile sensor system | |
US20230044371A1 (en) | Defect detection in a point cloud | |
US20220405506A1 (en) | Systems and methods for a vision guided end effector | |
JP7184203B2 (en) | Image processing device, three-dimensional measurement system, image processing method | |
Padeleris et al. | Multicamera tracking of multiple humans based on colored visual hulls |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |