KR20190102973A - Camera-based tactile sensor system - Google Patents

Camera-based tactile sensor system Download PDF

Info

Publication number
KR20190102973A
KR20190102973A KR1020180142739A KR20180142739A KR20190102973A KR 20190102973 A KR20190102973 A KR 20190102973A KR 1020180142739 A KR1020180142739 A KR 1020180142739A KR 20180142739 A KR20180142739 A KR 20180142739A KR 20190102973 A KR20190102973 A KR 20190102973A
Authority
KR
South Korea
Prior art keywords
tactile sensing
image
information
deep learning
pattern
Prior art date
Application number
KR1020180142739A
Other languages
Korean (ko)
Inventor
최학남
띠하이빈
김학일
Original Assignee
주식회사 비젼인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비젼인 filed Critical 주식회사 비젼인
Publication of KR20190102973A publication Critical patent/KR20190102973A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • G06K9/00208
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)

Abstract

The present invention provides a tactile sensor system which comprises: a tactile sensing device providing a tactile sensing member having a plurality of protrusion patterns formed therein and a finger including a single camera photographing an inner surface of the tactile sensing member; and a control device generating a parallax map including distance information on a 2D image inputted from the single camera by using a deep learning network and obtaining tactile sensing information based on the 2D image and the parallax map.

Description

카메라 기반의 촉각 센서 시스템{Camera-based tactile sensor system}Camera-based tactile sensor system

본 발명은 카메라 기반의 촉각 센서 시스템에 관한 것이다.The present invention relates to a camera-based tactile sensor system.

로봇 기술 발전과 더불어 사람과 로봇이 보다 긴밀하게 협력하기 위해 촉각 센싱 기술에 대한 연구가 진행되고 있다.With the development of robot technology, research on tactile sensing technology is being conducted in order for humans and robots to cooperate more closely.

그런데, 현재까지 개발된 촉각 센싱 기술은 고가의 촉각 센서를 사용하며 정확도가 높지 않는 등 여러 가지 제한이 있다.However, the tactile sensing technology developed to date has various limitations such as the use of expensive tactile sensors and high accuracy.

따라서, 보다 효율적인 새로운 방식의 촉각 센싱 기술에 대한 개발이 필요하다.Thus, there is a need for the development of new, more efficient tactile sensing techniques.

본 발명은, 보다 효율적인 새로운 방식의 촉각 센싱 기술을 구현하는 방안을 제공하는 것에 과제가 있다.An object of the present invention is to provide a method for implementing a new method of more efficient tactile sensing technology.

전술한 과제를 달성하기 위해, 본 발명은 내면에 다수의 돌기패턴이 형성된 촉감감지부재와, 상기 촉감감지부재의 내면을 촬영하는 단일 카메라를 포함하는 핑거를 구비한 촉각감지장치와; 딥러닝 네트워크를 이용하여 상기 단일 카메라에서 입력된 2D 영상에 대해 거리정보가 포함된 시차 맵을 생성하고, 상기 2D 영상 및 시차 맵을 기초로 촉각센싱 정보를 획득하는 제어 장치를 포함하는 촉각 센싱 시스템을 제공한다.In order to achieve the above object, the present invention provides a tactile sensing device including a tactile sensing member having a plurality of protrusion patterns formed on an inner surface thereof, and a finger including a single camera photographing the inner surface of the tactile sensing member; Tactile sensing system comprising a control device for generating a parallax map including distance information on the 2D image input from the single camera using a deep learning network, and obtains tactile sensing information based on the 2D image and parallax map To provide.

여기서, 상기 딥러닝 네트워크는, 스테레오용 듀얼 카메라를 통해 생성된 시차 맵과 이에 대응되는 상기 스테레어용 듀얼 카메라 중 하나에 의해 생성된 2D 영상으로 구축된 딥러닝 학습용 데이터베이스를 학습하고, 상기 딥러닝 학습용 데이터베이스에 대한 학습 정보를 기초로, 상기 단일 카메라에서 입력된 2D 영상에 대한 시차 맵을 생성할 수 있다.Here, the deep learning network learns a deep learning learning database constructed from a parallax map generated through a dual camera for stereo and a 2D image generated by one of the dual cameras corresponding to the stereo camera, and the deep learning network. A parallax map of the 2D image input by the single camera may be generated based on the learning information about the learning database.

상기 딥러닝 네트워크는 GAN 기반 네트워크로 구성될 수 있다.The deep learning network may be configured as a GAN based network.

상기 제어 장치는, 상기 2D 영상을 캘리브레이션(calibration)하여 보정 2D 영상을 생성하고, 무접촉 상태의 기준 2D 영상을 기준으로 상기 보정 2D 영상을 비교하여, 상기 패턴돌기의 위치 변이에 관한 2D 패턴 분석 정보를 검출하고, 상기 2D 패턴 분석 정보에 상기 시차 맵의 거리 정보가 부가된 3D 패턴 정보를 분석할 수 있다.The control device generates a corrected 2D image by calibrating the 2D image, compares the corrected 2D image based on a reference 2D image in a non-contact state, and analyzes a 2D pattern regarding a position shift of the pattern protrusion. Information may be detected and 3D pattern information in which distance information of the parallax map is added to the 2D pattern analysis information may be analyzed.

상기 촉각센싱 정보는, 눌린 위치, 눌린 방향, 가해진 힘을 포함할 수 있다.The tactile sensing information may include a pressed position, a pressed direction, and an applied force.

상기 핑거는, 내부에 관통홀이 형성된 튜브 형상을 갖고, 일끝단에 상기 촉각감지부재가 결합된 핑거프레임과; 상기 핑거프레임의 타끝단에 결합되어 상기 관통홀을 덮고, 내면에 상기 단일 카메라가 장착된 리드를 포함할 수 있다.The finger has a tube shape having a through hole formed therein, and a finger frame having the tactile sensing member coupled to one end thereof; It may include a lead coupled to the other end of the finger frame to cover the through hole, the single camera is mounted on the inner surface.

본 발명에서는, 새로운 방식의 효율적인 촉각센싱 기술을 제공하게 되는데, 시차 맵을 이용한 딥러닝 기반의 학습 기법을 통해 단일 카메라에 의해 촬영된 2D 영상에 대해 거리정보를 검출하여 고성능의 촉각센싱을 수행하는 기술을 제공하게 된다.The present invention provides a new method of efficient tactile sensing technology, which performs high-performance tactile sensing by detecting distance information on a 2D image photographed by a single camera through a deep learning based learning technique using parallax maps. Technology.

이에 따라, 촉각센싱 능력이 진화된 로봇을 구현할 수 있어, 로봇 산업이 획기적으로 발전될 수 있다.Accordingly, it is possible to implement a robot in which the tactile sensing capability has evolved, and the robot industry can be greatly developed.

도 1은 본 발명의 실시예에 따른 촉각 센싱 시스템을 개략적으로 도시한 도면.
도 2는 본 발명의 실시예에 따른 촉각 센싱 시스템의 핑거를 개략적으로 도시한 도면.
도 3은 본 발명의 실시예에 따른 핑거의 패턴돌기를 개략적으로 도시한 도면.
도 4는 본 발명의 실시예에 따른 촉각 센싱 시스템에서 딥러닝 학습용 데이터베이스 구축을 수행하는 과정에서 사용되는 핑거의 구조를 개략적으로 도시한 것
도 5는 본 발명의 실시예에 따른 딥러닝 학습용 데이터베이스를 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 딥러닝 기반의 거리 추출 과정을 설명하기 위한 도면.
도 7은 본 발명의 실시예에 따른 제어 장치의 패턴분석부에서의 영상패턴 분석 과정을 도시한 도면.
도 8은 본 발명의 실시예에 따른 특징점 추출 알고리즘을 설명한 도면.
도 9는 본 발명의 실시예에 따른 입력 영상에 대해 특징점 추출 알고리즘을 적용하여 특징점을 추출한 결과를 도시한 도면.
도 10은 본 발명의 실시예에 따른 형상 검출 알고리즘을 설명한 도면.
도 11은 본 발명의 실시예에 따른 힘 검출 과정을 설명한 도면.
1 schematically illustrates a tactile sensing system according to an embodiment of the invention.
2 schematically illustrates a finger of a tactile sensing system according to an embodiment of the invention.
3 is a view schematically showing a pattern protrusion of a finger according to an embodiment of the present invention.
Figure 4 schematically illustrates the structure of the finger used in the process of building a deep learning database in the tactile sensing system according to an embodiment of the present invention
5 is a view for explaining a deep learning database for learning according to an embodiment of the present invention.
6 is a view for explaining a deep learning based distance extraction process according to an embodiment of the present invention.
7 is a view showing an image pattern analysis process in the pattern analyzer of the control device according to an embodiment of the present invention.
8 illustrates a feature point extraction algorithm according to an embodiment of the present invention.
9 is a diagram illustrating a result of extracting feature points by applying a feature point extraction algorithm to an input image according to an embodiment of the present invention.
10 illustrates a shape detection algorithm according to an embodiment of the present invention.
11 is a view for explaining a force detection process according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시예를 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 실시예에 따른 촉각 센싱 시스템을 개략적으로 도시한 도면이다. 도 2는 본 발명의 실시예에 따른 촉각 센싱 시스템의 핑거를 개략적으로 도시한 도면이다. 한편, 도 2에서는 하측 및 상측에서 바라본 핑거를 각각 도시하였다. 도 3은 본 발명의 실시예에 따른 핑거의 패턴돌기를 개략적으로 도시한 도면이다.1 is a view schematically showing a tactile sensing system according to an embodiment of the present invention. 2 is a view schematically showing a finger of the tactile sensing system according to an embodiment of the present invention. On the other hand, Figure 2 shows the fingers viewed from the lower side and the upper side, respectively. 3 is a view schematically showing a pattern protrusion of a finger according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 촉각 센싱 시스템은 영상을 기반으로 한 촉각 센싱 시스템에 해당된다.Referring to FIG. 1, a tactile sensing system according to an embodiment of the present invention corresponds to a tactile sensing system based on an image.

이와 같은 촉각 센싱 시스템(10)은, 촉각 감지 장치(100)와 제어 장치(200)를 포함할 수 있다.The tactile sensing system 10 may include the tactile sensing device 100 and the control device 200.

촉각 감지 장치(100)는, 대상체(OB)에 대해 촉각 센싱을 수행하고 센싱 결과에 따라 대상체(OB)에 대한 작업을 수행하는 소위 로봇암(robot arm)을 이용하여 구성될 수 있다.The tactile sensor 100 may be configured using a so-called robot arm that performs tactile sensing on the object OB and performs work on the object OB according to the sensing result.

이와 같이 구성된 촉각 감지 장치(100)는 로봇암 본체(110)와, 로봇암 본체(110)의 끝단(또는 말단)에 구성된 적어도 하나의 핑거(120)를 포함할 수 있다.The tactile sensor 100 configured as described above may include a robot arm body 110 and at least one finger 120 configured at an end (or end) of the robot arm body 110.

로봇암 본체(110)에는 적어도 하나의 관절부재가 구성되어, 사람의 팔과 유사한 동작을 수행할 수 있도록 구성될 수 있다.At least one joint member is configured in the robot arm main body 110 and may be configured to perform an operation similar to a human arm.

핑거(120)는 로봇암 본체(110)와 관절부재를 통해 연결될 수 있다. 한편, 핑거(120)의 로봇암 본체(110) 측 끝단에는 힘센서(일예로, 6축 힘센서)가 결합될 수 있다.Finger 120 may be connected to the robot arm body 110 and the joint member. Meanwhile, a force sensor (eg, 6-axis force sensor) may be coupled to the robot arm body 110 side end of the finger 120.

이와 같은 핑거(120)는, 핑거(120)의 실질적인 형상을 정의하는 핑거프레임(121)과, 핑거프레임(121)의 일끝단에 장착된 촉각감지부재(또는 촉각감지팁)(130)를 포함할 수 있다.The finger 120 includes a finger frame 121 defining a substantial shape of the finger 120 and a tactile sensing member (or tactile sensing tip) 130 mounted at one end of the finger frame 121. can do.

이와 같은 핑거(120)에 대해 도 2를 함께 참조하여 살펴보면, 핑거프레임(120)은 내부에 관통홀을 포함할 수 있다. 즉, 핑거프레임(121)은 내부에 이의 길이방향을 따라 양단이 개방된 형태 즉 중공 형태로 구성될 수 있다. 일예로, 핑거프레임(120)은 원형의 튜브 형상인 실리더 형상으로 형성될 수 있는데, 이에 한정되지는 않으며 다각형의 튜브 형상으로 형성될 수 있다.Referring to FIG. 2 with respect to such a finger 120, the finger frame 120 may include a through hole therein. That is, the finger frame 121 may be configured in a form in which both ends are opened along its longitudinal direction, that is, in a hollow form. For example, the finger frame 120 may be formed in a cylinder shape having a circular tube shape, but is not limited thereto and may be formed in a polygonal tube shape.

이와 같은 핑거프레임(121)의 일끝단(또는 말단)에는 촉각감지부재(130)가 결합될 수 있다.One end (or end) of the finger frame 121 may be coupled to the tactile sensing member 130.

촉각감지부재(130)는 영상 기반의 촉각센싱을 위한 부재로서, 이는 고무와 같이 탄성을 갖는 물질로 형성될 수 있다. 즉, 촉각감지부재(130)는, 대상체(OB)와 접촉하는 경우에 그 형태가 변형되고, 접촉이 해제되면 원래의 형태로 복원되는 탄성재질로 형성될 수 있다.The tactile sensing member 130 is a member for image-based tactile sensing, which may be formed of an elastic material such as rubber. That is, the tactile sensing member 130 may be formed of an elastic material that is deformed in contact with the object OB and is restored to its original shape when the contact is released.

이와 같은 촉각감지부재(130)는 외부 방향으로 볼록하게 돌출된 형태로 형성될 수 있다.Such a tactile sensing member 130 may be formed to protrude convexly in an outward direction.

이와 같은 촉각감지부재(130)의 내면(즉, 접촉면인 외면에 반대되는 표면)에는, 도 3에 도시한 바와 같이, 영상 기반의 촉각센싱을 실질적으로 구현하기 위한 다수의 패턴돌기(131)가 형성될 수 있다. On the inner surface of the tactile sensing member 130 (ie, the surface opposite to the outer surface of the contact surface), as shown in FIG. 3, a plurality of pattern protrusions 131 for substantially implementing image-based tactile sensing are provided. Can be formed.

패턴돌기들(131)은 실질적으로 촉각감지부재(130)의 내면 전체를 따라 서로 일정 간격 이격되어 분포될 수 있다. 여기서, 이격 간격은 모두 동일하거나 위치에 따라 변화되도록 구성될 수 있다.The pattern protrusions 131 may be substantially spaced apart from each other by a predetermined distance along the entire inner surface of the tactile sensing member 130. Here, the spacing may be configured to be all the same or change depending on the position.

한편, 패턴돌기들(131)은, 카르테시안 좌표계 또는 폴라 좌표계 기반의 2D-to-3D 매핑 방법에 따라 촉각감지부재(130) 내면에 배치되도록 구성될 수 있다.Meanwhile, the pattern protrusions 131 may be configured to be disposed on the inner surface of the tactile sensing member 130 according to a 2D-to-3D mapping method based on a Cartesian coordinate system or a polar coordinate system.

한편, 촉각감지부재(130)의 내면을 영상 촬영(또는 캡쳐)할 때, 영상 내에서 패턴돌기들(131)의 시인성을 용이하게 확보하기 위해, 패턴돌기들(131)과 이 주변에 위치하는 촉각감지부재(130)의 내면 부분들은 서로 다른 컬러를 갖도록 형성될 수 있다.On the other hand, when capturing (or capturing) the inner surface of the tactile sensing member 130, the pattern protrusions 131 and the peripheral parts of the pattern protrusions 131 may be positioned in order to easily secure visibility of the pattern protrusions 131 in the image. Inner parts of the tactile sensor 130 may be formed to have different colors.

이와 관련하여 예를 들면, 패턴돌기들(131)의 표면은 반사특성 또는 형광특성을 갖도록 형성될 수 있다. 일예로, 백색이나 은색의 물질 반사 물질이 도포되거나 형광물질이 도포될 수 있다. 그리고, 패턴돌기들(131) 주변에 위치하는 촉각감지부재(130)의 내면 부분들은 광흡수 특성을 갖도록 검은색으로 형성될 수 있다.In this regard, for example, the surface of the pattern protrusions 131 may be formed to have reflection characteristics or fluorescence characteristics. For example, a white or silver material reflecting material may be applied or a fluorescent material may be applied. In addition, inner surface portions of the tactile sensing members 130 positioned around the pattern protrusions 131 may be formed in black so as to have light absorption characteristics.

이와 같이 패턴돌기들(131)이 촉각감지부재(130)의 내면에 형성됨으로써, 대상체(OB)에 접촉되는 경우에 패턴돌기들(131)의 분포나 위치 등이 변형되고 이와 같은 변형을 기초로 촉각센싱이 구현될 수 있다.As the pattern protrusions 131 are formed on the inner surface of the tactile sensing member 130 as described above, the distribution or position of the pattern protrusions 131 is deformed when the pattern protrusions 131 are in contact with the object OB, and based on the deformation. Tactile sensing can be implemented.

한편, 핑거(120)에는 촉각감지부재(130)의 내면을 촬영하는 촬영수단인 카메라(140)가 장착될 수 있다. 더욱이, 핑거(120)에는 촬영시 요구되는 광을 제공하는 광원으로서 예를 들어 발광다이오드(150)가 적어도 하나 장착될 수 있다.On the other hand, the finger 120 may be equipped with a camera 140 which is a photographing means for photographing the inner surface of the tactile sensing member 130. Furthermore, at least one light emitting diode 150 may be mounted on the finger 120 as a light source for providing light required for imaging.

여기서, 핑거(120)에는 단일의 카메라(140)가 장착되는 것이 바람직하다. 이와 같은 카메라(140)는, 촉각감지부재(130)의 내면을 바라보는 위치에 장착될 수 있다. 이와 관련하여 예를 들면, 핑거프레임(121)의 타끝단에는 관통홀을 덮는 리드(125)가 구비될 수 있고, 이 리드(125)의 내면에 카메라(140)가 촉각감지부재(130)의 내면을 바라보도록 배치될 수 있다. 이때, 단일의 카메라(140)는 리드(125)의 내면 중앙부에 위치하는 것이 바람직하다.Here, it is preferable that a single camera 140 is mounted on the finger 120. Such a camera 140 may be mounted at a position facing the inner surface of the tactile sensing member 130. In this regard, for example, the other end of the finger frame 121 may be provided with a lead 125 covering the through hole, the camera 140 on the inner surface of the lead 125 of the tactile sensing member 130 It may be arranged to face the inside. In this case, the single camera 140 is preferably located at the center of the inner surface of the lid 125.

그리고, 발광다이오드(150)는 핑거프레임(121)에 설치될 수 있는데, 일예로 핑거프레임(121)의 일끝단 바닥면에 설치될 수 있다. 다른 예로서, 발광다이오드(150)는 핑거프레임(121)의 내주면 하단부에 설치될 수도 있다.In addition, the light emitting diodes 150 may be installed in the finger frame 121. For example, the light emitting diodes 150 may be installed at the bottom surface of one end of the finger frame 121. As another example, the light emitting diode 150 may be installed at the lower end of the inner circumferential surface of the finger frame 121.

이와 같이 설치된 발광다이오드(150)에서 발생된 광은 촉각감지부재(130)의 내면에 제공되고, 이와 같이 광이 제공된 상태에서 카메라(140)가 촉각감지부재(130)를 촬영할 수 있다. The light generated by the light emitting diodes 150 installed as described above is provided to the inner surface of the tactile sensing member 130, and the camera 140 may photograph the tactile sensing member 130 while the light is provided.

카메라(140)에 의해 촬영된 영상인 2D(2차원) 영상으로서 촉각센싱을 위한 영상이 제어 장치(200)에 전송된다.An image for tactile sensing is transmitted to the control device 200 as a 2D (two-dimensional) image which is an image photographed by the camera 140.

제어 장치(200)는 촉각 감지 장치(100)를 전반적으로 제어하는 구성으로서, 촉각감지에 관한 촉각 감지 장치(100)의 동작을 제어할 수 있다.The control device 200 is a configuration for overall control of the tactile sensor 100, and may control an operation of the tactile sensor 100 related to tactile detection.

이와 관련하여, 제어 장치(200)는 카메라(140)의 촬영을 제어하고, 카메라(140)에 의해 촬영된 촉각감지부재(130) 내면의 2D 영상 즉 패턴돌기들(131)에 대한 2D 영상을 분석하여, 촉각센싱 정보를 획득할 수 있다. In this regard, the control device 200 controls the photographing of the camera 140 and displays a 2D image of the inner surface of the tactile sensor 130 photographed by the camera 140, that is, a 2D image of the pattern protrusions 131. By analyzing, tactile sensing information may be obtained.

이에 대해, 입력된 2D 영상에서의 패턴돌기들(131)을 특징점으로 하여 이들의 분포 패턴 또는 배열 패턴을 분석함으로써, 대상체(OB) 터치시의 센서감지부재(130)에 가해진(또는 인가된 또는 작용하는) 힘, 눌린(또는 접촉) 위치, 눌린 방향 등 다양한 촉각센싱 정보를 획득할 수 있다.On the other hand, the pattern protrusions 131 in the input 2D image are analyzed as their feature patterns and their distribution patterns or arrangement patterns, thereby being applied to (or applied to or applied to the sensor sensing member 130 when the object OB is touched). Various tactile sensing information can be obtained, such as acting force, pressed (or contacted) position, pressed direction.

더욱이, 제어 장치(200)는, 획득된 촉각센싱 정보를 기초로 하여 촉각 센싱 장치(100)를 구성하는 로봇암의 후속 동작을 제어할 수 있다.In addition, the control device 200 may control subsequent operations of the robot arm constituting the tactile sensing device 100 based on the obtained tactile sensing information.

이와 같은 제어 장치(200)는 영상 분석을 포함하여 다양한 데이터 연산 처리를 수행하는 소위 컴퓨터를 이용하여 구성될 수 있다.Such a control device 200 may be configured using a so-called computer that performs various data operation processing, including image analysis.

한편, 단일의 카메라(140)에서 촬영된 2D 영상은 평면적인 영상으로서 예를 들어 카메라 위치를 기준으로 한 거리 정보(또는 깊이정보)는 포함되어 있지 않은 상태이다. 이러한바, 대상체(OB)에 대한 눌린 위치, 눌린 방향, 3축 힘 등 보다 다양하고 정확한 촉각센싱 정보를 획득하기 위해서, 2D 영상에서 특징점인 패턴돌기(131)에 대한 거리정보(또는 깊이정보)를 추출하는 것이 바람직하다 할 것이다.Meanwhile, the 2D image photographed by the single camera 140 is a planar image, for example, does not include distance information (or depth information) based on the camera position. In order to obtain various and accurate tactile sensing information such as a pressed position, a pressed direction, and a three-axis force on the object OB, the distance information (or depth information) of the pattern protrusion 131 which is a feature point in the 2D image is obtained. It would be desirable to extract it.

이를 위해, 본 실시예에서는, 제어 장치(200)는 인공지능 기술인 딥러닝 네트워크(210)를 이용하도록 구성될 수 있다. To this end, in the present embodiment, the control device 200 may be configured to use the deep learning network 210, which is an artificial intelligence technology.

이와 관련하여 예를 들면, 도 4에 도시한 바와 같이, 2대의 카메라(145) 즉 스테레오용 듀얼 카메라(145)를 이용하여, 다양한 접촉 환경에서, 3D 영상에 해당되는 시차 맵(disparity map) (또는 시창 영상 또는 스테레오(stereo) 영상)을 생성하고 이를 딥러닝 학습용 데이터베이스로 구축할 수 있다. 여기서, 딥러닝 학습용 데이터베이스에는, 각 시차 맵에 대해 이에 대응되는 2대의 스테레오용 듀얼 카메라(145) 중 하나에 의해 생성된 2D 영상이 함께 저장될 수 있다.In this regard, for example, as shown in FIG. 4, by using two cameras 145, that is, dual cameras 145 for stereo, a disparity map corresponding to a 3D image in various contact environments ( Alternatively, a sight glass image or a stereo image may be generated and built as a database for deep learning learning. Here, in the deep learning database, 2D images generated by one of two stereo dual cameras 145 corresponding to each parallax map may be stored together.

한편, 도 4는 딥러닝 학습용 데이터베이스 구축을 수행하는 과정에서 사용되는 핑거(120)의 구조를 개략적으로 도시한 것으로서, 도 2의 촉각센싱 과정에서의 핑거(120)의 구조와 비교할 때, 서로 일정 간격 이격된 2대의 스테레오용 듀얼 카메라(145)가 리드(125)의 내면에 촉각감지부재(130)의 내면을 바라보도록 배치될 수 있다.On the other hand, Figure 4 schematically shows the structure of the finger 120 used in the process of building a database for learning deep learning, compared with the structure of the finger 120 in the tactile sensing process of Figure 2, it is constant with each other Two stereo dual cameras 145 spaced apart may be disposed to face the inner surface of the tactile sensing member 130 on the inner surface of the lid 125.

제어 장치(200)는 딥러닝 네트워크를 통해 딥러닝 학습용 데이터베이스를 학습함으로써, 단일 카메라(140)를 통해 촬영된 2D 영상에 대한 거리 정보를 보다 정확하게 추측(또는 예측)할 수 있게 된다.The control apparatus 200 may learn the deep learning learning database through the deep learning network, thereby more accurately inferring (or predicting) the distance information of the 2D image captured by the single camera 140.

이와 관련하여 도 5 및 6을 참조할 수 있다. In this regard, reference may be made to FIGS. 5 and 6.

도 5는 본 발명의 실시예에 따른 딥러닝 학습용 데이터베이스를 설명하기 위한 도면이다. 이와 같은 학습용 데이터베이스에는 스테레오용 카메라를 통해 생성된 각 시차 맵과 이에 대응되는 2D 영상이 데이터베이스화될 수 있다.5 is a diagram for describing a deep learning database according to an embodiment of the present invention. In such a learning database, each parallax map generated by a stereo camera and a 2D image corresponding thereto may be databased.

그리고, 도 6은 본 발명의 실시예에 따른 딥러닝 기반의 거리 추출 과정을 설명하기 위한 도면이다. 촉각센싱 과정에서, 제어 장치(200)에 설치된 딥러닝 네트워크(210)는 입력된 2D 영상에 대해 딥러닝 학습을 기초로 하여 해당 시차 맵을 생성할 수 있다. 즉, 딥러닝 학습 정보를 기초로, 단일 카메라(140)에 의해 입력된 2D 영상에 대해 거리 정보를 예측하고 이 거리 정보를 반영한 시차 맵이 생성될 수 있다.6 is a view for explaining a deep learning based distance extraction process according to an embodiment of the present invention. In the tactile sensing process, the deep learning network 210 installed in the control device 200 may generate a corresponding parallax map based on deep learning learning on the input 2D image. That is, based on the deep learning learning information, a parallax map may be generated by predicting distance information on the 2D image input by the single camera 140 and reflecting the distance information.

위와 같이, 본 실시예에서는 딥러닝 기술을 이용하여 2D 영상에 대해 정확도가 높은 거리 정보를 추출할 수 있게 된다. 이에 따라, 단일 카메라(140)를 이용하면서도 듀얼카메라를 사용한 경우와 실질적으로 동등 수준의 촉각센싱을 효과적으로 구현할 수 있는 장점이 있다.As described above, in the present exemplary embodiment, distance information with high accuracy can be extracted from a 2D image using a deep learning technique. Accordingly, there is an advantage that it is possible to effectively implement a tactile sensing substantially equivalent to the case of using a dual camera while using a single camera 140.

한편, 시차 맵을 생성하기 위한 딥러닝 네트워크(210)는, 예를 들면 도 6의 하부에 도시한 GAN 기반의 네트워크를 이용할 수 있다.Meanwhile, the deep learning network 210 for generating the disparity map may use, for example, a GAN based network shown in the lower part of FIG. 6.

한편, 제어 장치(200)에서의 영상패턴 분석을 통한 촉각센싱 과정에 대해 도 7을 참조할 수 있다. 도 7은 본 발명의 실시예에 따른 제어 장치의 패턴분석부에서의 영상패턴 분석 과정을 도시한 도면이다.Meanwhile, referring to FIG. 7, a tactile sensing process through image pattern analysis in the control apparatus 200 may be referred to. 7 is a view illustrating an image pattern analysis process in the pattern analyzer of the control device according to an embodiment of the present invention.

도 7을 참조하면, 제어 장치(200)에는 패턴분석부가 구비될 수 있으며, 이 패턴분석부는 단일 카메라(140)에 의해 촬영된 2D 영상을 입력받고 이를 보정(즉, 캘리브레이션)하여 보정된 2D 영상을 생성할 수 있다. 이와 관련하여, 사전에 준비된 변환행렬(transform matrix)을 통해 입력 영상의 패턴돌기들(131) 즉 특징점들의 위치를 변환함으로써 캘리브레이션된 보정 2D 영상이 생성될 수 있다.Referring to FIG. 7, the control device 200 may be provided with a pattern analyzer, which receives a 2D image captured by a single camera 140 and corrects (ie, calibrates) the 2D image. Can be generated. In this regard, a calibrated corrected 2D image may be generated by converting the positions of the pattern protrusions 131, that is, the feature points of the input image, through a previously prepared transform matrix.

이와 같은 보정 2D 영상은, 기준(reference) 2D 영상과 비교되어 평면적 즉 2D(이차원) 패턴 분석이 수행될 수 있다. 여기서, 기준 2D 영상은, 단일의 카메라(140)를 통해 무접촉 상태 즉 원형 상태의 촉각감지부재(130)의 내면을 촬영한 영상에 해당된다.Such a corrected 2D image may be compared with a reference 2D image to perform planar, that is, 2D (two-dimensional) pattern analysis. Here, the reference 2D image corresponds to an image photographing the inner surface of the tactile sensing member 130 in a non-contact state, that is, a circular state, through a single camera 140.

이와 같은 기준 2D 영상을 기초로 한 보정 2D 영상의 패턴 분석은 실질적으로 거리정보가 반영되지 않은 것으로서, 이 2D 패턴 분석에서는 기준 2D 영상의 특징점들(즉, 기준 특징점들)을 기준으로 이들 각각에 대응되는 보정 2D 영상 내의 특징점들의 2D 위치 변이(또는 변화)를 추출할 수 있다. 즉, 특징점들의 배열 패턴의 2D 변이를 추출할 수 있다.The pattern analysis of the corrected 2D image based on the reference 2D image does not substantially reflect the distance information. In this 2D pattern analysis, each of them is based on the feature points (ie, reference feature points) of the reference 2D image. A 2D position shift (or change) of feature points in the corresponding corrected 2D image may be extracted. That is, 2D variation of the arrangement pattern of the feature points may be extracted.

이와 같은 2D 패턴 분석에서의 특징점들의 위치 변이를 통해, 대상체(OB)에 의해 눌린 위치, 형상 등을 검출할 수 있다.Through the position shift of the feature points in the 2D pattern analysis, the position, shape, etc. pressed by the object OB may be detected.

한편, 단일 카메라(140)에 의해 촬영된 2D 영상 입력시, 딥러닝 네트워크(210)에 의해 생성된 시차 맵이 패턴분석부에 입력될 수 있으며, 입력된 시차 맵은 보정 2D 영상 생성과 연동되어 보정될 수 있다.Meanwhile, when inputting a 2D image captured by a single camera 140, the disparity map generated by the deep learning network 210 may be input to the pattern analyzer, and the input disparity map is linked with the generation of the corrected 2D image. Can be corrected.

다음으로, 2D 패턴 분석 정보에 거리 정보(z)가 부가된 3D 패턴 분석 정보가 생성될 수 있다. 이와 같은 거리 정보(z)는, 2D 영상과 함께 입력된 시차 맵에서 추출될 수 있다. Next, 3D pattern analysis information in which distance information z is added to 2D pattern analysis information may be generated. Such distance information z may be extracted from a parallax map input together with a 2D image.

한편, 2D 패턴 분석 정보를 기초로 한 거리 정보가 시차 맵의 거리 정보에 반영되어, 거리 정보(z)의 정확도가 향상될 수도 있다. 이에 대해, 2D 패턴 분석에서의 위치 변화는 거리 변화와 관련되어 있으므로, 2D 패턴 분석 정보를 기초로 한 거리 정보가 시차 맵의 거리 정보에 반영되어, 정확도가 향상된 거리 정보(z)가 추출될 수 있다.Meanwhile, the distance information based on the 2D pattern analysis information is reflected in the distance information of the parallax map, so that the accuracy of the distance information z may be improved. On the other hand, since the position change in the 2D pattern analysis is related to the distance change, the distance information based on the 2D pattern analysis information is reflected in the distance information of the parallax map, so that the distance information z with improved accuracy can be extracted. have.

위와 같은 과정에 따라, 2D 패턴 분석 정보에 거리 정보(z)가 포함된 3D 패턴 정보가 획득될 수 있다.According to the above process, 3D pattern information including distance information z may be obtained in the 2D pattern analysis information.

이와 같이 획득된 거리 정보가 포함된 3D 패턴 정보를 분석하여, 대상체(OB)에 의해 눌린 힘과 방향을 산출할 수 있다.The force and direction pressed by the object OB may be calculated by analyzing the 3D pattern information including the obtained distance information.

한편, 제어 장치(200)에는 특징점 추출을 위한 특징점 추출부가 구성될 수 있으며 이 특징점 추출부는 강인한 특징점 추출을 위한 알고리즘을 이용할 수 있다.On the other hand, the control device 200 may be configured with a feature point extraction unit for feature point extraction, the feature point extraction unit may use an algorithm for robust feature point extraction.

이와 관련하여 도 8을 참조할 수 있는데, 특징점 추출 알고리즘은 특징점 추출부에 입력된 입력 영상(또는 소스 영상)을 이진화 영상으로 변환하는 것을 포함하는 이진화 프로세스 즉 스레스홀딩(thresholding) 프로세스와, 픽셀 레벨에서의 그룹핑(grouping) 프로세스와, 블럽레벨에서의 머징(merging) 프로세스와, 필터링(filtering) 프로세스와, 볼검출 즉 센터 및 반경 산출 프로세스 등의 단계들을 포함할 수 있다.In this regard, referring to FIG. 8, the feature extraction algorithm may include a binarization process, that is, a thresholding process and a pixel including converting an input image (or a source image) input to a feature extraction unit into a binarization image. It may include the grouping process at the level, the merging process at the blob level, the filtering process, and the ball detection, ie, the center and radius calculation processes.

도 9에는, 입력 영상에 특징점 추출 알고리즘을 적용하여 특징점을 추출한 결과가 도시되어 있다.9 shows a result of extracting feature points by applying a feature point extraction algorithm to an input image.

한편, 제어 장치(200)에는 촉각센싱 대상체(OB)에 의해 눌린 형상(또는 모양)을 검출하는 형상 검출부가 구성될 수 있으며 이 형상 검출부는 정확한 형상 검출을 위한 알고리즘을 이용할 수 있다. 한편, 형상 검출부는, 전술한 패턴분석부에 포함되거나 별도로 구성될 수 있으며, 2D 패턴 분석 정보를 이용할 수 있다.On the other hand, the control device 200 may be configured with a shape detector for detecting the shape (or shape) pressed by the tactile sensing object (OB), the shape detector may use an algorithm for accurate shape detection. The shape detector may be included in the pattern analyzer or may be separately configured, and may use 2D pattern analysis information.

도 10을 참조하면, 형상 검출 알고리즘은 오프라인 페이스(offline phase)와 온라인 페이스(online phase)를 포함할 수 있다.Referring to FIG. 10, the shape detection algorithm may include an offline phase and an online phase.

촉각센싱 수행 전의 오프라인 페이스에서는, 무접촉 상태의 입력 영상들을 평균화하여 평균 백그라운드(mBG)를 산출하고, 이를 온라인페이스에 사용할 수 있도록 저장하게 된다.In the off-line face before performing tactile sensing, an average background (mBG) is calculated by averaging contactless input images and stored for use in an online face.

촉각센싱이 수행되는 온라인 페이스에서는, 입력 영상에 대해 특징점들(key points)을 검출하고, 특징점들에 대한 특성(feature)을 산출하고, SVM 분류기(classifier)를 통해 형상을 추정할 수 있다.In an online face where tactile sensing is performed, key points may be detected for the input image, a feature may be calculated for the feature points, and the shape may be estimated through an SVM classifier.

여기서, 특징점들의 특성은, 특징점들의 개수(nK), 특징점 크기의 평균(mS), 특징점들의 표준편차(sS), 백그라운드(mBG)와 입력 영상 사이의 평균 차이(또는 평균 차분 영상)(mD)를 포함할 수 있다.Here, the characteristic of the feature points is the number of feature points (nK), the mean of the feature points (mS), the standard deviation of the feature points (sS), the average difference (or mean difference image) (mD) between the background (mBG) and the input image It may include.

SVM 분류기는 형상 분류기로서, 사전에 정의되고 분류된 다수의 형상들 중 입력 영상의 특징점들의 특성에 대응되는 형상을 출력할 수 있다. 일예를 들면, 삼각형, 사각형, 또는 무접촉 상태 등이 정의될 수 있고, 이들 중 입력 영상의 특성에 대응되는 형상이 선택되어 출력될 수 있다.The SVM classifier is a shape classifier and may output a shape corresponding to a characteristic of feature points of an input image among a plurality of predefined and classified shapes. For example, a triangle, a quadrangle, or a contactless state may be defined, and a shape corresponding to the characteristic of the input image may be selected and output from among them.

한편, 제어 장치(200)는 위와 같이 추출된 형상과 특징점들의 분포 패턴을 이용하여 대상체(OB)의 접촉면의 면적 즉 눌린 면적을 산출할 수 있다.Meanwhile, the control device 200 may calculate the area of the contact surface of the object OB, that is, the pressed area, by using the extracted shape and the distribution pattern of the feature points.

한편, 제어 장치(200)는 위와 같이 추출된 형상과 특징점들의 분포 패턴을 이용하여 눌린 힘 보다 상세하게는 3축 힘의 크기 및/또는 방향을 산출할 수 있다.Meanwhile, the control device 200 may calculate the magnitude and / or direction of the triaxial force in more detail than the pressed force using the extracted shape and the distribution pattern of the feature points.

3축 힘의 산출과 관련하여 도 11을 참조할 수 있는데, 입력 영상에 대해 특징점을 추출하고, 힘의 위치와 방향을 검출할 수 있다. 그 후, 특징점들을 분석하여 힘이 가해진 방향을 확인한 후, 해당 방향에서의 패턴돌기들의 패턴 형태와 주변 돌기들의 패턴 형태를 분석하여 최종 힘을 계산한다.Referring to FIG. 11 regarding the calculation of the three-axis force, feature points may be extracted from the input image, and the position and direction of the force may be detected. After analyzing the feature points to confirm the direction in which the force is applied, the final force is calculated by analyzing the pattern shape of the pattern protrusions and the pattern shape of the surrounding protrusions in the corresponding direction.

전술한 바와 같이, 본 발명의 실시예에서는, 새로운 방식의 효율적인 촉각센싱 기술을 제공하게 되는데, 시차 맵을 이용한 딥러닝 기반의 학습 기법을 통해 단일 카메라에 의해 촬영된 2D 영상에 대해 거리정보를 검출하여 고성능의 촉각센싱을 수행하는 기술을 제공하게 된다.As described above, an embodiment of the present invention provides a new method of efficient tactile sensing technology, which detects distance information on a 2D image captured by a single camera through a deep learning based learning technique using parallax maps. It provides a technology for performing high performance tactile sensing.

이에 따라, 촉각센싱 능력이 진화된 로봇을 구현할 수 있어, 로봇 산업이 획기적으로 발전될 수 있다.Accordingly, it is possible to implement a robot in which the tactile sensing capability has evolved, and the robot industry can be greatly developed.

한편, 전술한 본 발명의 실시예의 촉각센싱 방법은 컴퓨터를 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical), 및 롬(ROM), 램(RAM), 플래시 메모리 등을 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 일 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Meanwhile, the tactile sensing method according to the embodiment of the present invention described above may be embodied in the form of program instructions that can be executed through a computer and recorded in a computer readable medium. Computer-readable media may include, alone or in combination with the program instructions, data files, data structures, and the like. The program instructions recorded on the media may be those specially designed and constructed for the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical, and ROM, RAM, flash memory and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of one embodiment of the present invention, and vice versa.

전술한 본 발명의 실시예는 본 발명의 일예로서, 본 발명의 정신에 포함되는 범위 내에서 자유로운 변형이 가능하다. 따라서, 본 발명은, 첨부된 특허청구범위 및 이와 등가되는 범위 내에서의 본 발명의 변형을 포함한다.Embodiment of the present invention described above is an example of the present invention, it is possible to change freely within the scope included in the spirit of the present invention. Accordingly, the invention includes modifications of the invention within the scope of the appended claims and their equivalents.

10: 촉각 센싱 시스템 100: 촉각 감지 장치
110: 로봇암 본체 120: 핑거
121: 핑거 프레임 125: 리드
130: 촉각감지부재 131: 패턴돌기
140: 카메라 150: 발광다이오드
200: 제어장치 210: 딥러닝 네트워크
10: tactile sensing system 100: tactile sensing device
110: robot arm body 120: finger
121: finger frame 125: lead
130: tactile sensing member 131: pattern protrusion
140: camera 150: light emitting diode
200: controller 210: deep learning network

Claims (6)

내면에 다수의 돌기패턴이 형성된 촉감감지부재와, 상기 촉감감지부재의 내면을 촬영하는 단일 카메라를 포함하는 핑거를 구비한 촉각감지장치와;
딥러닝 네트워크를 이용하여 상기 단일 카메라에서 입력된 2D 영상에 대해 거리정보가 포함된 시차 맵을 생성하고, 상기 2D 영상 및 시차 맵을 기초로 촉각센싱 정보를 획득하는 제어 장치
를 포함하는 촉각 센싱 시스템.
A tactile sensing device comprising a tactile sensing member having a plurality of protrusion patterns formed therein and a finger including a single camera photographing the inner surface of the tactile sensing member;
Control device for generating a parallax map including distance information on the 2D image input from the single camera using a deep learning network, and obtains tactile sensing information based on the 2D image and parallax map
Tactile sensing system comprising a.
제 1 항에 있어서,
상기 딥러닝 네트워크는,
스테레오용 듀얼 카메라를 통해 생성된 시차 맵과 이에 대응되는 상기 스테레어용 듀얼 카메라 중 하나에 의해 생성된 2D 영상으로 구축된 딥러닝 학습용 데이터베이스를 학습하고,
상기 딥러닝 학습용 데이터베이스에 대한 학습 정보를 기초로, 상기 단일 카메라에서 입력된 2D 영상에 대한 시차 맵을 생성하는
촉각 센싱 시스템.
The method of claim 1,
The deep learning network,
Study a deep learning database constructed from a parallax map generated through a dual camera for stereo and a 2D image generated by one of the dual cameras corresponding to the stereo,
Generating a parallax map for the 2D image input from the single camera based on the learning information about the deep learning database
Tactile sensing system.
제 1 항에 있어서,
상기 딥러닝 네트워크는 GAN 기반 네트워크로 구성된
촉각 센싱 시스템.
The method of claim 1,
The deep learning network is composed of a GAN-based network
Tactile sensing system.
제 1 항에 있어서,
상기 제어 장치는,
상기 2D 영상을 캘리브레이션(calibration)하여 보정 2D 영상을 생성하고,
무접촉 상태의 기준 2D 영상을 기준으로 상기 보정 2D 영상을 비교하여, 상기 패턴돌기의 위치 변이에 관한 2D 패턴 분석 정보를 검출하고,
상기 2D 패턴 분석 정보에 상기 시차 맵의 거리 정보가 부가된 3D 패턴 정보를 분석하는
촉각 센싱 시스템.
The method of claim 1,
The control device,
Generate a corrected 2D image by calibrating the 2D image,
Comparing the corrected 2D image on the basis of the reference 2D image of the contactless state, to detect the 2D pattern analysis information about the position shift of the pattern projection,
Analyzing 3D pattern information to which the distance information of the parallax map is added to the 2D pattern analysis information
Tactile sensing system.
제 1 항에 있어서,
상기 촉각센싱 정보는, 눌린 위치, 눌린 방향, 가해진 힘을 포함하는
촉각 센싱 시스템.
The method of claim 1,
The tactile sensing information includes a pressed position, a pressed direction, and an applied force
Tactile sensing system.
제 1 항에 있어서,
상기 핑거는,
내부에 관통홀이 형성된 튜브 형상을 갖고, 일끝단에 상기 촉각감지부재가 결합된 핑거프레임과;
상기 핑거프레임의 타끝단에 결합되어 상기 관통홀을 덮고, 내면에 상기 단일 카메라가 장착된 리드를 포함하는
촉각 센싱 시스템.
The method of claim 1,
The finger is,
A finger frame having a tube shape having a through hole formed therein and having the tactile sensing member coupled to one end thereof;
A lead coupled to the other end of the finger frame to cover the through hole and having the single camera mounted on an inner surface thereof;
Tactile sensing system.
KR1020180142739A 2018-02-27 2018-11-19 Camera-based tactile sensor system KR20190102973A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180023634 2018-02-27
KR20180023634 2018-02-27

Publications (1)

Publication Number Publication Date
KR20190102973A true KR20190102973A (en) 2019-09-04

Family

ID=67950427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180142739A KR20190102973A (en) 2018-02-27 2018-11-19 Camera-based tactile sensor system

Country Status (1)

Country Link
KR (1) KR20190102973A (en)

Similar Documents

Publication Publication Date Title
CN109255813B (en) Man-machine cooperation oriented hand-held object pose real-time detection method
Calandra et al. The feeling of success: Does touch sensing help predict grasp outcomes?
US9757862B2 (en) Tactile sensor
TWI566204B (en) Three dimensional object recognition
KR100920931B1 (en) Method for object pose recognition of robot by using TOF camera
EP3159126A1 (en) Device and method for recognizing location of mobile robot by means of edge-based readjustment
US11654571B2 (en) Three-dimensional data generation device and robot control system
Aggarwal et al. Haptic Object Recognition in Underwater and Deep‐sea Environments
JP2008506953A (en) Method and apparatus for machine vision
JP2015056057A (en) Method of estimating posture and robot
JP6677522B2 (en) Information processing apparatus, control method for information processing apparatus, and program
CN103959307A (en) Method of detecting and describing features from an intensity image
Song et al. DOE-based structured-light method for accurate 3D sensing
JP2018119833A (en) Information processing device, system, estimation method, computer program, and storage medium
JP2019164842A (en) Human body action analysis method, human body action analysis device, equipment, and computer-readable storage medium
US20180297215A1 (en) Eye In-Hand Robot
CN114502937A (en) Tactile sensor
Li et al. End-to-end pixelwise surface normal estimation with convolutional neural networks and shape reconstruction using GelSight sensor
Zhang et al. Finding disaster victims: A sensory system for robot-assisted 3D mapping of urban search and rescue environments
Andrussow et al. Minsight: A Fingertip‐Sized Vision‐Based Tactile Sensor for Robotic Manipulation
KR20190102973A (en) Camera-based tactile sensor system
US20230044371A1 (en) Defect detection in a point cloud
US20220405506A1 (en) Systems and methods for a vision guided end effector
JP7184203B2 (en) Image processing device, three-dimensional measurement system, image processing method
Padeleris et al. Multicamera tracking of multiple humans based on colored visual hulls

Legal Events

Date Code Title Description
A201 Request for examination