KR102164395B1 - Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof - Google Patents

Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof Download PDF

Info

Publication number
KR102164395B1
KR102164395B1 KR1020180160018A KR20180160018A KR102164395B1 KR 102164395 B1 KR102164395 B1 KR 102164395B1 KR 1020180160018 A KR1020180160018 A KR 1020180160018A KR 20180160018 A KR20180160018 A KR 20180160018A KR 102164395 B1 KR102164395 B1 KR 102164395B1
Authority
KR
South Korea
Prior art keywords
neural network
feature points
tracking
learning
data
Prior art date
Application number
KR1020180160018A
Other languages
Korean (ko)
Other versions
KR20200072157A (en
Inventor
김태근
이응준
Original Assignee
세종대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교 산학협력단 filed Critical 세종대학교 산학협력단
Priority to KR1020180160018A priority Critical patent/KR102164395B1/en
Publication of KR20200072157A publication Critical patent/KR20200072157A/en
Application granted granted Critical
Publication of KR102164395B1 publication Critical patent/KR102164395B1/en

Links

Images

Classifications

    • G06K9/00201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06K9/4671
    • G06K9/6211
    • G06K9/76
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/004Recording, reproducing or erasing methods; Read, write or erase circuits therefor
    • G11B7/0065Recording, reproducing or erasing by using optical interference patterns, e.g. holograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치 및 그 방법에 관한 것이다. 본 발명에 따르면, 상기 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램 데이터를 획득하는 단계와, 상기 홀로그램 데이터를 기 학습된 제1 CNN 신경망에 입력시켜 상기 물체의 깊이 위치를 추출하는 단계와, 상기 깊이 위치를 이용하여 상기 물체의 홀로그램 영상을 복원하는 단계와, 상기 홀로그램 영상을 기 학습된 제2 CNN 신경망에 입력시켜 상기 물체의 종류를 인식하는 단계와, 상기 홀로그램 영상 내에서 추출된 상기 물체의 특징점들과 상기 인식된 종류의 물체에 대응하여 기 저장된 특징점들을 상호 비교하여, 상기 추출된 특징점들의 2차원 위치를 추출하는 단계, 및 상기 깊이 위치 및 상기 특징점들의 2차원 위치를 이용하여 상기 물체의 3차원 위치를 추적하는 단계를 포함하는 3차원 물체 인식 및 추적 방법을 제공한다.
본 발명에 따르면, 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용하여 물체의 홀로그램 데이터로부터 물체의 깊이 위치를 추출하고 깊이 위치에서 복원된 홀로그램 영상으로부터 물체의 종류를 인식하며 인식된 물체의 특징점들의 2차원 위치를 추출하여 최종적으로 물체의 3차원 위치를 획득 및 추적할 수 있다.
The present invention relates to a 3D object recognition and tracking apparatus and method using optical scanning holography and a convolutional neural network. According to the present invention, the steps of obtaining hologram data of an object using the optical scanning holography, extracting the depth position of the object by inputting the hologram data into a pre-learned first CNN neural network, and the depth position Restoring a holographic image of the object using, recognizing the type of the object by inputting the holographic image to a pre-learned second CNN neural network, and feature points of the object extracted from the holographic image And extracting a two-dimensional position of the extracted feature points by comparing pre-stored feature points corresponding to the recognized type of object, and using the depth position and the two-dimensional position of the feature points It provides a three-dimensional object recognition and tracking method comprising the step of tracking the location.
According to the present invention, a depth position of an object is extracted from hologram data of an object using optical scanning holography and a convolutional neural network, and the type of object is recognized from a holographic image reconstructed from the depth position, By extracting the dimensional position, it is possible to finally acquire and track the 3D position of the object.

Description

광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치 및 그 방법{Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof}TECHNICAL FIELD [Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof] using optical scanning holography and convolutional neural network

본 발명은 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치 및 그 방법에 관한 것으로, 보다 상세하게는 홀로그램 데이터와 딥 러닝 기법을 이용하여 물체의 종류 인식 및 3차원 위치 추적을 수행할 수 있는 3차원 물체 인식 및 추적 장치 및 그 방법에 관한 것이다.The present invention relates to a three-dimensional object recognition and tracking apparatus and method using optical scanning holography and a convolutional neural network, and more particularly, to recognize an object type and three-dimensional position tracking using holographic data and deep learning techniques. It relates to a 3D object recognition and tracking apparatus and method capable of performing.

최근 딥 러닝 기술은 비약적인 발전과 함께 다양한 응용 분야에 접목되고 있다. 특히, 영상 인식 분야에서는 고도화된 알고리즘의 집합체인 딥 러닝 기술을 이용하여 다양하고 복잡한 비정형 영상 데이터를 효율적으로 분석 및 처리할 수 있어 다양한 용도로 응용되고 있다.Recently, deep learning technology has been grafted into various application fields with rapid development. In particular, in the field of image recognition, a variety of complex unstructured image data can be efficiently analyzed and processed using deep learning technology, which is a collection of advanced algorithms, and thus has been applied for various purposes.

하지만, 일반적인 영상 인식 기술에서 사용되는 영상 데이터는 깊이 정보가 없고 빛의 세기 정보만 가지고 있는 2차원 정보에 해당하므로, 이러한 2차원 영상 정보만으로는 해당 물체에 대한 3차원 공간의 깊이 위치를 인식하기에는 한계가 따른다.However, since the image data used in general image recognition technology corresponds to 2D information that has no depth information and only light intensity information, it is difficult to recognize the depth position of the 3D space for the object only with this 2D image information. Follows.

2차원 영상과는 달리 홀로그램 데이터는 깊이 정보를 가지고 있다. 하지만, 이처럼 깊이 정보를 갖고 있는 홀로그램 데이터의 경우 일반적인 2차원 영상보다 데이터량이 많기 때문에 많은 연산량과 시간이 소요된다. Unlike 2D images, hologram data has depth information. However, in the case of hologram data having depth information, since the amount of data is larger than that of a general 2D image, a large amount of computation and time are required.

따라서 이러한 문제들을 해결하기 위해서는 3차원 공간에 대한 깊이 정보를 가지고 있는 홀로그램 데이터와 기존의 딥 러닝 기술을 병합한 새로운 3차원 인식 기술이 요구된다.Therefore, in order to solve these problems, a new 3D recognition technology is required that combines hologram data having depth information on a 3D space and an existing deep learning technology.

본 발명의 배경이 되는 기술은 한국공개특허 제2013-0081127호(2013.07.16 공개)에 있다.The technology behind the present invention is in Korean Patent Application Publication No. 2013-0081127 (published on July 16, 2013).

본 발명은 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용하여 물체의 인식 및 3차원 위치 추적이 가능한 3차원 물체 인식 및 추적 장치 및 그 방법을 제공하는데 목적이 있다.An object of the present invention is to provide a 3D object recognition and tracking apparatus and method capable of recognizing an object and tracking a 3D position using optical scanning holography and a convolutional neural network.

본 발명은, 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치에서의 3차원 물체 인식 및 추적 방법에 있어서, 상기 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램 데이터를 획득하는 단계와, 상기 홀로그램 데이터를 기 학습된 제1 CNN 신경망에 입력시켜 상기 물체의 깊이 위치를 추출하는 단계와, 상기 홀로그램 데이터와 상기 깊이 위치를 이용하여 상기 깊이 위치에서 물체의 홀로그램 영상을 2차원으로 복원하는 단계와, 상기 홀로그램 영상을 기 학습된 제2 CNN 신경망에 입력시켜 상기 물체의 종류를 인식하는 단계와, 상기 홀로그램 영상에서 추출된 상기 물체의 특징점들과 상기 인식된 종류의 물체에 대응하여 기 저장된 특징점들을 상호 비교하여, 상기 추출된 특징점들의 2차원 위치를 추출하는 단계, 및 상기 깊이 위치 및 상기 특징점들의 2차원 위치를 이용하여 상기 물체의 3차원 위치를 추적하는 단계를 포함하는 3차원 물체 인식 및 추적 방법을 제공한다.The present invention provides a method for recognizing and tracking a 3D object in a 3D object recognition and tracking apparatus using optical scanning holography and a convolutional neural network, the method comprising: acquiring hologram data of an object by using the optical scanning holography; , Extracting the depth position of the object by inputting the hologram data into a pre-learned first CNN neural network, and restoring a holographic image of the object in two dimensions at the depth position using the hologram data and the depth position. And recognizing the type of the object by inputting the holographic image into a pre-learned second CNN neural network; and pre-stored corresponding to the object's feature points extracted from the holographic image and the recognized type. 3D object recognition comprising comparing the feature points with each other, extracting the two-dimensional position of the extracted feature points, and tracking the three-dimensional position of the object using the depth position and the two-dimensional position of the feature points And a tracking method.

또한, 상기 3차원 물체 인식 및 추적 방법은, 복수의 깊이 위치 별로 학습용 물체에 대해 기 획득한 홀로그램 데이터 및 그에 대응되는 깊이 위치를 학습 데이터로 사용하여 상기 제1 CNN 신경망을 학습시키는 단계를 더 포함할 수 있다.In addition, the 3D object recognition and tracking method further includes the step of training the first CNN neural network using hologram data previously acquired for the learning object for each of a plurality of depth positions and depth positions corresponding thereto as training data. can do.

또한, 상기 제1 CNN 신경망은, 복수의 깊이 위치 별로 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 깊이 위치를 학습 데이터로 사용하며, 상기 특징 정보는, 물체 주변에 형성되는 간섭 무늬인 프린지 패턴의 특징일 수 있다.In addition, the first CNN neural network uses feature information extracted from hologram data of a learning object for each of a plurality of depth locations and a depth location corresponding thereto as training data, and the feature information is an interference fringe formed around the object. It may be a feature of the fringe pattern.

또한, 상기 3차원 물체 인식 및 추적 방법은, 학습용 물체에 대한 홀로그램 영상 및 그에 대응되는 상기 학습용 물체의 종류를 학습 데이터로 사용하여 상기 제2 CNN 신경망을 학습시키는 단계를 더 포함할 수 있다.In addition, the 3D object recognition and tracking method may further include training the second CNN neural network by using a hologram image of a learning object and a type of the learning object corresponding thereto as training data.

또한, 상기 특징점들의 2차원 위치를 추출하는 단계는, 상기 홀로그램 영상에 SURF(Speed Up Robust Feature) 알고리즘을 적용하여 상기 물체의 특징점들을 추출하고, 상기 추출한 특징점들과 상기 기 저장된 특징점들을 상호 매칭하여, 상기 추출한 특징점들에 대한 2차원 위치를 추출할 수 있다.In addition, the step of extracting the two-dimensional position of the feature points may include extracting feature points of the object by applying a SURF (Speed Up Robust Feature) algorithm to the hologram image, and matching the extracted feature points with the previously stored feature points. , It is possible to extract the two-dimensional position of the extracted feature points.

그리고, 본 발명은, 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치에 있어서, 상기 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램 데이터를 획득하는 획득부와, 상기 홀로그램 데이터를 기 학습된 제1 CNN 신경망에 입력시켜 상기 물체의 깊이 위치를 추출하는 제1 추출부와, 상기 홀로그램 데이터와 상기 깊이 위치를 이용하여 상기 깊이 위치에서 물체의 홀로그램 영상을 2차원으로 복원하는 복원부와, 상기 홀로그램 영상을 기 학습된 제2 CNN 신경망에 입력시켜 상기 물체의 종류를 인식하는 인식부와, 상기 홀로그램 영상 내에서 추출된 상기 물체의 특징점들과 상기 인식된 종류의 물체에 대응하여 기 저장된 특징점들을 상호 비교하여, 상기 추출된 특징점들의 2차원 위치를 추출하는 제2 추출부, 및 상기 깊이 위치 및 상기 특징점들의 2차원 위치를 이용하여 상기 물체의 3차원 위치를 추적하는 추적부를 포함하는 3차원 물체 인식 및 추적 장치를 제공한다.In addition, the present invention provides an apparatus for recognizing and tracking a 3D object using optical scanning holography and a convolutional neural network, an acquisition unit that acquires hologram data of an object using the optical scanning holography, and the hologram data. A first extractor for extracting the depth position of the object by inputting it into the learned first CNN neural network, and a restoration unit for restoring a holographic image of the object in two dimensions at the depth position using the hologram data and the depth position; , A recognition unit for recognizing the type of the object by inputting the holographic image to a pre-learned second CNN neural network, and a pre-stored corresponding to the feature points of the object extracted from the holographic image and the recognized type of object. 3 including a second extracting unit for comparing the feature points with each other to extract the two-dimensional position of the extracted feature points, and a tracking unit for tracking the three-dimensional position of the object using the depth position and the two-dimensional position of the feature points It provides a dimensional object recognition and tracking device.

또한, 상기 3차원 물체 인식 및 추적 장치는, 복수의 깊이 위치 별로 학습용 물체에 대해 기 획득한 홀로그램 데이터 및 그에 대응되는 깊이 위치를 학습 데이터로 사용하여 상기 제1 CNN 신경망을 학습시키는 제1 학습부를 더 포함할 수 있다.In addition, the 3D object recognition and tracking apparatus is a first learning unit for training the first CNN neural network by using the hologram data previously acquired for the learning object for each depth position and the corresponding depth position as training data. It may contain more.

또한, 상기 3차원 물체 인식 및 추적 장치는, 학습용 물체에 대한 홀로그램 영상 및 그에 대응되는 상기 학습용 물체의 종류를 학습 데이터로 사용하여 상기 제2 CNN 신경망을 학습시키는 제2 학습부를 더 포함할 수 있다.In addition, the 3D object recognition and tracking apparatus may further include a second learning unit for training the second CNN neural network by using a holographic image of a learning object and a type of the learning object corresponding thereto as training data. .

또한, 상기 제2 추출부는, 상기 홀로그램 영상에 SURF(Speed Up Robust Feature) 알고리즘을 적용하여 상기 물체의 특징점들을 추출하고, 상기 추출한 특징점들과 상기 기 저장된 특징점들을 상호 매칭하여, 상기 추출한 특징점들에 대한 2차원 위치를 추출할 수 있다.In addition, the second extracting unit extracts feature points of the object by applying a SURF (Speed Up Robust Feature) algorithm to the holographic image, and matches the extracted feature points with the previously stored feature points to match the extracted feature points. You can extract the two-dimensional position for

본 발명에 따르면, 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용하여 물체의 홀로그램 데이터로부터 물체의 깊이 위치를 추출하고 해당 깊이 위치에서 복원된 홀로그램 영상으로부터 물체의 종류를 인식하며 인식된 물체의 특징점들의 2차원 위치를 추출하여 최종적으로 물체의 3차원 위치를 획득 및 추적할 수 있는 이점을 제공한다.According to the present invention, a depth position of an object is extracted from hologram data of an object using optical scanning holography and a convolutional neural network, and the type of object is recognized from a holographic image restored at the corresponding depth position, It provides the advantage of extracting the 2D position and finally obtaining and tracking the 3D position of the object.

도 1은 본 발명의 실시예에 따른 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치의 구성을 나타낸 도면이다.
도 2는 도 1의 장치를 이용한 3차원 물체 인식 및 추적 방법을 설명하는 도면이다.
도 3은 홀로그램 데이터에서 물체 주변에 프린지 패턴이 관측된 모습을 예시한 도면이다.
도 4는 CNN 신경망에서 이미지와 필터 간 합성곱을 이용하여 특징 지도를 형성하는 원리를 간략히 나타낸 도면이다.
도 5는 도 4의 이미지에 대해 다양한 필터를 사용하여 특징 지도를 생성하는 모습을 예시한 도면이다.
도 6은 CNN 신경망에서 수행하는 풀링 작업을 나타낸 도면이다.
도 7은 CNN 신경망의 구조를 설명한 도면이다.
도 8은 본 발명의 실시예에서 복원된 홀로그램 영상으로부터 CNN 분석을 이용하여 물체를 인식하는 원리를 설명한 도면이다.
도 9는 본 발명의 실시예에서 SURF 알고리즘을 이용하여 특징점을 추출하는 개념을 간략히 나타낸 도면이다.
도 10은 본 발명의 실시예에서 특징점 추출 이후 특징점 간 매칭 알고리즘을 적용하여 2차원 위치를 획득하는 개념을 나타낸 도면이다.
1 is a diagram showing a configuration of a 3D object recognition and tracking apparatus using optical scanning holography and a convolutional neural network according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a 3D object recognition and tracking method using the device of FIG. 1.
3 is a diagram illustrating a state in which a fringe pattern is observed around an object in hologram data.
4 is a diagram schematically showing the principle of forming a feature map using convolutions between an image and a filter in a CNN neural network.
5 is a diagram illustrating an example of generating a feature map using various filters for the image of FIG. 4.
6 is a diagram showing a pooling operation performed in a CNN neural network.
7 is a diagram illustrating the structure of a CNN neural network.
8 is a diagram for explaining a principle of recognizing an object using CNN analysis from a reconstructed holographic image in an embodiment of the present invention.
9 is a diagram schematically illustrating a concept of extracting a feature point using a SURF algorithm in an embodiment of the present invention.
10 is a diagram illustrating a concept of obtaining a two-dimensional position by applying a matching algorithm between feature points after feature point extraction in an embodiment of the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention.

도 1은 본 발명의 실시예에 따른 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치의 구성을 나타낸 도면이다.1 is a diagram showing a configuration of a 3D object recognition and tracking apparatus using optical scanning holography and a convolutional neural network according to an embodiment of the present invention.

도 1에 나타낸 것과 같이, 본 발명의 실시예에 따른 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치(100)는 획득부(110), 제1 추출부(120), 복원부(130), 인식부(140), 제2 추출부(150), 추적부(160), 제1 학습부(170), 제2 학습부(180)를 포함한다.As shown in FIG. 1, the apparatus 100 for recognizing and tracking a 3D object using optical scanning holography and a convolutional neural network according to an embodiment of the present invention includes an acquisition unit 110, a first extraction unit 120, A restoration unit 130, a recognition unit 140, a second extraction unit 150, a tracking unit 160, a first learning unit 170, and a second learning unit 180 are included.

우선, 획득부(110)는 광 스캐닝 홀로그래피(OSH; Optical Scanning Holography)를 이용하여 물체의 홀로그램 데이터를 획득한다. 광 스캐닝 홀로그래피는 광 스캐닝을 기반으로 물체의 홀로그램을 획득하는 기기로서 기존에 다양하게 공지되어 있다. 광 스캐닝 홀로그래피는 본 발명의 장치에 포함되거나 장치와 유무선 연결되어 동작할 수 있다.First, the acquisition unit 110 acquires hologram data of an object using Optical Scanning Holography (OSH). Optical scanning holography is a device that acquires a hologram of an object based on optical scanning, and has been known in various ways. Optical scanning holography may be included in the device of the present invention or may be operated by wired or wireless connection with the device.

이하의 본 발명의 실시예는 앞서 배경 기술에 언급한 본 출원인에 의한 공개특허 제2013-0081127호에 도시된 도 1의 홀로그램 획득 장치를 이용하여 물체의 홀로그램 데이터를 획득하는 것을 가정한다. 다만, 본 발명이 반드시 이에 한정되는 것은 아니며, 기 공지된 장치 중에서 선택 적용 가능하다.In the following embodiments of the present invention, it is assumed that hologram data of an object is obtained by using the hologram acquisition device of FIG. 1 shown in Patent Publication No. 2013-0081127 by the present applicant mentioned in the background art. However, the present invention is not necessarily limited thereto, and may be selectively applied among known devices.

사용된 홀로그램 획득 장치의 구성은 크게 광학계 및 전자처리부로 구분된다. 광학계는 광원에서 분리된 두 빔을 변조하여 생성한 구면파와 평면파를 간섭 수단을 이용하여 서로 중첩시켜 스캔 빔을 형성한다. 그리고 형성한 스캔 빔을 이용하여 물체(촬영대상물)를 스캐닝한 다음, 물체로부터 반사되는 스캔 빔을 집광하여 광 검출수단에 집속시키고 집속된 빛의 세기에 비례한 전기 신호를 광 검출 수단을 통해 생성하여 전자처리부로 전달한다.The configuration of the hologram acquisition device used is largely divided into an optical system and an electronic processing unit. The optical system modulates two beams separated from a light source to form a scan beam by overlapping a spherical wave and a plane wave generated by using an interference means. Then, after scanning the object (object to be photographed) using the formed scan beam, the scan beam reflected from the object is condensed and focused on the light detection means, and an electric signal proportional to the intensity of the focused light is generated through the light detection means. And transfer it to the electronic processing unit.

이러한 전기 신호를 각각의 스캐닝 위치에 따라 저장하면 전기 신호는 물체의 홀로그램이 된다. 이때, 쌍 영상 및 배경 잡음이 없는 물체의 복소수 홀로그램을 추출하기 위해, 광학계에서는 상호 중첩되는 두 빔의 주파수를 편위하는 방식을 사용하여 시간에 따라 스캔빔을 변조하여 물체를 스캐닝한다.When these electrical signals are stored for each scanning position, the electrical signal becomes a hologram of the object. In this case, in order to extract a pair image and a complex hologram of an object without background noise, the optical system scans the object by modulating the scan beam over time by using a method of deviating the frequencies of two overlapping beams.

전자처리부는 광 검출수단에서 출력된 전기 신호를 수신하여 디지털 신호로 변환하고 변환된 디지털 신호로부터 물체의 홀로그램 데이터를 생성하여 저장부에 저장한다. 여기서, 전자처리부는 디지털 신호를 복소수 합성 방식으로 합성하여 각각의 스캐닝 위치에 따라 저장하는 방법을 통해 물체에 대한 복소수 홀로그램을 생성하여 저장한다. 이하의 본 발명의 실시예는 상술한 방법을 통하여 생성되어 저장부에 저장된 홀로그램 데이터를 사용하는 것을 가정하여 설명한다.The electronic processing unit receives the electrical signal output from the optical detection means, converts it into a digital signal, generates hologram data of the object from the converted digital signal, and stores it in the storage unit. Here, the electronic processing unit generates and stores a complex hologram of an object through a method of synthesizing the digital signal using a complex number synthesis method and storing it according to each scanning position. Hereinafter, embodiments of the present invention will be described on the assumption that hologram data generated through the above-described method and stored in a storage unit are used.

제1 추출부(120)는 획득한 홀로그램 데이터를 기 학습된 제1 CNN 신경망에 입력시켜 물체의 깊이 위치를 추출한다. 여기서, CNN은 기 공지된 컨볼루셔널 뉴럴 네트워크(Convolutional Neural Network)를 의미한다. The first extraction unit 120 extracts the depth position of the object by inputting the obtained hologram data to the first CNN neural network that has been learned. Here, CNN means a known convolutional neural network.

여기서, 깊이 위치는 홀로그램 데이터를 획득하는 광 스캐닝 홀로그래피의 위치(예를 들어, 기 설정된 기준 깊이 위치 z=0)를 기준으로 물체가 상대적으로 떨어진 거리를 의미할 수 있다. 물론 스캐닝 대상 물체가 전후로 움직일 경우 물체의 깊이 위치는 시간에 따라 달라질 수 있다. Here, the depth position may mean a distance from which an object is relatively distanced from the position of the optical scanning holography for obtaining holographic data (eg, a preset reference depth position z=0). Of course, when the object to be scanned moves back and forth, the depth position of the object may change over time.

그리고, 본 발명의 실시예에서, 기 학습된 제1 CNN 신경망이란, 학습용 물체를 대상으로 기 알고 있는 다양한 깊이 위치 별로 획득한 학습용 물체의 홀로그램 데이터 및 그에 대응된 깊이 위치를 각각 학습 데이터로 활용하여, 제1 학습부(170)에서 미리 학습시킨 신경망에 해당할 수 있다.And, in the embodiment of the present invention, the first CNN neural network that has been pre-trained means that the hologram data of the learning object acquired for each of various depth positions previously known to the learning object and the corresponding depth position are used as learning data. , May correspond to a neural network previously learned by the first learning unit 170.

즉, 제1 학습부(170)는 복수의 깊이 위치 별로 학습용 물체에 대해 기 획득한 홀로그램 데이터 및 그에 대응되는 깊이 위치를 학습 데이터로 사용하여 제1 CNN 신경망을 사전에 학습시킨다. 제1 학습부(170)는 홀로그램 데이터에서 추출한 특징 정보와 그에 대응된 깊이 위치를 학습시킨다.That is, the first learning unit 170 trains the first CNN neural network in advance by using the hologram data previously acquired for the learning object for each of the plurality of depth positions and the corresponding depth position as training data. The first learning unit 170 learns feature information extracted from hologram data and a depth position corresponding thereto.

이에 따르면, 학습된 제1 CNN 신경망에 소정의 물체에 대한 홀로그램 데이터를 입력하는 것만으로 해당 물체에 대한 깊이 위치를 빠르고 용이하게 획득할 수 있다. According to this, it is possible to quickly and easily acquire a depth position for a corresponding object by simply inputting hologram data for a predetermined object into the learned first CNN neural network.

제1 CNN 신경망의 학습에 사용되는 학습용 물체의 종류는 특별히 제한되지 않으며 다양한 종류의 물체들에 대한 홀로그램 데이터가 깊이 정보 학습에 사용될 수 있음은 물론이다.It goes without saying that the type of learning object used for learning the first CNN neural network is not particularly limited, and hologram data for various types of objects can be used for learning depth information.

홀로그램 데이터는 복원부(130)를 통하여 홀로그램 영상으로 복원된다. 물체를 광 스캐닝하여 획득한 홀로그램 데이터를 영상으로 복원하는 수단에 대해서는 기존에 다양하게 공지되어 있다.The holographic data is restored as a holographic image through the restoration unit 130. Various methods have been known in the art for a means for restoring holographic data obtained by optical scanning an object into an image.

이때, 복원부(130)는 물체의 홀로그램 데이터와 추출된 깊이 위치를 이용하여, 해당 깊이 위치에서 물체의 홀로그램 영상을 2차원으로 복원한다. 이러한 복원부(130)는 해당 깊이 위치에서 2차원 형상으로 맺힌 물체의 홀로그램 영상을 제공하며, 이를 통해 해당 깊이 위치에서 복원된 2차원 홀로그램 영상을 제공한다. 즉, 복원부(130)는 본 발명의 장치 위치를 기준으로 해당 깊이 위치 만큼 떨어진 거리 지점에 2차원 이미지 형태의 홀로그램 영상을 복원한다.In this case, the restoration unit 130 restores the holographic image of the object in 2D at the corresponding depth position by using the hologram data of the object and the extracted depth position. The restoration unit 130 provides a holographic image of an object formed in a two-dimensional shape at a corresponding depth position, and provides a two-dimensional holographic image reconstructed at a corresponding depth position through this. That is, the restoration unit 130 restores a holographic image in the form of a 2D image at a distance point separated by a corresponding depth position based on the device position of the present invention.

이후, 인식부(140)는 복원된 홀로그램 영상을 기 학습된 제2 CNN 신경망에 입력시켜 물체의 종류를 인식한다.Thereafter, the recognition unit 140 recognizes the type of the object by inputting the reconstructed holographic image to the pre-learned second CNN neural network.

여기서, 기 학습된 제2 CNN 신경망이란, 학습용 물체에 대한 2차원 홀로그램 영상(이미지) 및 그에 대응되는 학습용 물체의 종류를 사용하여 제2 학습부(180)에서 미리 학습시킨 CNN 신경망에 해당할 수 있다. 제2 학습부(180)는 복원된 홀로그램 영상에서 추출한 특징 정보와 그에 대응된 물체의 종류를 학습시킨다.Here, the pre-trained second CNN neural network may correspond to a CNN neural network previously learned by the second learning unit 180 using a two-dimensional holographic image (image) of a learning object and a type of a learning object corresponding thereto. have. The second learning unit 180 learns feature information extracted from the reconstructed holographic image and the type of object corresponding thereto.

이에 따르면, 학습된 제2 CNN 신경망에 물체의 복원된 2차원의 홀로그램 영상을 입력하는 것만으로도 해당 물체가 어떤 종류의 물체인지 구분하고 그 결과를 출력하여 제공할 수 있다. 예를 들어, 복원된 2차원의 홀로그램 영상의 이미지를 제2 CNN 신경망에 입력하는 것을 통해, 현재의 복원 영상 속 물체가 적군기인지 아군기인지 혹은 고양이인지 강아지인지를 빠르고 용이하게 판별할 수 있다.According to this, simply by inputting the reconstructed 2-dimensional holographic image of the object into the learned second CNN neural network, it is possible to distinguish what kind of object the object is, and output and provide the result. For example, by inputting an image of a reconstructed 2D holographic image into the second CNN neural network, it is possible to quickly and easily determine whether an object in the current reconstructed image is an enemy or a friendly unit, or a cat or a dog.

여기서, 제2 CNN 신경망에 입력되는 홀로그램 영상은 해당 깊이 위치에서 복원된 2차원의 홀로그램 영상의 이미지를 의미한다. 즉, 제2 추출부(150)는 복원된 홀로그램 영상에 해당하는 이미지를 제2 CNN 신경망에 입력하여 그에 대응된 물체의 종류를 판별하여 제공한다. 이때, 이미지는 해당 깊이 위치에서 복원된 홀로그램 영상을 본 발명의 장치에서 촬영하여 얻은 이미지 데이터를 의미할 수 있다.Here, the holographic image input to the second CNN neural network refers to an image of a 2-dimensional holographic image reconstructed at a corresponding depth position. That is, the second extraction unit 150 inputs an image corresponding to the restored holographic image to the second CNN neural network, and determines and provides the type of object corresponding thereto. In this case, the image may mean image data obtained by photographing a holographic image restored at a corresponding depth position by the apparatus of the present invention.

제2 추출부(150)는 홀로그램 영상에서 추출된 물체의 특징점들과 인식된 종류의 물체에 대응하여 DB에 기 저장된 특징점들을 상호 비교하여, 홀로그램 영상에서 추출된 특징점들의 2차원 위치(수평 위치)를 추출한다.The second extraction unit 150 compares the feature points of the object extracted from the holographic image and the feature points previously stored in the DB corresponding to the recognized type of object, and the two-dimensional position (horizontal position) of the feature points extracted from the holographic image. Extract.

구체적으로, 제2 추출부(150)는 홀로그램 영상에 SURF(Speed Up Robust Feature) 알고리즘을 적용하여 물체의 특징점들을 추출하고 추출한 특징점들과 기 저장된 특징점들을 상호 매칭하여, 각 특징점들의 2차원 위치를 추출한다.Specifically, the second extraction unit 150 extracts feature points of an object by applying a SURF (Speed Up Robust Feature) algorithm to the hologram image, and matches the extracted feature points with pre-stored feature points to determine the two-dimensional position of each feature point. Extract.

예를 들어, 홀로그램 영상으로부터 인식된 물체가 고양이로 판별된 경우, 해당 홀로그램 영상에서 추출한 특징점들과 DB에 기 저장된 고양이 객체에 대한 대표 이미지에 설정된 특징점들을 SURF 알고리즘을 통해 상호 비교하고 동일 특징점 간을 매칭하는 방법을 이용하여, 홀로그램 영상 내 각 특징점의 2차원적 위치를 추출한다.For example, when an object recognized from a holographic image is identified as a cat, the feature points extracted from the holographic image and the feature points set in the representative image of the cat object previously stored in the DB are compared with each other through the SURF algorithm, and the same feature points are compared. Using a matching method, a two-dimensional position of each feature point in a holographic image is extracted.

여기서, 특징점의 2차원 위치란, 본 발명의 장치를 기준으로 하는 기준점(Origin point)에 대해 해당 특징점이 2차원적으로 떨어진 상대적인 좌표를 의미할 수 있다. 예를 들어, 기준점의 3차원 좌표 (x0,y0,z0)에 대해, 각 특징점의 2차원 위치는 (xi,yi)에 해당할 수 있다.Here, the two-dimensional position of the feature point may mean a relative coordinate two-dimensionally away from a reference point (Origin point) based on the device of the present invention. For example, with respect to the 3D coordinates (x 0 , y 0 , z 0 ) of the reference point, the 2D position of each feature point may correspond to (x i , y i ).

이와 같이 특징점 매칭에 기반한 각 특징점의 2차원 위치 추출에는 촬영 각도, 시점 변화 등을 고려하여 기준점으로부터 물체가 떨어진 거리(깊이 위치) 정보가 활용될 수 있다. In this way, in the extraction of the two-dimensional position of each feature point based on feature point matching, information about the distance (depth location) of the object away from the reference point may be used in consideration of a photographing angle and a change in viewpoint.

상술한 SURF 알고리즘은 영상의 비율, 스케일, 조명, 시점 등의 환경 변화를 고려하여 여러 영상으로부터 환경 변화에 불변하는 특징점들을 탐색하는 기법이다. 이는 기 공지된 알고리즘에 해당하므로 구체적인 설명은 생략한다. 또한, 이러한 특징점 매칭에 기반한 위치 검출에는 SURF 알고리즘과 유사한 SIFT(Scale Invariant Feature Transform) 알고리즘이 활용될 수도 있다.The above-described SURF algorithm is a technique for searching for feature points that are invariant to environmental changes from several images in consideration of environmental changes such as an image ratio, scale, lighting, and viewpoint. Since this corresponds to a known algorithm, a detailed description will be omitted. In addition, the SIFT (Scale Invariant Feature Transform) algorithm similar to the SURF algorithm may be used for position detection based on such feature point matching.

본 발명의 실시에는 SURF 알고리즘을 사용하여 매칭된 특징점의 위치를 추출하여 홀로그램 복원 영상의 수평 위치를 확인할 수 있으며, 수평 위치와 이전 프로세서에서 추출한 깊이 위치를 실제 공간에서의 수평, 깊이 위치로 전환하면 복원 영상의 3차원 공간 상의 위치를 특정할 수 있다. In the implementation of the present invention, it is possible to check the horizontal position of the holographic reconstructed image by extracting the position of the matched feature point using the SURF algorithm. When the horizontal position and the depth position extracted from the previous processor are converted to the horizontal and depth positions in real space The position of the reconstructed image in the 3D space can be specified.

추적부(160)는 물체의 깊이 위치 및 특징점들의 2차원 위치를 이용하여 물체의 3차원 위치를 추적한다. 예를 들어, 기준점에 대한 복원 영상(물체)의 깊이 위치(zi), 복원 영상 내 각 특징점의 2차원 위치(xi,yi)를 이용하여 복원 영상에 대한 3차원 공간 상의 위치를 제공할 수 있다. 또한 촬영 대상 체가 움직이는 경우 물체의 3차원 위치를 실시간 획득하고 추적 제공할 수 있다.The tracking unit 160 tracks the three-dimensional position of the object using the depth position of the object and the two-dimensional position of feature points. For example, the depth position (z i ) of the reconstructed image (object) with respect to the reference point and the 2D position (x i ,y i ) of each feature point in the reconstructed image are used to provide a position in the 3D space for the reconstructed image. can do. In addition, when the object to be photographed moves, the 3D position of the object can be acquired and tracked in real time.

이처럼, 본 발명의 실시예는 제2 CNN 신경망을 통해 복원된 홀로그램 영상에서 물체의 종류를 인식한 다음, 인식한 물체의 종류에 대응한 특징점들을 기초로 해당 물체의 각 특징점들에 대한 2차원 위치를 산출함으로써 복원 영상의 수평 위치를 알 수 있다. 또한 특징점의 2차원 위치와 물체의 깊이 위치를 결합하여 물체의 3차원 위치를 제공할 수 있다.As described above, the embodiment of the present invention recognizes the type of object in the holographic image restored through the second CNN neural network, and then, based on the feature points corresponding to the recognized object type, the two-dimensional position of each feature point of the object. It is possible to know the horizontal position of the reconstructed image by calculating. In addition, a three-dimensional position of an object may be provided by combining the two-dimensional position of the feature point and the depth position of the object.

도 2는 도 1의 장치를 이용한 3차원 물체 인식 및 추적 방법을 설명하는 도면이다.FIG. 2 is a diagram illustrating a 3D object recognition and tracking method using the device of FIG. 1.

먼저, 제1 학습부(170)와 제2 학습부(180)는 제1 CNN 신경망과 제2 CNN 신경망을 각각 학습시킨다(S210).First, the first learning unit 170 and the second learning unit 180 train a first CNN neural network and a second CNN neural network, respectively (S210).

이를 위해, 제1 학습부(170)는 복수의 깊이 위치 별로 학습용 물체에 대해 기 획득한 홀로그램 데이터 및 그에 대응된 깊이 위치를 학습 데이터로 구축하고 이러한 학습용 데이터를 이용하여 제1 CNN 신경망을 사전에 학습시킨다. To this end, the first learning unit 170 constructs the hologram data previously acquired for the learning object for each of the plurality of depth positions and the corresponding depth position as learning data, and uses the learning data to pre-establish the first CNN neural network. To learn.

그리고, 제2 학습부(180)는 학습용 물체에 대한 홀로그램 영상 및 그에 대응되는 학습용 물체의 종류를 학습 데이터로 구축하고 이를 이용하여 제2 CNN 신경망을 사전에 학습시킨다. In addition, the second learning unit 180 constructs a holographic image of a learning object and a type of a learning object corresponding thereto as learning data, and trains the second CNN neural network in advance by using this.

각각의 CNN 신경망은 입력된 데이터에 대한 특징을 컨볼루셔널 레이어를 통해 추출하며, 추출한 특징과 그에 대응되는 결과값을 각각 입력과 출력으로 하여 뉴럴 네트워크를 학습시킨다.Each CNN neural network extracts features of the input data through a convolutional layer, and trains the neural network by using the extracted features and the corresponding result values as inputs and outputs, respectively.

제1 학습부(170)는 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 깊이 위치를 학습 데이터로 사용한다. 이에 따라, 학습용 물체의 깊이 위치 별로 홀로그램 데이터의 특징(Feature)이 학습된다. 제2 학습부(180)는 학습용 물체에 대하여 복원한 홀로그램 영상에서 추출된 특징 정보 및 그에 대응되는 객체 종류를 학습 데이터로 사용한다. 이에 따라 학습용 물체의 종류 별로 홀로그램 영상의 특징이 학습된다.The first learning unit 170 uses the feature information extracted from the hologram data of the learning object and the depth position corresponding thereto as learning data. Accordingly, features of hologram data are learned for each depth position of the learning object. The second learning unit 180 uses feature information extracted from a holographic image reconstructed for a learning object and an object type corresponding thereto as learning data. Accordingly, characteristics of holographic images are learned for each type of learning object.

본 발명의 실시예에서 제1 학습부(170)는 홀로그램 데이터에서 물체의 주변에 형성되는 간섭 무늬인 프린지 패턴 부분의 특징을 추출하여 학습에 사용할 수 있다.In an embodiment of the present invention, the first learning unit 170 may extract features of a fringe pattern portion, which is an interference pattern formed around an object, from holographic data and use it for learning.

도 3은 홀로그램 데이터에서 물체 주변에 프린지 패턴이 관측된 모습을 예시한 도면이다. 도 3의 적색 화살표를 참조하면, 물체의 주변을 따라 형성된 프린지 패턴의 간격은 물체 방향으로 점점 늘어나는 처프 함수 형태를 가진다. 여기서, 광 스캐닝 홀로그래피 장치로부터 떨어진 물체의 깊이에 따라 프린지 간격이나 간격의 증감율, 길이 변화 등이 달라질 수 있다.3 is a diagram illustrating a state in which a fringe pattern is observed around an object in hologram data. Referring to the red arrow of FIG. 3, the spacing of the fringe pattern formed along the periphery of the object has a form of a chirp function that gradually increases in the direction of the object. Here, according to the depth of the object away from the optical scanning holographic apparatus, a fringe interval, an increase/decrease rate of the interval, a length change, and the like may vary.

이와 같이, 프린지 패턴의 특징을 분석하면 물체의 깊이 위치에 대한 정보를 확인할 수 있다. 또한, 이러한 점을 이용하여, 본 발명의 실시예는 홀로그램 데이터 상의 물체 주변의 프린지 패턴을 특징 정보로 하여 깊이 정보를 학습시킬 수 있다. In this way, by analyzing the characteristics of the fringe pattern, information on the depth position of the object can be confirmed. In addition, using this point, an embodiment of the present invention can learn depth information using a fringe pattern around an object on hologram data as feature information.

CNN 신경망의 학습 원리는 기 공지된 것에 해당하나 이에 관하여 간단히 설명하면 다음과 같다. CNN 신경망은 입력 데이터에 특징 추출을 위한 필터를 적용하여 특징 지도(feature map)를 형성하고, 추출된 특징들의 연산 속도를 높이기 위해 풀링(pooling) 작업을 거친다. The learning principle of the CNN neural network corresponds to a known one, but a brief description of this is as follows. The CNN neural network forms a feature map by applying a filter for feature extraction to input data, and performs a pooling operation to increase the computational speed of the extracted features.

도 4는 CNN 신경망에서 이미지와 필터 간 합성곱을 이용하여 특징 지도를 형성하는 원리를 간략히 나타낸 도면이고, 도 5는 도 4의 이미지에 대해 다양한 필터를 사용하여 특징 지도를 생성하는 모습을 예시한 도면이다.FIG. 4 is a schematic diagram showing the principle of forming a feature map by using convolutions between images and filters in a CNN neural network, and FIG. 5 is a diagram illustrating a feature map generation using various filters for the image of FIG. 4 to be.

도 4의 (a)는 입력 이미지와 그에 적용되는 필터를 예시한 것이며, (b)는 입력 이미지에 해당 필터를 적용하여 합성곱(convolution)을 통해 특징 지도(feature map)를 형성한 모습을 나타낸다. 물론 이는 공지된 기법에 해당한다. 4A illustrates an input image and a filter applied thereto, and (b) shows a feature map formed through convolution by applying the filter to the input image. . Of course, this corresponds to a known technique.

제1 CNN 신경망을 예를 들면, 도 4와 같이 CNN 신경망에 입력되는 홀로그램 데이터에 대해 필터를 적용하여 입력 데이터와 필터 간의 합성곱을 통하여 데이터의 특징을 판별하는 특징 지도를 형성한다. 이때, 도 5와 같이 다양한 크기와 종류의 필터를 사용하여 해당 필터를 적용한 채널로 구분 짓고 이를 통해 입력받은 데이터를 더욱 자세히 분류 및 분석할 수 있다. 위의 방법으로 추출된 특징들은 연산 속도를 빠르게 하기 위한 풀링 작업을 거친다. For the first CNN neural network, for example, a filter is applied to hologram data input to the CNN neural network as shown in FIG. 4 to form a feature map for discriminating characteristics of the data through convolution between the input data and the filter. In this case, as shown in FIG. 5, filters of various sizes and types are used to classify channels to which a corresponding filter is applied, and through this, input data can be classified and analyzed in more detail. Features extracted by the above method undergo a pooling operation to speed up the computation.

도 6은 CNN 신경망에서 수행하는 풀링 작업을 나타낸 도면이다. 도 6은 최대값을 이용한 max pooling과 평균값을 이용한 average pooling 방식을 함께 도시하고 있다. 도 6의 좌측에 도시한 특징 지도는 풀링 작업 결과 크기가 축소된 것을 알 수 있다.6 is a diagram showing a pooling operation performed in a CNN neural network. 6 shows a max pooling method using a maximum value and an average pooling method using an average value. It can be seen that the size of the feature map shown on the left side of FIG. 6 is reduced as a result of the pooling operation.

이러한 풀링 작업은 데이터가 나열된 특징 지도의 행렬 구조에서 정사각 행렬의 특정 영역 내부의 값들에 대한 최대값 또는 평균값을 구하고 이를 해당 영역 상에 하나의 값으로 치환하여 데이터의 크기를 줄이는 방법이다. This pooling operation is a method of reducing the size of data by obtaining a maximum value or an average value of values within a specific area of a square matrix in a matrix structure of a feature map in which data is listed, and replacing it with one value in the corresponding area.

도 7은 CNN 신경망의 구조를 설명한 도면이다. 도 7은 특징 지도 생성 작업과 풀링 작업이 반복되는 구조의 CNN 신경망을 나타낸 것으로, 합성곱을 이용한 필터와 풀링을 반복적으로 조합하여 컨볼루셔널 레이어를 구축하여 특징을 추출할 수 있으며, 추출한 특징은 뉴럴 네트워크에서 깊이 위치와 함께 학습된다. 7 is a diagram illustrating the structure of a CNN neural network. 7 shows a CNN neural network in which a feature map generation task and a pooling task are repeated. A convolutional layer can be constructed by repeatedly combining a filter and pooling using convolution to extract features, and the extracted features are neural. It is learned along with the depth position in the network.

제2 CNN 신경망의 경우 앞서 제1 CNN 신경망과는 입출력 데이터는 상이하지만 실질적인 학습 원리는 동일하므로, 반복 설명은 생략한다.In the case of the second CNN neural network, the input/output data is different from that of the first CNN neural network, but the practical learning principle is the same, so a repetitive description is omitted.

학습이 완료된 이후, 획득부(110)는 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램을 획득한다(S220), After the learning is completed, the acquisition unit 110 acquires a hologram of the object using optical scanning holography (S220),

제1 추출부(120)는 획득된 홀로그램 데이터를 제1 CNN 신경망에 입력하여 물체의 깊이 위치를 도출하며(S230), 복원부(130)는 도출된 해당 깊이 위치에서 물체의 홀로그램 영상을 2차원 형태로 복원한다(S240). The first extraction unit 120 inputs the obtained hologram data into the first CNN neural network to derive the depth position of the object (S230), and the restoration unit 130 2D converts the holographic image of the object at the derived depth position. It is restored to the shape (S240).

그리고, 인식부(140)는 복원된 홀로그램 영상을 제2 CNN 신경망에 입력하여 물체의 종류를 인식한다(S250).Then, the recognition unit 140 recognizes the type of the object by inputting the restored holographic image to the second CNN neural network (S250).

도 8은 본 발명의 실시예에서 복원된 홀로그램 영상으로부터 CNN 분석을 이용하여 물체를 인식하는 원리를 설명한 도면이다. 이러한 도 8의 예시는 홀로그램 복원 영상을 CNN에 입력하였을 때 가능한 출력 값 A~D(예를 들어, A=고양이, B=강아지, C=퓨마, D=사자) 중에서 'A'를 출력한 결과를 나타낸다. 즉, 복원 영상 속 물체는 고양이임을 나타낸다.8 is a diagram for explaining a principle of recognizing an object using CNN analysis from a reconstructed holographic image in an embodiment of the present invention. The example of FIG. 8 is a result of outputting'A' among possible output values A to D (eg, A = cat, B = dog, C = Puma, D = lion) when a holographic reconstructed image is input to CNN. Represents. In other words, it indicates that the object in the reconstructed image is a cat.

이후, 제2 추출부(150)는 인식된 해당 종류의 물체에 대응하여 DB에 기 저장된 특징점들을 독출하고 이를 홀로그램 영상에서 추출된 물체의 특징점들과 상호 비교하여, 추출된 특징점들에 대한 2차원 위치를 추출한다(S260).Thereafter, the second extraction unit 150 reads the feature points previously stored in the DB corresponding to the recognized object of the corresponding type and compares the feature points with the feature points of the object extracted from the hologram image. The location is extracted (S260).

도 9는 본 발명의 실시예에서 SURF 알고리즘을 이용하여 특징점을 추출하는 개념을 간략히 나타낸 도면이다.9 is a diagram schematically illustrating a concept of extracting a feature point using a SURF algorithm in an embodiment of the present invention.

SURF 특징점 검출 알고리즘은 홀로그램 복원 영상에서 점으로 이루어진 영상의 밝기를 면적으로 치환하고, 필터를 적용하여 면적의 밝기를 단순화하며, 헤세 행렬(Hessian Matrix)을 이용하여 특이점을 계산하는 방법으로 특징점을 추출할 수 있다. The SURF feature point detection algorithm replaces the brightness of the image consisting of points in the holographic reconstructed image with the area, simplifies the brightness of the area by applying a filter, and extracts the feature points by calculating singular points using a Hessian matrix. can do.

도 10은 본 발명의 실시예에서 특징점 추출 이후 특징점 간 매칭 알고리즘을 적용하여 2차원 위치를 획득하는 개념을 나타낸 도면이다.10 is a diagram illustrating a concept of obtaining a two-dimensional position by applying a matching algorithm between feature points after feature point extraction in an embodiment of the present invention.

복원 영상에서 추출한 특징점과 해당 종류의 대표 이미지에 대한 특징점 간을 매칭하고, 매칭된 위치를 추출하여 홀로그램 복원 영상의 수평 위치를 확인한다. 여기서 해당 수평 위치와 이전에 추출한 깊이 위치를 실제 공간에서의 수평 및 깊이 위치로 전환하면 홀로그램 복원 영상에 대한 3차원 공간상의 위치를 특정할 수 있다. The feature points extracted from the reconstructed image and the feature points for the representative image of the corresponding type are matched, and the matched location is extracted to check the horizontal position of the holographic reconstructed image. Here, when the corresponding horizontal position and the previously extracted depth position are converted into horizontal and depth positions in real space, the position of the holographic reconstructed image in the 3D space can be specified.

따라서, 추적부(160)는 깊이 위치 및 특징점들의 2차원 위치를 이용하여 물체의 3차원 위치를 확인하고 실시간 추적한다(S270).Accordingly, the tracking unit 160 checks the 3D position of the object using the depth position and the 2D position of the feature points and tracks it in real time (S270).

이상과 같은 본 발명에 따르면, 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용하여 물체의 홀로그램 데이터로부터 물체의 깊이 위치를 추출하고 해당 깊이 위치에서 복원된 홀로그램 영상으로부터 물체의 종류를 인식하며 인식된 물체의 특징점들의 2차원 위치를 추출하여 최종적으로 물체의 3차원 위치를 획득 및 추적할 수 있는 이점을 제공한다.According to the present invention as described above, a depth position of an object is extracted from hologram data of an object using optical scanning holography and a convolutional neural network, and the type of object is recognized from a holographic image restored at the depth position. By extracting the 2D position of the feature points of, it provides an advantage of finally obtaining and tracking the 3D position of the object.

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are only exemplary, and those of ordinary skill in the art will appreciate that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical scope of the present invention should be determined by the technical spirit of the appended claims.

100: 3차원 물체 인식 및 추적 장치
110: 획득부 120: 제1 추출부
130: 복원부 140: 인식부
150: 제2 추출부 160: 추적부
170: 제1 학습부 180: 제2 학습부
100: 3D object recognition and tracking device
110: acquisition unit 120: first extraction unit
130: restoration unit 140: recognition unit
150: second extraction unit 160: tracking unit
170: first learning unit 180: second learning unit

Claims (10)

광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치에서의 3차원 물체 인식 및 추적 방법에 있어서,
상기 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램 데이터를 획득하는 단계;
상기 홀로그램 데이터를 기 학습된 제1 CNN 신경망에 입력시켜 상기 물체의 깊이 위치를 추출하는 단계;
상기 홀로그램 데이터와 상기 깊이 위치를 이용하여 상기 깊이 위치에서 물체의 홀로그램 영상을 2차원으로 복원하는 단계;
상기 홀로그램 영상을 기 학습된 제2 CNN 신경망에 입력시켜 상기 물체의 종류를 인식하는 단계;
상기 홀로그램 영상에서 추출된 상기 물체의 특징점들과 상기 인식된 종류의 물체에 대응하여 기 저장된 특징점들을 상호 비교하여, 상기 추출된 특징점들의 2차원 위치를 추출하는 단계; 및
상기 깊이 위치 및 상기 특징점들의 2차원 위치를 이용하여 상기 물체의 3차원 위치를 추적하는 단계를 포함하는 3차원 물체 인식 및 추적 방법.
In a 3D object recognition and tracking method in a 3D object recognition and tracking apparatus using optical scanning holography and a convolutional neural network,
Obtaining holographic data of an object by using the optical scanning holography;
Extracting a depth position of the object by inputting the hologram data into a pre-learned first CNN neural network;
Restoring a holographic image of an object in two dimensions at the depth position using the hologram data and the depth position;
Recognizing the type of the object by inputting the holographic image to a pre-trained second CNN neural network;
Comparing feature points of the object extracted from the hologram image with feature points previously stored corresponding to the recognized type of object, and extracting a two-dimensional position of the extracted feature points; And
3D object recognition and tracking method comprising the step of tracking the 3D position of the object using the depth position and the 2D position of the feature points.
청구항 1에 있어서,
상기 홀로그램 데이터를 획득하는 단계 이전에, 복수의 깊이 위치 별로 학습용 물체에 대해 기 획득한 홀로그램 데이터 및 그에 대응되는 깊이 위치를 학습 데이터로 사용하여 상기 제1 CNN 신경망을 학습시키는 단계를 더 포함하는 3차원 물체 인식 및 추적 방법.
The method according to claim 1,
Before the step of acquiring the hologram data, training the first CNN neural network by using the hologram data previously acquired for the learning object for each of the plurality of depth positions and the corresponding depth position as training data 3 Dimensional object recognition and tracking method.
청구항 1에 있어서,
상기 제1 CNN 신경망은,
복수의 깊이 위치 별로 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 깊이 위치를 학습 데이터로 사용하며,
상기 특징 정보는,
물체 주변에 형성되는 간섭 무늬인 프린지 패턴의 특징인 3차원 물체 인식 및 추적 방법.
The method according to claim 1,
The first CNN neural network,
The feature information extracted from the hologram data of the learning object for each of the plurality of depth positions and the corresponding depth position are used as the learning data,
The feature information,
A 3D object recognition and tracking method that is a characteristic of a fringe pattern, which is an interference pattern formed around an object.
청구항 1에 있어서,
상기 홀로그램 데이터를 획득하는 단계 이전에, 학습용 물체에 대한 홀로그램 영상 및 그에 대응되는 상기 학습용 물체의 종류를 학습 데이터로 사용하여 상기 제2 CNN 신경망을 학습시키는 단계를 더 포함하는 3차원 물체 인식 및 추적 방법.
The method according to claim 1,
Prior to the step of acquiring the hologram data, 3D object recognition and tracking further comprising the step of training the second CNN neural network using a holographic image of the learning object and the type of the learning object corresponding thereto as training data Way.
청구항 1에 있어서,
상기 특징점들의 2차원 위치를 추출하는 단계는,
상기 홀로그램 영상에 SURF(Speed Up Robust Feature) 알고리즘을 적용하여 상기 물체의 특징점들을 추출하고, 상기 추출한 특징점들과 상기 기 저장된 특징점들을 상호 매칭하여, 상기 추출한 특징점들에 대한 2차원 위치를 추출하는 3차원 물체 인식 및 추적 방법.
The method according to claim 1,
Extracting the two-dimensional positions of the feature points,
3 extracting feature points of the object by applying a SURF (Speed Up Robust Feature) algorithm to the hologram image, matching the extracted feature points with the pre-stored feature points, and extracting a two-dimensional position of the extracted feature points Dimensional object recognition and tracking method.
광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 3차원 물체 인식 및 추적 장치에 있어서,
상기 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램 데이터를 획득하는 획득부;
상기 홀로그램 데이터를 기 학습된 제1 CNN 신경망에 입력시켜 상기 물체의 깊이 위치를 추출하는 제1 추출부;
상기 홀로그램 데이터와 상기 깊이 위치를 이용하여 상기 깊이 위치에서 물체의 홀로그램 영상을 2차원으로 복원하는 복원부;
상기 홀로그램 영상을 기 학습된 제2 CNN 신경망에 입력시켜 상기 물체의 종류를 인식하는 인식부;
상기 홀로그램 영상에서 추출된 상기 물체의 특징점들과 상기 인식된 종류의 물체에 대응하여 기 저장된 특징점들을 상호 비교하여, 상기 추출된 특징점들의 2차원 위치를 추출하는 제2 추출부; 및
상기 깊이 위치 및 상기 특징점들의 2차원 위치를 이용하여 상기 물체의 3차원 위치를 추적하는 추적부를 포함하는 3차원 물체 인식 및 추적 장치.
In a 3D object recognition and tracking device using optical scanning holography and a convolutional neural network,
An acquisition unit that acquires hologram data of an object by using the optical scanning holography;
A first extraction unit for extracting a depth position of the object by inputting the hologram data into a pre-learned first CNN neural network;
A reconstruction unit for restoring a holographic image of an object in two dimensions at the depth position by using the hologram data and the depth position;
A recognition unit for recognizing the type of the object by inputting the holographic image to a pre-trained second CNN neural network;
A second extractor configured to compare the feature points of the object extracted from the hologram image with the feature points previously stored corresponding to the recognized type of object, and extract a two-dimensional position of the extracted feature points; And
3D object recognition and tracking apparatus comprising a tracking unit for tracking the 3D position of the object using the depth position and the 2D position of the feature points.
청구항 6에 있어서,
복수의 깊이 위치 별로 학습용 물체에 대해 기 획득한 홀로그램 데이터 및 그에 대응되는 깊이 위치를 학습 데이터로 사용하여 상기 제1 CNN 신경망을 학습시키는 제1 학습부를 더 포함하는 3차원 물체 인식 및 추적 장치.
The method of claim 6,
3D object recognition and tracking apparatus further comprising a first learning unit for training the first CNN neural network by using the hologram data previously acquired for the learning object for each depth position and the corresponding depth position as training data.
청구항 6에 있어서,
상기 제1 CNN 신경망은,
복수의 깊이 위치 별로 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 깊이 위치를 학습 데이터로 사용하며,
상기 특징 정보는,
물체 주변에 형성되는 간섭 무늬인 프린지 패턴의 특징인 3차원 물체 인식 및 추적 장치.
The method of claim 6,
The first CNN neural network,
The feature information extracted from the hologram data of the learning object for each of the plurality of depth positions and the corresponding depth position are used as the learning data,
The feature information,
A 3D object recognition and tracking device that is a characteristic of a fringe pattern, which is an interference pattern formed around an object.
청구항 6에 있어서,
학습용 물체에 대한 홀로그램 영상 및 그에 대응되는 상기 학습용 물체의 종류를 학습 데이터로 사용하여 상기 제2 CNN 신경망을 학습시키는 제2 학습부를 더 포함하는 3차원 물체 인식 및 추적 장치.
The method of claim 6,
3D object recognition and tracking apparatus further comprising a second learning unit for training the second CNN neural network using the hologram image of the learning object and the type of the learning object corresponding thereto as training data.
청구항 6에 있어서,
상기 제2 추출부는,
상기 홀로그램 영상에 SURF(Speed Up Robust Feature) 알고리즘을 적용하여 상기 물체의 특징점들을 추출하고, 상기 추출한 특징점들과 상기 기 저장된 특징점들을 상호 매칭하여, 상기 추출한 특징점들에 대한 2차원 위치를 추출하는 3차원 물체 인식 및 추적 장치.
The method of claim 6,
The second extraction unit,
3 extracting feature points of the object by applying a SURF (Speed Up Robust Feature) algorithm to the hologram image, matching the extracted feature points with the pre-stored feature points, and extracting a two-dimensional position of the extracted feature points Dimensional object recognition and tracking device.
KR1020180160018A 2018-12-12 2018-12-12 Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof KR102164395B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180160018A KR102164395B1 (en) 2018-12-12 2018-12-12 Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180160018A KR102164395B1 (en) 2018-12-12 2018-12-12 Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof

Publications (2)

Publication Number Publication Date
KR20200072157A KR20200072157A (en) 2020-06-22
KR102164395B1 true KR102164395B1 (en) 2020-10-12

Family

ID=71142659

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180160018A KR102164395B1 (en) 2018-12-12 2018-12-12 Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof

Country Status (1)

Country Link
KR (1) KR102164395B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972958B (en) * 2022-07-27 2022-10-04 北京百度网讯科技有限公司 Key point detection method, neural network training method, device and equipment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101304695B1 (en) * 2012-01-06 2013-09-06 세종대학교산학협력단 Hologram recording apparatus

Also Published As

Publication number Publication date
KR20200072157A (en) 2020-06-22

Similar Documents

Publication Publication Date Title
US11195038B2 (en) Device and a method for extracting dynamic information on a scene using a convolutional neural network
KR101362631B1 (en) Head recognition method
CN111079685B (en) 3D target detection method
KR20170050465A (en) Method and Apparatus for Recognizing Face
Fatan et al. Underwater cable detection in the images using edge classification based on texture information
WO2020192431A1 (en) System and method for ordered representation and feature extraction for point clouds obtained by detection and ranging sensor
Daniel et al. Side-scan sonar image matching
KR20130044099A (en) Method of image processing and device thereof
Barngrover et al. Semisynthetic versus real-world sonar training data for the classification of mine-like objects
Khurana et al. A survey on object recognition and segmentation techniques
Sung et al. Crosstalk removal in forward scan sonar image using deep learning for object detection
CN104680158A (en) Face recognition method based on multi-scale block partial multi-valued mode
WO2018113911A1 (en) Distance-independent keypoint detection
KR102164395B1 (en) Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof
Xie et al. Inferring depth contours from sidescan sonar using convolutional neural nets
KR100958962B1 (en) Apparatus and Method of fingerprint classification
Sung et al. Sonar image translation using generative adversarial network for underwater object recognition
Nambiar et al. A gan-based super resolution model for efficient image enhancement in underwater sonar images
KR102167616B1 (en) Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof
CN113160210A (en) Drainage pipeline defect detection method and device based on depth camera
KR102092475B1 (en) Method and application for animal species classification
CN110766609B (en) Depth-of-field map super-resolution reconstruction method for ToF camera
Attaf et al. Amplitude-based dominant component analysis for underwater mines extraction in side scans sonar
CN108875612B (en) Footprint image processing method
Kallasi et al. Object detection and pose estimation algorithms for underwater manipulation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant