KR20200072158A - Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof - Google Patents

Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof Download PDF

Info

Publication number
KR20200072158A
KR20200072158A KR1020180160019A KR20180160019A KR20200072158A KR 20200072158 A KR20200072158 A KR 20200072158A KR 1020180160019 A KR1020180160019 A KR 1020180160019A KR 20180160019 A KR20180160019 A KR 20180160019A KR 20200072158 A KR20200072158 A KR 20200072158A
Authority
KR
South Korea
Prior art keywords
neural network
hologram
extracting
optical scanning
data
Prior art date
Application number
KR1020180160019A
Other languages
Korean (ko)
Other versions
KR102167616B1 (en
Inventor
김태근
이응준
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020180160019A priority Critical patent/KR102167616B1/en
Publication of KR20200072158A publication Critical patent/KR20200072158A/en
Application granted granted Critical
Publication of KR102167616B1 publication Critical patent/KR102167616B1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0443Digital holography, i.e. recording holograms with digital recording means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0866Digital holographic imaging, i.e. synthesizing holobjects from holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms
    • G03H1/2294Addressing the hologram to an active spatial light modulator
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/02Details of features involved during the holographic process; Replication of holograms without interference recording
    • G03H2001/0208Individual components other than the hologram
    • G03H2001/0224Active addressable light modulator, i.e. Spatial Light Modulator [SLM]
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/18Particular processing of hologram record carriers, e.g. for obtaining blazed holograms
    • G03H2001/186Swelling or shrinking the holographic record or compensation thereof, e.g. for controlling the reconstructed wavelength
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/26Processes or apparatus specially adapted to produce multiple sub- holograms or to obtain images from them, e.g. multicolour technique
    • G03H1/2645Multiplexing processes, e.g. aperture, shift, or wavefront multiplexing
    • G03H2001/2675Phase code multiplexing, wherein the sub-holograms are multiplexed according to spatial modulation of the reference beam
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2225/00Active addressable light modulator
    • G03H2225/30Modulation
    • G03H2225/32Phase only

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The present invention relates to an apparatus extracting a 3D location of an object using an optical scanning holography and a convolutional neural network, and a method thereof. According to the present invention, in a method of extracting a 3D location in the apparatus for extracting the 3D location using the optical scanning holography and the convolutional neural network, provided is the method of extracting the 3D position of the object including the steps of: obtaining hologram data of an object using the optical scanning holography; inputting the obtained hologram data into a pre-learned CNN neural network to extract a depth position and a horizontal location of the object, and providing the 3D location of the object using the extracted depth and horizontal location. According to the present invention, it is possible to provide the 3D by extracting the depth and horizontal location of an object from the hologram data of the object using the optical scanning holography and the convolutional neural network.

Description

광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 물체의 3차원 위치 추출 장치 및 그 방법{Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof}Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof

본 발명은 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 물체의 3차원 위치 추출 장치 및 그 방법에 관한 것으로, 보다 상세하게는 홀로그램 데이터와 딥 러닝 기법을 이용하여 물체의 3차원 위치를 추출할 수 있는 물체의 3차원 위치 추출 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and a method for extracting a 3D position of an object using optical scanning holography and a convolutional neural network, and more specifically, to extract a 3D position of an object using hologram data and a deep learning technique. The present invention relates to an apparatus and a method for extracting a 3D position of an object.

홀로그램은 4차 산업혁명 분야의 미래 핵심기술 중 하나로써 다양한 분야에 접목되고 있다. 현재 홀로그램은 가상현실(VR, Virtual Reality), 증강현실(AR, Augmented Reality), 엔터테인먼트 등에 많이 접목되어 우리 삶속에 친숙하게 인식되어가고 있다. Hologram is one of the key technologies of the future in the field of the 4th Industrial Revolution, and is being applied to various fields. Currently, holograms are being recognized in our lives as they are grafted into virtual reality (VR), augmented reality (AR), and entertainment.

3차원 공간 감각을 향유할 수 있는 홀로그램은 문화, 예술을 뛰어넘어 의료, 서비스등과 같은 다른 분야에도 접목이 가능하다. 그러나 2차원 정보를 다루는 일반 영상 정보와 달리 홀로그램 정보가 가지는 깊이, 수평 정보를 통한 3차원 정보를 보다 고도화된 다른 산업 분야에 활용하기에는 아직까지는 어려운 단계이다. The hologram, which can enjoy a three-dimensional sense of space, can be applied to other fields such as medical and service beyond culture and art. However, unlike general image information that deals with 2D information, it is still a difficult step to use 3D information through depth and horizontal information of hologram information to other advanced industries.

그 이유는 정확한 위치 정보를 파악해야 하고, 2차원 정보와 달리 3차원 정보가 가지는 많은 데이터량을 효과적으로 연산할 수 있어야 하기 때문이다. 이러한 문제들을 해결하기 위해서는 홀로그램 정보의 깊이 및 수평 위치를 효율적으로 연산할 수 있는 새로운 기술이 요구된다.The reason is that accurate location information needs to be grasped, and, unlike 2D information, a large amount of data possessed by 3D information must be effectively calculated. In order to solve these problems, a new technique that can efficiently calculate the depth and horizontal position of hologram information is required.

본 발명의 배경이 되는 기술은 한국공개특허 제2013-0081127호(2013.07.16 공개)에 있다.The background technology of the present invention is in Korean Patent Publication No. 2013-0081127 (published on July 16, 2013).

본 발명은 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용하여 물체의 3차원 위치를 추출할 수 있는 물체의 3차원 위치 추출 장치 및 그 방법을 제공하는데 목적이 있다.An object of the present invention is to provide an apparatus and a method for extracting a 3D location of an object that can extract a 3D location of an object using optical scanning holography and a convolutional neural network.

본 발명은, 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 물체의 3차원 위치 추출 장치에서의 3차원 위치 추출 방법에 있어서, 상기 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램 데이터를 획득하는 단계와, 상기 획득된 홀로그램 데이터를 기 학습된 CNN 신경망에 입력시켜 상기 물체의 깊이 위치 및 수평 위치를 추출하는 단계, 및 상기 추출된 깊이 및 수평 위치를 이용하여 상기 물체의 3차원 위치를 제공하는 단계를 포함하는 물체의 3차원 위치 추출 방법을 제공한다.The present invention, in a three-dimensional position extraction method in a three-dimensional position extraction apparatus of an object using optical scanning holography and a convolutional neural network, obtaining the hologram data of the object using the optical scanning holography, And inputting the obtained hologram data into a pre-trained CNN neural network to extract the depth position and the horizontal position of the object, and providing the 3D position of the object using the extracted depth and horizontal position. Provides a method for extracting a 3D position of an object.

또한, 상기 물체의 3차원 위치 추출 방법은, 복수의 위치 정보 별로 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 위치 정보를 학습 데이터로 사용하여 상기 CNN 신경망을 학습시키는 단계를 더 포함하며, 상기 위치 정보는 깊이 위치 및 수평 위치를 포함할 수 있다.In addition, the three-dimensional position extraction method of the object, further comprising the step of learning the CNN neural network by using the feature information extracted from the hologram data of the learning object for each of the plurality of position information and the corresponding position information as learning data. , The location information may include a depth location and a horizontal location.

또한, 상기 홀로그램 데이터는, 상기 광 스캐닝 홀로그래피에서 획득한 복소수 홀로그램, 상기 복소수 홀로그램의 실수 부분에 해당하는 실수 홀로그램, 상기 복소수 홀로그램을 이용하여 획득한 탈 축 홀로그램 중 선택된 하나일 수 있다.In addition, the hologram data may be one selected from a complex hologram obtained from the optical scanning holography, a real hologram corresponding to the real part of the complex hologram, and a deaxial hologram obtained using the complex hologram.

또한, 상기 CNN 신경망은, 상기 홀로그램 데이터에 대한 이미지 전체 영역 또는 일부 영역으로부터 상기 특징 정보를 추출할 수 있다.In addition, the CNN neural network may extract the feature information from all or part of an image area for the hologram data.

또한, 상기 일부 영역은, 상기 이미지의 질량 중심(COM; Center Of Mass)을 기준으로 설정 범위 이내의 영역 또는 상기 이미지 내에서 물체 주변에 형성되는 간섭 무늬인 프린지 패턴의 영역을 의미할 수 있다.In addition, the partial region may mean a region within a set range based on a center of mass (COM) of the image or a region of a fringe pattern that is an interference fringe formed around an object in the image.

또한, 상기 CNN 신경망은, 상기 홀로그램 데이터에 대한 이미지 전체 영역 또는 일부 영역을 푸리에 변환하여 획득한 주파수 도메인 상의 홀로그램 위상 정보를 상기 특징 정보로 사용할 수 있다.In addition, the CNN neural network may use the hologram phase information on the frequency domain obtained by Fourier transforming an entire region or a partial region of the hologram data as the feature information.

또한, 상기 CNN 신경망은, 상기 주파수 도메인 상의 주파수 원점으로부터 설정 주파수 반경 이내의 위상 정보만을 추출하여 상기 특징 정보로 사용하며, 상기 설정 주파수는 촬영 대상이 되는 물체의 최대 주파수일 수 있다.Also, the CNN neural network extracts only phase information within a set frequency radius from a frequency origin on the frequency domain and uses it as the feature information, and the set frequency may be a maximum frequency of an object to be photographed.

그리고, 본 발명은, 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 물체의 3차원 위치 추출 장치에 있어서, 상기 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램 데이터를 획득하는 획득부와, 상기 획득된 홀로그램 데이터를 기 학습된 CNN 신경망에 입력시켜 상기 물체의 깊이 위치 및 수평 위치를 추출하는 추출부, 및 상기 추출된 깊이 및 수평 위치에 대응된 상기 물체의 3차원 위치를 제공하는 제공부를 포함하는 물체의 3차원 위치 추출 장치를 제공한다.In addition, the present invention, in the apparatus for extracting a 3D position of an object using optical scanning holography and a convolutional neural network, an acquisition unit for acquiring hologram data of the object using the optical scanning holography, and the acquired hologram data 3 of an object including an extraction unit for extracting a depth position and a horizontal position of the object by inputting it into a pre-trained CNN neural network, and a provision unit for providing a 3D position of the object corresponding to the extracted depth and horizontal position. It provides a dimensional position extraction device.

또한, 상기 물체의 3차원 위치 추출 장치는, 복수의 위치 정보 별로 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 위치 정보를 학습 데이터로 사용하여 상기 CNN 신경망을 학습시키는 학습부를 더 포함하며, 상기 위치 정보는 깊이 위치 및 수평 위치를 포함할 수 있다.In addition, the apparatus for extracting a 3D position of an object further includes a learning unit for learning the CNN neural network by using feature information extracted from hologram data of a learning object for a plurality of position information and corresponding position information as learning data. , The location information may include a depth location and a horizontal location.

본 발명에 따르면, 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용하여 물체의 홀로그램 데이터로부터 물체의 깊이 및 수평 위치를 추출하여 3차원 위치를 제공할 수 있는 이점을 제공한다.According to the present invention, it is possible to provide a three-dimensional position by extracting the depth and horizontal position of the object from the hologram data of the object using optical scanning holography and a convolutional neural network.

도 1은 본 발명의 실시예에 따른 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 물체의 3차원 위치 추출 장치의 구성을 나타낸 도면이다.
도 2는 도 1의 장치를 이용한 물체의 3차원 위치 추출 방법을 설명하는 도면이다.
도 3은 본 발명의 실시예에서 홀로그램 데이터에 대한 이미지 전체 또는 일부 영역을 학습에 사용하는 개념을 설명하는 도면이다.
도 4은 홀로그램 데이터에서 물체 주변에 프린지 패턴이 관측된 모습을 예시한 도면이다.
도 5는 소정의 홀로그램 데이터를 푸리에 변환한 결과를 예시한 도면이다.
도 6은 CNN 신경망에서 이미지와 필터 간 합성곱을 이용하여 특징 지도를 형성하는 원리를 간략히 나타낸 도면이다.
도 7은 도 6의 이미지에 대해 다양한 필터를 사용하여 특징 지도를 생성하는 모습을 예시한 도면이다.
도 8은 CNN 신경망에서 수행하는 풀링 작업을 나타낸 도면이다.
도 9는 CNN 신경망의 구조를 설명한 도면이다.
도 10은 본 발명의 실시예에 따른 홀로그램 정보로부터 CNN 분석을 이용하여 물체의 깊이 및 수평 위치를 추출하는 원리를 설명한 도면이다.
1 is a view showing the configuration of an apparatus for extracting a 3D position of an object using optical scanning holography and a convolutional neural network according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a method for extracting a 3D position of an object using the apparatus of FIG. 1.
3 is a diagram illustrating a concept of using all or part of an image for hologram data for learning in an embodiment of the present invention.
4 is a diagram illustrating a fringe pattern observed around an object in hologram data.
5 is a diagram illustrating a result of Fourier transform of a predetermined hologram data.
FIG. 6 is a diagram briefly showing the principle of forming a feature map using a composite product between an image and a filter in a CNN neural network.
7 is a diagram illustrating a state in which a feature map is generated using various filters on the image of FIG. 6.
8 is a diagram illustrating a pooling operation performed in a CNN neural network.
9 is a diagram illustrating the structure of a CNN neural network.
10 is a diagram illustrating a principle of extracting the depth and horizontal position of an object using CNN analysis from hologram information according to an embodiment of the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains can easily practice.

도 1은 본 발명의 실시예에 따른 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 물체의 3차원 위치 추출 장치의 구성을 나타낸 도면이다.1 is a view showing the configuration of an apparatus for extracting a 3D position of an object using optical scanning holography and a convolutional neural network according to an embodiment of the present invention.

도 1에 나타낸 것과 같이, 본 발명의 실시예에 따른 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 물체의 3차원 위치 추출 장치(100)는 획득부(110), 추출부(120), 제공부(130), 학습부(140)를 포함한다.As shown in FIG. 1, the apparatus for extracting a 3D position of an object using optical scanning holography and a convolutional neural network according to an embodiment of the present invention includes an acquiring unit 110, an extracting unit 120, and a provision unit 130, a learning unit 140.

우선, 획득부(110)는 광 스캐닝 홀로그래피(OSH; Optical Scanning Holography)를 이용하여 물체의 홀로그램 데이터를 획득한다. 광 스캐닝 홀로그래피는 광 스캐닝을 기반으로 물체의 홀로그램을 획득하는 기기로서 기존에 다양하게 공지되어 있다. 광 스캐닝 홀로그래피는 본 발명의 장치에 포함되거나 장치와 유무선 연결되어 동작할 수 있다.First, the acquiring unit 110 acquires hologram data of an object using optical scanning holography (OSH). Optical scanning holography is a device for acquiring a hologram of an object based on optical scanning, and is known in various ways. The optical scanning holography may be included in the device of the present invention or may be operated in a wired or wireless connection with the device.

이하의 본 발명의 실시예는 앞서 배경 기술에 언급한 본 출원인에 의한 공개특허 제2013-0081127호에 도시된 도 1의 홀로그램 획득 장치를 이용하여 물체의 홀로그램 데이터를 획득하는 것을 가정한다. 다만, 본 발명이 반드시 이에 한정되는 것은 아니며, 기 공지된 장치 중에서 선택 적용 가능하다.The following embodiment of the present invention assumes that the hologram data of the object is obtained by using the hologram acquisition apparatus of FIG. 1 shown in Korean Patent Application Publication No. 2013-0081127 by the present applicant mentioned above in the background art. However, the present invention is not necessarily limited to this, and can be selected and applied among known devices.

사용된 홀로그램 획득 장치의 구성은 크게 광학계 및 전자처리부로 구분된다. 광학계는 광원에서 분리된 두 빔을 변조하여 생성한 구면파와 평면파를 간섭 수단을 이용하여 서로 중첩시켜 스캔 빔을 형성한다. 그리고 형성한 스캔 빔을 이용하여 물체(촬영대상물)를 스캐닝한 다음, 물체로부터 반사되는 스캔 빔을 집광하여 광 검출수단에 집속시키고 집속된 빛의 세기에 비례한 전기 신호를 광 검출 수단을 통해 생성하여 전자처리부로 전달한다.The configuration of the used hologram acquisition device is largely divided into an optical system and an electronic processing unit. The optical system modulates the two beams separated from the light source to form a scan beam by superimposing each other on a spherical wave and a plane wave using interference means. Then, an object (an object to be photographed) is scanned using the formed scan beam, and then the scan beam reflected from the object is condensed to focus on the light detection means, and an electrical signal proportional to the intensity of the focused light is generated through the light detection means. To the electronic processing unit.

이러한 전기 신호를 각각의 스캐닝 위치에 따라 저장하면 전기 신호는 물체의 홀로그램이 된다. 이때, 쌍 영상 및 배경 잡음이 없는 물체의 복소수 홀로그램을 추출하기 위해, 광학계에서는 상호 중첩되는 두 빔의 주파수를 편위하는 방식을 사용하여 시간에 따라 스캔빔을 변조하여 물체를 스캐닝한다.When these electrical signals are stored according to each scanning position, the electrical signals become holograms of objects. At this time, in order to extract the complex hologram of the object having no paired image and background noise, the optical system scans the object by modulating the scan beam with time using a method of shifting the frequencies of two overlapping beams.

전자처리부는 광 검출수단에서 출력된 전기 신호를 수신하여 디지털 신호로 변환하고 변환된 디지털 신호로부터 물체의 홀로그램 데이터를 생성하여 저장부에 저장한다. 여기서, 전자처리부는 디지털 신호를 복소수 합성 방식으로 합성하여 각각의 스캐닝 위치에 따라 저장하는 방법을 통해 물체에 대한 복소수 홀로그램을 생성하여 저장한다. 이하의 본 발명의 실시예는 상술한 방법을 통하여 생성되어 저장부에 저장된 홀로그램 데이터를 사용하는 것을 가정하여 설명한다.The electronic processing unit receives the electrical signal output from the light detection means, converts it into a digital signal, generates hologram data of the object from the converted digital signal, and stores it in a storage unit. Here, the electronic processing unit generates and stores a complex number hologram for the object through a method of synthesizing a digital signal using a complex number synthesis method and storing it according to each scanning position. Hereinafter, an embodiment of the present invention will be described on the assumption that hologram data generated through the above-described method and stored in the storage unit is used.

또한, 본 발명의 실시예에서 사용되는 홀로그램 데이터는, 광 스캐닝 홀로그래피에서 획득한 복소수 홀로그램일 수도 있고, 복소수 홀로그램의 실수 부분에 해당하는 실수 홀로그램일 수도 있으며, 복소수 홀로그램을 이용하여 합성한 탈 축(off-axis) 홀로그램일 수도 있다.In addition, the hologram data used in the embodiment of the present invention may be a complex hologram obtained from optical scanning holography, a real hologram corresponding to a real part of the complex hologram, or decomposition synthesized using a complex hologram ( It may be an off-axis hologram.

본 발명의 실시예에서 추출부(120)는 획득된 홀로그램 데이터를 기 학습된 CNN 신경망에 입력시켜 상기 물체의 깊이 위치 및 수평 위치를 추출한다. 여기서, CNN은 기 공지된 컨볼루셔널 뉴럴 네트워크(Convolutional Neural Network)를 의미한다. In an embodiment of the present invention, the extraction unit 120 extracts the depth position and the horizontal position of the object by inputting the obtained hologram data into a pre-trained CNN neural network. Here, CNN means a well-known convolutional neural network.

여기서, 깊이 위치는 홀로그램 데이터를 획득하는 광 스캐닝 홀로그래피의 위치(예를 들어, 기 설정된 기준 깊이 위치 z=0)를 기준으로 물체가 상대적으로 떨어진 거리를 의미할 수 있다. 물론 스캐닝 대상 물체가 전후로 움직일 경우 물체의 깊이 위치는 달라질 수 있다. Here, the depth position may mean a distance at which an object is relatively separated based on the position of the optical scanning holography (eg, a preset reference depth position z=0) for obtaining hologram data. Of course, if the object to be scanned moves back and forth, the depth position of the object may vary.

수평 위치는 해당 깊이에서의 2차원 평면 상의 위치를 의미한다. 즉, 수평 위치는 기 설정된 x,y 평면의 기준점(예를 들어, x=0, y=0)에 대한 물체의 2차원 위치를 의미할 수 있으며, 물체가 상하좌우로 움직일 경우 물체의 수평 위치는 달라질 수 있다.The horizontal position means the position on the two-dimensional plane at the corresponding depth. That is, the horizontal position may mean a two-dimensional position of the object with respect to a reference point (for example, x=0, y=0) of a preset x,y plane, and the horizontal position of the object when the object moves up, down, left, and right Can be different.

그리고, 본 발명의 실시예에서, 기 학습된 CNN 신경망이란, 학습용 물체를 대상으로 기 알고 있는 다양한 3차원 위치 지점에서 획득한 학습용 물체에 대한 홀로그램 데이터 및 그에 대응된 위치 정보를 각각 학습 데이터로 활용하여, 학습부(140)에서 미리 학습시킨 신경망에 해당할 수 있다. 여기서 물론, 위치 정보는 물체의 깊이 위치 및 수평 위치를 포함하는 정보이다.In addition, in an embodiment of the present invention, the pre-trained CNN neural network uses hologram data for a learning object acquired from various 3D location points already known as a target for a learning object and location information corresponding thereto as learning data. Thus, it may correspond to a neural network previously learned by the learning unit 140. Here, of course, the position information is information including the depth position and the horizontal position of the object.

학습부(140)는 이러한 복수의 위치 정보 별로 학습용 물체에 대해 기 획득한 홀로그램 데이터 및 그에 대응되는 위치 정보를 학습 데이터로 사용하여 CNN 신경망을 사전에 학습시킨다. 여기서, 학습부(140)는 홀로그램 데이터에서 추출한 특징 정보와 그에 대응된 위치 정보를 학습시킨다.The learning unit 140 pre-trains the CNN neural network by using the pre-obtained hologram data for the learning object for each of the plurality of location information and the corresponding location information as the training data. Here, the learning unit 140 learns feature information extracted from hologram data and location information corresponding thereto.

이에 따르면, 학습된 CNN 신경망에 소정의 물체에 대한 홀로그램 데이터를 입력하는 것만으로 해당 물체에 대한 3차원 위치를 빠르고 용이하게 획득할 수 있다. 본 발명의 실시예에서 CNN 신경망의 학습에 사용되는 학습용 물체의 종류는 특별히 제한되지 않으며 다양한 종류의 물체들에 대한 홀로그램 데이터가 깊이 정보 학습에 사용될 수 있음은 물론이다.According to this, it is possible to quickly and easily obtain a three-dimensional position of the object by simply inputting hologram data for a given object into the learned CNN neural network. In the embodiment of the present invention, the type of the learning object used for the learning of the CNN neural network is not particularly limited, and it is needless to say that hologram data for various types of objects may be used for depth information learning.

제공부(130)는 추출부(120)에서 추출된 물체의 깊이 및 수평 위치를 이용하여 물체의 3차원 위치를 제공한다. 제공부(130)는 물체의 z 축상의 깊이 및 x,y 평면 상의 수평 위치를 결합하여 물체의 3차원 위치를 확인할 수 있다.The providing unit 130 provides a three-dimensional position of the object using the depth and horizontal position of the object extracted from the extraction unit 120. The providing unit 130 may confirm the three-dimensional position of the object by combining the depth on the z axis of the object and the horizontal position on the x,y plane.

이와 같이, 본 발명의 실시예는 광 스캐닝 홀로그래피로부터 획득된 물체의 홀로그램 데이터를 기 학습된 CNN 신경망에 입력하여 출력되는 결과로부터 물체의 3차원 위치를 추출하여 제공할 수 있다. As described above, an embodiment of the present invention can provide a hologram data of an object obtained from optical scanning holography by inputting it into a pre-trained CNN neural network and extracting the three-dimensional position of the object from the output result.

도 2는 도 1의 장치를 이용한 물체의 3차원 위치 추출 방법을 설명하는 도면이다.FIG. 2 is a diagram illustrating a method for extracting a 3D position of an object using the apparatus of FIG. 1.

먼저, 학습부(140)는 복수의 위치 정보 별로 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 위치 정보를 학습 데이터로 사용하여 CNN 신경망을 사전에 학습시킨다(S210).First, the learning unit 140 pre-trains the CNN neural network by using feature information extracted from hologram data of a learning object for each location information and location information corresponding to the location information as the learning data (S210).

CNN 신경망은 입력된 데이터에 대한 특징을 컨볼루셔널 레이어를 통해 추출하며, 추출한 특징과 그에 대응되는 결과값을 각각 입력과 출력으로 하여 뉴럴 네트워크를 학습시킨다.The CNN neural network extracts the features of the input data through the convolutional layer, and trains the neural network by using the extracted features and the corresponding result values as inputs and outputs, respectively.

학습부(140)는 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 깊이 및 수평 위치를 학습 데이터로 사용한다. 이에 따라, 학습용 물체의 깊이 및 수평 위치 별로 홀로그램 데이터의 특징(Feature)이 학습된다.The learning unit 140 uses feature information extracted from hologram data of a learning object and corresponding depth and horizontal positions as learning data. Accordingly, the feature of the hologram data is learned for each depth and horizontal position of the learning object.

도 3은 본 발명의 실시예에서 홀로그램 데이터에 대한 이미지 전체 또는 일부 영역을 학습에 사용하는 개념을 설명하는 도면이다.3 is a diagram illustrating a concept of using all or part of an image for hologram data for learning in an embodiment of the present invention.

도 3에 나타낸 것과 같이, 본 발명의 실시예에서 CNN 신경망은 홀로그램 데이터에 대한 이미지 전체 영역 또는 일부 영역으로부터 특징 정보를 추출하여 학습할 수 있다. 즉, 홀로그램 데이터의 전체를 기계 학습할 수도 있고 일부 특정 영역을 기계 학습할 수 있다. 이는 전체 홀로그램 데이터를 처리하는 것보다 일부 특정 영역으로 특정하여 처리하는 경우 데이터 연산량 및 데이터 연산 시간을 줄일 수 있기 때문이다.As shown in FIG. 3, in an embodiment of the present invention, the CNN neural network can learn by extracting feature information from all or part of an image area for hologram data. That is, the whole hologram data may be machine-learned or some specific area may be machine-learned. This is because the amount of data computation and data computation time can be reduced when the specific holographic data is processed in a specific area rather than the entire hologram data.

도 3의 첫 번째 그림은 이미지 전체 영역을 활용하는 경우이고, 두 번째 그림은 물체 주변의 특징이 되는 일부 영역을 학습에 사용하는 경우이며, 세 번째 그림은 전체 영역에 대한 질량 중심(COM; Center Of Mass)으로부터 설정 범위 영역을 학습에 사용하는 경우이다. The first picture in FIG. 3 is a case where the entire area of the image is utilized, the second picture is a case where some areas that are characteristic of the object are used for learning, and the third picture is a center of mass (COM; Center) for the entire area. Of Mass).

이미지의 질량 중심을 구하는 방법은 기 공지되어 있다. 또한, 설정 범위는 임의 반경 또는 임의 사각형 영역일 수 있는데, 특정 반경은 광 스캐닝 홀로그래피의 FZP(Fresnel zone plate)의 크기임이 바람직하다. Methods for obtaining the center of mass of an image are well known. In addition, the set range may be an arbitrary radius or an arbitrary rectangular area, and it is preferable that the specific radius is the size of a FZP (Fresnel zone plate) of optical scanning holography.

이와 같이, 본 발명의 실시예의 경우, 일부 영역으로 홀로그램 데이터에 대한 이미지의 질량 중심을 기준으로 설정 범위 이내의 영역을 사용할 수도 있고, 이미지 내에서 물체 주변에 형성되는 간섭 무늬인 프린지 패턴의 영역을 사용할 수도 있다.As described above, in an embodiment of the present invention, an area within a set range based on the center of mass of an image for hologram data may be used as a partial area, or an area of a fringe pattern that is an interference fringe formed around an object in an image You can also use

특히, 프린지 패턴에는 광 스캐닝 홀로그래피 장치로부터 떨어진 물체의 깊이 및 수평 위치에 관한 정보가 포함되어 있다. 이와 같이, 학습부(140)는 홀로그램 데이터에서 물체의 주변에 형성되는 간섭 무늬인 프린지 패턴 부분의 특징을 추출하여 학습에 사용할 수 있다.In particular, fringe patterns contain information about the depth and horizontal position of objects away from the optical scanning holography device. As such, the learning unit 140 may extract features of the fringe pattern portion, which is an interference fringe formed around the object, from the hologram data and use it for learning.

도 4는 홀로그램 데이터에서 물체 주변에 프린지 패턴이 관측된 모습을 예시한 도면이다. 4 is a view illustrating a fringe pattern observed around an object in hologram data.

도 4의 적색 화살표를 참조하면, 물체의 주변을 따라 형성된 프린지 패턴의 간격은 물체 방향으로 점점 늘어나는 처프 함수 형태를 가진다. 여기서, 광 스캐닝 홀로그래피 장치로부터 떨어진 물체의 깊이 및 수평 위치에 따라 프린지 간격이나 간격의 증감율, 길이 변화 등이 달라질 수 있다.Referring to the red arrow in FIG. 4, the interval of the fringe pattern formed along the periphery of the object has a shape of a chirp function that gradually increases in the direction of the object. Here, a fringe interval or an increase or decrease in the interval or a change in length may vary depending on the depth and horizontal position of an object away from the optical scanning holography device.

이와 같이, 프린지 패턴의 특징을 분석하면 물체의 깊이 및 수평 위치에 대한 정보를 확인할 수 있다. 또한, 이러한 점을 이용하여, 본 발명의 실시예는 홀로그램 데이터 상의 물체 주변의 프린지 패턴을 특징 정보로 하여 위치 정보를 학습시킬 수 있다. As described above, by analyzing the characteristics of the fringe pattern, information about the depth and horizontal position of the object can be confirmed. In addition, by using these points, an embodiment of the present invention can learn location information by using a fringe pattern around an object on hologram data as feature information.

그 밖에도, 본 발명의 실시예에서 CNN 신경망은 홀로그램 데이터에 대한 이미지 전체 영역 또는 일부 영역을 푸리에 변환(Fourier Transformation)하여 획득한 주파수 도메인 상의 홀로그램 위상 정보를 특징 정보로 사용할 수 있다. In addition, in an embodiment of the present invention, the CNN neural network may use holographic phase information on the frequency domain obtained by Fourier Transformation of an entire region or a partial region of the hologram data as feature information.

이 경우 학습부(140)는 푸리에 도메인에서의 홀로그램의 위상을 CNN 신경망의 입력으로 하고 물체의 깊이 위치와 수평 위치를 출력으로 하여 CNN 신경망을 기계 학습시킬 수 있다. 물론, 학습부(140)는 푸리에 변환하여 획득한 푸리에 도메인에서 홀로그램 위상 전체를 CNN 신경망의 입력으로 할 수도 있고 일부를 입력으로 할 수도 있다.In this case, the learning unit 140 may machine-train the CNN neural network by using the phase of the hologram in the Fourier domain as the input of the CNN neural network and the depth position and the horizontal position of the object as outputs. Of course, the learning unit 140 may use the entire hologram phase in the Fourier domain obtained by Fourier transform as an input of a CNN neural network or a part of it.

도 5는 소정의 홀로그램 데이터를 푸리에 변환한 결과를 예시한 도면이다. 이러한 도 5에서 가로축, 세로축, 높이축의 데이터는 각각 x-방향의 공간주파수, y-방향의 공간주파수 그리고 강도를 의미한다.5 is a diagram illustrating a result of Fourier transform of a predetermined hologram data. In FIG. 5, data on the horizontal axis, vertical axis, and height axis refer to spatial frequencies in the x-direction, spatial frequencies in the y-direction, and intensity, respectively.

도 5의 오른쪽 그림에서 적색 원의 중심은 물체의 최대 공간 주파수를 의미하며, 적색 원 내부에는 홀로그램 정보와 물체 정보가 혼재되어 있다. 해당 영역의 주파수 반경 이내에서의 홀로그램 위상 특징을 이용하여 CNN 신경망을 학습시킬 수 있다.In the right figure of FIG. 5, the center of the red circle means the maximum spatial frequency of the object, and hologram information and object information are mixed inside the red circle. A CNN neural network can be trained using a hologram phase feature within a frequency radius of a corresponding region.

이와 같이, CNN 신경망은 주파수 도메인 상의 전체 위상 정보를 사용할 수도 있지만, 주파수 도메인 상의 주파수 원점으로부터 설정 주파수 반경 이내의 위상 정보만을 추출하여 특징 정보로 사용할 수 있다. 여기서 물론, 설정 주파수는 촬영 대상이 되는 물체의 최대 주파수를 나타낸다.As described above, the CNN neural network may use all phase information on the frequency domain, but only phase information within a set frequency radius may be extracted from the frequency origin on the frequency domain and used as feature information. Here, of course, the set frequency represents the maximum frequency of the object to be photographed.

본 발명의 실시예에서 사용되는 CNN 신경망의 학습 원리는 기 공지된 것에 해당하나 이에 관하여 간단히 설명하면 다음과 같다. CNN 신경망은 입력 데이터에 특징 추출을 위한 필터를 적용하여 특징 지도(feature map)를 형성하고, 추출된 특징들의 연산 속도를 높이기 위해 풀링(pooling) 작업을 거친다. The learning principle of the CNN neural network used in the embodiment of the present invention corresponds to the well-known, but briefly described as follows. The CNN neural network forms a feature map by applying a filter for feature extraction to the input data, and undergoes a pooling operation to speed up the computation of the extracted features.

도 6은 CNN 신경망에서 이미지와 필터 간 합성곱을 이용하여 특징 지도를 형성하는 원리를 간략히 나타낸 도면이고, 도 7은 도 6의 이미지에 대해 다양한 필터를 사용하여 특징 지도를 생성하는 모습을 예시한 도면이다.FIG. 6 is a diagram briefly showing a principle of forming a feature map using a composite product between an image and a filter in a CNN neural network, and FIG. 7 is a diagram illustrating a state in which a feature map is generated using various filters for the image of FIG. 6 to be.

도 6의 (a)는 입력 이미지와 그에 적용되는 필터를 예시한 것이며, (b)는 입력 이미지에 해당 필터를 적용하여 합성곱(convolution)을 통해 특징 지도(feature map)를 형성한 모습을 나타낸다. 물론 이는 공지된 기법에 해당한다. 6(a) illustrates an input image and a filter applied thereto, and (b) shows a feature map formed by convolution by applying a corresponding filter to the input image. . Of course, this corresponds to a known technique.

예를 들면, 도 6과 같이 CNN 신경망에 입력되는 홀로그램 데이터에 대해 필터를 적용하여 입력 데이터와 필터 간의 합성곱을 통하여 데이터의 특징을 판별하는 특징 지도를 형성한다. 이때, 도 7과 같이 다양한 크기와 종류의 필터를 사용하여 해당 필터를 적용한 채널로 구분 짓고 이를 통해 입력받은 데이터를 더욱 자세히 분류 및 분석할 수 있다. 위의 방법으로 추출된 특징들은 연산 속도를 빠르게 하기 위한 풀링 작업을 거친다. For example, as shown in FIG. 6, a filter is applied to hologram data input to a CNN neural network to form a feature map for discriminating characteristics of data through a composite product between the input data and the filter. At this time, as shown in FIG. 7, various sizes and types of filters are used to classify the channels into which the corresponding filters are applied, and the received data can be further classified and analyzed. Features extracted by the above method go through a pooling operation to speed up the calculation.

도 8은 CNN 신경망에서 수행하는 풀링 작업을 나타낸 도면이다. 도 8은 최대값을 이용한 max pooling과 평균값을 이용한 average pooling 방식을 함께 도시하고 있다. 도 8의 좌측에 도시한 특징 지도는 풀링 작업 결과 크기가 축소된 것을 알 수 있다.8 is a diagram illustrating a pooling operation performed in a CNN neural network. 8 shows both max pooling using a maximum value and an average pooling method using an average value. It can be seen that the feature map shown on the left side of FIG. 8 has been reduced in size as a result of the pulling operation.

이러한 풀링 작업은 데이터가 나열된 특징 지도의 행렬 구조에서 정사각 행렬의 특정 영역 내부의 값들에 대한 최대값 또는 평균값을 구하고 이를 해당 영역 상에 하나의 값으로 치환하여 데이터의 크기를 줄이는 방법이다. Such a pooling operation is a method of reducing the size of data by obtaining a maximum value or an average value for values in a specific area of a square matrix from a matrix structure of a feature map in which data is listed, and replacing it with a single value on the corresponding area.

도 9는 CNN 신경망의 구조를 설명한 도면이다. 도 9는 특징 지도 생성 작업과 풀링 작업이 반복되는 구조의 CNN 신경망을 나타낸 것으로, 합성곱을 이용한 필터와 풀링을 반복적으로 조합하여 컨볼루셔널 레이어를 구축하여 특징을 추출할 수 있으며, 추출한 특징은 뉴럴 네트워크에서 깊이 위치와 함께 학습된다. 9 is a diagram illustrating the structure of a CNN neural network. FIG. 9 shows a CNN neural network having a structure in which a feature map generation and a pooling operation are repeated, and a filter and pooling using a composite product can be repeatedly combined to construct a convolutional layer to extract features, and the extracted features are neural. It is learned with depth locations in the network.

학습이 완료된 이후, 획득부(110)는 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램을 획득한다(S220). 그리고, 추출부(120)는 획득된 홀로그램 데이터를 기 학습된 CNN 신경망에 입력시켜 물체의 깊이 위치 및 수평 위치를 도출하며(S230), 제공부(130)는 추출된 깊이 및 수평 위치를 이용하여 물체의 3차원 위치를 제공한다(S240).After the learning is completed, the acquisition unit 110 acquires a hologram of the object using optical scanning holography (S220). Then, the extraction unit 120 derives the depth position and the horizontal position of the object by inputting the obtained hologram data into the pre-trained CNN neural network (S230), and the providing unit 130 uses the extracted depth and horizontal position Provide a three-dimensional position of the object (S240).

도 10은 본 발명의 실시예에 따른 홀로그램 정보로부터 CNN 분석을 이용하여 물체의 깊이 및 수평 위치를 추출하는 원리를 설명한 도면이다. 이러한 도 10은 물체에 대한 홀로그램 데이터를 CNN에 입력하였을 때 해당 물체의 깊이 및 수평 위치를 출력하는 것을 나타낸다. 10 is a diagram illustrating a principle of extracting the depth and horizontal position of an object using CNN analysis from hologram information according to an embodiment of the present invention. 10 shows that when hologram data for an object is input to the CNN, the depth and horizontal position of the object are output.

이상과 같은 본 발명에 따르면, 광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용하여 물체의 홀로그램 데이터로부터 물체의 깊이 및 수평 위치를 추출하여 3차원 위치를 제공할 수 있는 이점을 제공한다.According to the present invention as described above, by using the optical scanning holography and convolutional neural network, it is possible to provide a three-dimensional position by extracting the depth and horizontal position of the object from the hologram data of the object.

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

100: 물체의 3차원 위치 추출 장치
110: 획득부 120: 추출부
130: 제공부 140: 학습부
100: 3D position extraction device of the object
110: acquisition unit 120: extraction unit
130: providing unit 140: learning unit

Claims (14)

광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 물체의 3차원 위치 추출 장치에서의 3차원 위치 추출 방법에 있어서,
상기 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램 데이터를 획득하는 단계;
상기 획득된 홀로그램 데이터를 기 학습된 CNN 신경망에 입력시켜 상기 물체의 깊이 위치 및 수평 위치를 추출하는 단계; 및
상기 추출된 깊이 및 수평 위치를 이용하여 상기 물체의 3차원 위치를 제공하는 단계를 포함하는 물체의 3차원 위치 추출 방법.
In the 3D position extraction method in the 3D position extraction apparatus of an object using optical scanning holography and a convolutional neural network,
Acquiring hologram data of an object using the optical scanning holography;
Extracting the depth position and the horizontal position of the object by inputting the obtained hologram data into a pre-trained CNN neural network; And
And providing a three-dimensional position of the object using the extracted depth and horizontal position.
청구항 1에 있어서,
복수의 위치 정보 별로 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 위치 정보를 학습 데이터로 사용하여 상기 CNN 신경망을 학습시키는 단계를 더 포함하며,
상기 위치 정보는 깊이 위치 및 수평 위치를 포함하는 물체의 3차원 위치 추출 방법.
The method according to claim 1,
Further comprising the step of learning the CNN neural network by using the feature information extracted from the hologram data of the learning object for each location information and the corresponding location information as the training data,
The location information is a method of extracting a 3D location of an object including a depth location and a horizontal location.
청구항 2에 있어서,
상기 홀로그램 데이터는,
상기 광 스캐닝 홀로그래피에서 획득한 복소수 홀로그램, 상기 복소수 홀로그램의 실수 부분에 해당하는 실수 홀로그램, 상기 복소수 홀로그램을 이용하여 획득한 탈 축 홀로그램 중 선택된 하나인 물체의 3차원 위치 추출 방법.
The method according to claim 2,
The hologram data,
A method for extracting a 3D position of an object that is a selected one of a complex hologram obtained from the optical scanning holography, a real hologram corresponding to the real part of the complex hologram, and a deaxial hologram obtained using the complex hologram.
청구항 2에 있어서,
상기 CNN 신경망은,
상기 홀로그램 데이터에 대한 이미지 전체 영역 또는 일부 영역으로부터 상기 특징 정보를 추출하는 물체의 3차원 위치 추출 방법.
The method according to claim 2,
The CNN neural network,
A method of extracting a 3D position of an object that extracts the feature information from all or part of an image area for the hologram data.
청구항 4에 있어서,
상기 일부 영역은,
상기 이미지의 질량 중심(COM; Center Of Mass)을 기준으로 설정 범위 이내의 영역 또는 상기 이미지 내에서 물체 주변에 형성되는 간섭 무늬인 프린지 패턴의 영역을 의미하는 물체의 3차원 위치 추출 방법.
The method according to claim 4,
Some of the areas,
A method for extracting a three-dimensional position of an object, which means an area within a set range based on a center of mass (COM) of the image or an area of a fringe pattern that is an interference fringe formed around the object in the image.
청구항 4에 있어서,
상기 CNN 신경망은,
상기 홀로그램 데이터에 대한 이미지 전체 영역 또는 일부 영역을 푸리에 변환하여 획득한 주파수 도메인 상의 홀로그램 위상 정보를 상기 특징 정보로 사용하는 물체의 3차원 위치 추출 방법.
The method according to claim 4,
The CNN neural network,
A method of extracting a three-dimensional position of an object using holographic phase information on a frequency domain obtained by Fourier transforming an entire region or a partial region of the image for the hologram data as the feature information.
청구항 6에 있어서,
상기 CNN 신경망은,
상기 주파수 도메인 상의 주파수 원점으로부터 설정 주파수 반경 이내의 위상 정보만을 추출하여 상기 특징 정보로 사용하며,
상기 설정 주파수는 촬영 대상이 되는 물체의 최대 주파수인 물체의 3차원 위치 추출 방법.
The method according to claim 6,
The CNN neural network,
Only the phase information within a set frequency radius is extracted from the frequency origin on the frequency domain and used as the feature information.
The set frequency is a method of extracting a 3D position of an object that is a maximum frequency of an object to be photographed.
광 스캐닝 홀로그래피와 컨볼루셔널 뉴럴 네트워크를 이용한 물체의 3차원 위치 추출 장치에 있어서,
상기 광 스캐닝 홀로그래피를 이용하여 물체의 홀로그램 데이터를 획득하는 획득부;
상기 획득된 홀로그램 데이터를 기 학습된 CNN 신경망에 입력시켜 상기 물체의 깊이 위치 및 수평 위치를 추출하는 추출부; 및
상기 추출된 깊이 및 수평 위치에 대응된 상기 물체의 3차원 위치를 제공하는 제공부를 포함하는 물체의 3차원 위치 추출 장치.
In the apparatus for extracting a 3D position of an object using optical scanning holography and a convolutional neural network,
An acquiring unit for acquiring hologram data of an object using the optical scanning holography;
An extraction unit that inputs the obtained hologram data into a pre-trained CNN neural network to extract a depth position and a horizontal position of the object; And
A device for extracting a 3D position of an object, including a provision unit for providing a 3D position of the object corresponding to the extracted depth and horizontal position.
청구항 8에 있어서,
복수의 위치 정보 별로 학습용 물체의 홀로그램 데이터에서 추출된 특징 정보 및 그에 대응되는 위치 정보를 학습 데이터로 사용하여 상기 CNN 신경망을 학습시키는 학습부를 더 포함하며,
상기 위치 정보는 깊이 위치 및 수평 위치를 포함하는 물체의 3차원 위치 추출 장치.
The method according to claim 8,
Further comprising a learning unit for learning the CNN neural network by using the feature information extracted from the hologram data of the learning object for each location information and the corresponding location information as the training data,
The position information is a device for extracting a 3D position of an object including a depth position and a horizontal position.
청구항 9에 있어서,
상기 홀로그램 데이터는,
상기 광 스캐닝 홀로그래피에서 획득한 복소수 홀로그램, 상기 복소수 홀로그램의 실수 부분에 해당하는 실수 홀로그램, 상기 복소수 홀로그램을 이용하여 획득한 탈 축 홀로그램 중 선택된 하나인 물체의 3차원 위치 추출 장치.
The method according to claim 9,
The hologram data,
3D position extraction apparatus for an object that is a selected one of a complex hologram obtained from the optical scanning holography, a real hologram corresponding to the real part of the complex hologram, and a de-axis hologram obtained using the complex hologram.
청구항 9에 있어서,
상기 CNN 신경망은,
상기 홀로그램 데이터에 대한 이미지 전체 영역 또는 일부 영역으로부터 상기 특징 정보를 추출하는 물체의 3차원 위치 추출 장치.
The method according to claim 9,
The CNN neural network,
An apparatus for extracting a 3D position of an object that extracts the feature information from all or part of an image area for the hologram data.
청구항 11에 있어서,
상기 일부 영역은,
상기 이미지의 질량 중심(COM; Center Of Mass)을 기준으로 설정 범위 이내의 영역 또는 상기 이미지 내에서 물체 주변에 형성되는 간섭 무늬인 프린지 패턴의 영역을 의미하는 물체의 3차원 위치 추출 장치.
The method according to claim 11,
Some of the areas,
3D position extraction device for an object that refers to a region within a set range based on a center of mass (COM) of the image or a fringe pattern that is an interference fringe formed around an object in the image.
청구항 11에 있어서,
상기 CNN 신경망은,
상기 홀로그램 데이터에 대한 이미지 전체 영역 또는 일부 영역을 푸리에 변환하여 획득한 주파수 도메인 상의 홀로그램 위상 정보를 상기 특징 정보로 사용하는 물체의 3차원 위치 추출 장치.
The method according to claim 11,
The CNN neural network,
An apparatus for extracting a 3D position of an object using holographic phase information on a frequency domain obtained by Fourier transforming an entire area or a partial area of the image for the hologram data as the feature information.
청구항 13에 있어서,
상기 CNN 신경망은,
상기 주파수 도메인 상의 주파수 원점으로부터 설정 주파수 반경 이내의 위상 정보만을 추출하여 상기 특징 정보로 사용하며,
상기 설정 주파수는 촬영 대상이 되는 물체의 최대 주파수인 물체의 3차원 위치 추출 장치.
The method according to claim 13,
The CNN neural network,
Only the phase information within a set frequency radius is extracted from the frequency origin on the frequency domain and used as the feature information.
The set frequency is the maximum frequency of the object to be photographed.
KR1020180160019A 2018-12-12 2018-12-12 Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof KR102167616B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180160019A KR102167616B1 (en) 2018-12-12 2018-12-12 Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180160019A KR102167616B1 (en) 2018-12-12 2018-12-12 Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof

Publications (2)

Publication Number Publication Date
KR20200072158A true KR20200072158A (en) 2020-06-22
KR102167616B1 KR102167616B1 (en) 2020-10-19

Family

ID=71142728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180160019A KR102167616B1 (en) 2018-12-12 2018-12-12 Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof

Country Status (1)

Country Link
KR (1) KR102167616B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014772A1 (en) * 2020-07-16 2022-01-20 포항공과대학교 산학협력단 Machine learning-based digital holography device and method for operating same
WO2022131452A1 (en) * 2020-12-16 2022-06-23 서울대학교산학협력단 Method and apparatus for generating hologram capable of multi-depth expression

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130081127A (en) * 2012-01-06 2013-07-16 세종대학교산학협력단 Hologram recording apparatus
KR20180065411A (en) * 2016-12-07 2018-06-18 한국해양과학기술원 System and method for automatic tracking of marine objects
US20180292784A1 (en) * 2017-04-07 2018-10-11 Thanh Nguyen APPARATUS, OPTICAL SYSTEM, AND METHOD FOR DIGITAL Holographic microscopy

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130081127A (en) * 2012-01-06 2013-07-16 세종대학교산학협력단 Hologram recording apparatus
KR20180065411A (en) * 2016-12-07 2018-06-18 한국해양과학기술원 System and method for automatic tracking of marine objects
US20180292784A1 (en) * 2017-04-07 2018-10-11 Thanh Nguyen APPARATUS, OPTICAL SYSTEM, AND METHOD FOR DIGITAL Holographic microscopy

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
학술발표 ‘IEEE 27th International Symposium on Industrial Electronics(ISIE)’ pp. 1323 - 1326(2018. 02. 02.)* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014772A1 (en) * 2020-07-16 2022-01-20 포항공과대학교 산학협력단 Machine learning-based digital holography device and method for operating same
WO2022131452A1 (en) * 2020-12-16 2022-06-23 서울대학교산학협력단 Method and apparatus for generating hologram capable of multi-depth expression

Also Published As

Publication number Publication date
KR102167616B1 (en) 2020-10-19

Similar Documents

Publication Publication Date Title
KR101408959B1 (en) Depth-varying light fields for three dimensional sensing
Wu et al. Dense-U-net: dense encoder–decoder network for holographic imaging of 3D particle fields
US20140211286A1 (en) Apparatus and method for generating digital hologram
KR102167616B1 (en) Apparatus extracting three-dimensional location of object using optical scanning holography and convolutional neural network and method thereof
CN102057397A (en) System and method for producing an optically sectioned image using both structured and uniform illumination
Anderson Microwave holography
CN108182663A (en) A kind of millimeter-wave image effect reinforcing method, equipment and readable storage medium storing program for executing
CN106446833B (en) A kind of bionical visible sensation method of multichannel for complex scene image recognition
KR101573362B1 (en) Fast and Flexible Digital Hologram Generation Method and Apparatus
Cho et al. Computational volumetric reconstruction of integral imaging with improved depth resolution considering continuously non-uniform shifting pixels
Bartolo et al. Scribbles to vectors: preparation of scribble drawings for CAD interpretation
JP2023172882A (en) Three-dimensional representation method and representation apparatus
CN101661625B (en) Method for generating sample images under all vision angles on basis of standard image
Shirvaikar et al. Developing texture-based image clutter measures for object detection
Laviada et al. Artifact mitigation for high-resolution near-field sar images by means of conditional generative adversarial networks
US9442459B2 (en) Making holographic data of complex waveforms
Schüßler et al. Deep learning based image enhancement for automotive radar trained with an advanced virtual sensor
Dalbah et al. RadarFormer: Lightweight and accurate real-time radar object detection model
Sung et al. Sonar image translation using generative adversarial network for underwater object recognition
JP2013054068A (en) Hologram generating device and hologram generating method
Guo 3D underwater topography rebuilding based on single beam sonar
KR20200072157A (en) Apparatus for three-dimensional object recognition and tracking using optical scanning holography and convolutional neural network and method thereof
Kalutskiy et al. Method of moving object detection from mobile vision system
CN104636745B (en) Scale invariant feature extracting method and device, object identifying method and device
CN110057321B (en) Three-dimensional object surface shape measuring method for rapidly realizing frequency domain dephasing based on x-f-k transformation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant