KR102578113B1 - 3-dimention object shape acquisition system and method - Google Patents

3-dimention object shape acquisition system and method Download PDF

Info

Publication number
KR102578113B1
KR102578113B1 KR1020230047070A KR20230047070A KR102578113B1 KR 102578113 B1 KR102578113 B1 KR 102578113B1 KR 1020230047070 A KR1020230047070 A KR 1020230047070A KR 20230047070 A KR20230047070 A KR 20230047070A KR 102578113 B1 KR102578113 B1 KR 102578113B1
Authority
KR
South Korea
Prior art keywords
image
frame
overlap
target
image acquisition
Prior art date
Application number
KR1020230047070A
Other languages
Korean (ko)
Inventor
나명환
강수람
김상균
박영식
Original Assignee
전남대학교 산학협력단
박영식
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교 산학협력단, 박영식 filed Critical 전남대학교 산학협력단
Priority to KR1020230047070A priority Critical patent/KR102578113B1/en
Application granted granted Critical
Publication of KR102578113B1 publication Critical patent/KR102578113B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

3차원 객체 형상 획득 시스템은, 3차원 객체의 상부에 위치하고, 상기 3차원 객체의 상부를 촬영하여 상부 영상을 생성하는 상부 센서, 상기 3차원 객체의 좌측에 위치하고, 상기 3차원 객체에 대한 좌측을 촬영하여 좌측 영상을 생성하는 좌측 센서, 상기 3차원 객체의 우측에 위치하고, 상기 3차원 객체에 대한 우측을 촬영하여 우측 영상을 생성하는 우측 센서, 상기 상부 영상으로부터 상기 3차원 객체의 위치 및 중첩도를 산출하며, 상기 중첩도에 기초하여 시작 시점으로부터 복수의 영상 획득 신호를 순차적으로 생성하는 제어부, 및 상기 복수의 영상 획득 신호에 따라 트리거 되어 상기 상부 영상, 상기 좌측 영상, 및 상기 우측 영상으로부터 복수의 대상 프레임을 저장하고, 상기 복수의 대상 프레임으로부터 상기 3차원 객체에 대한 3차원 생체 형상을 생성하는 복원 서버를 포함한다. The 3D object shape acquisition system includes an upper sensor located on the top of the 3D object and generating a top image by photographing the top of the 3D object, located on the left side of the 3D object, and the left side of the 3D object. A left sensor that captures and generates a left image, a right sensor located on the right side of the three-dimensional object and creates a right image by photographing the right side of the three-dimensional object, the position and overlap of the three-dimensional object from the upper image A control unit that calculates and sequentially generates a plurality of image acquisition signals from a starting point based on the degree of overlap, and is triggered according to the plurality of image acquisition signals to generate a plurality of image acquisition signals from the upper image, the left image, and the right image. It includes a restoration server that stores target frames and generates a 3D biometric shape for the 3D object from the plurality of target frames.

Description

3차원 객체 형상 획득 시스템 및 방법{3-DIMENTION OBJECT SHAPE ACQUISITION SYSTEM AND METHOD}3D object shape acquisition system and method {3-DIMENTION OBJECT SHAPE ACQUISITION SYSTEM AND METHOD}

본 발명은 3차원 객체 형상 획득 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for obtaining a three-dimensional object shape.

스마트 축산이나 반려동물 관리 등에 있어서 가축에 대한 3차원 생체 형상을 파악하는 기술에 대한 필요성이 있다. In smart livestock farming or companion animal management, there is a need for technology to determine the 3D biometric shape of livestock.

가축에 대한 3차원 생체 형상을 복원하기 위해서는, 가축을 틀 또는 계근대에 가두어 놓은 상태에서 복수의 정해진 다시점, 예를 들면 4시점 생체 영상을 획득하여 이를 통해 생체 형상을 복원함으로써 가축의 자세가 부자연스럽고, 영상의 개수가 부족하여 3차원 생체 형상의 완성도가 부족하였다. In order to restore the 3D biomorphic shape of livestock, the biomorphic shape of livestock is acquired by confining the livestock in a frame or weighbridge and obtaining biometric images from a plurality of fixed multi-view points, for example, 4 viewpoints, and thereby restoring the biomorphic shape, thereby reducing the unnatural posture of the livestock. Due to the insufficient number of images, the completeness of the 3D biological shape was lacking.

또한 가축을 가두어 놓은 상태에서 촬영이 이루어지기 때문에 가축에 대한 동물 복지 측면에서도 개선이 필요하다. In addition, since filming takes place while livestock are confined, improvements are needed in terms of animal welfare for livestock.

본 발명의 목적은 상기와 같은 문제점을 해결하기 위한 것으로, 가축이 복수의 센서 사이를 통과하여 생성한 영상 자료에 기초하여 가축에 대한 3차원 생체 형상을 획득할 수 있도록 하는 3차원 객체 형상 획득 시스템 및 방법을 제공하는 것이다.The purpose of the present invention is to solve the above problems, and is a three-dimensional object shape acquisition system that allows acquiring a three-dimensional biological shape of livestock based on image data generated by the livestock passing through a plurality of sensors. and method are provided.

상기와 같은 목적을 달성하기 위하여 본 발명의 실시예에 따르면, 3차원 객체 형상 획득 시스템은, 3차원 객체의 상부에 위치하고, 상기 3차원 객체의 상부를 촬영하여 상부 영상을 생성하는 상부 센서, 상기 3차원 객체의 좌측에 위치하고, 상기 3차원 객체에 대한 좌측을 촬영하여 좌측 영상을 생성하는 좌측 센서, 상기 3차원 객체의 우측에 위치하고, 상기 3차원 객체에 대한 우측을 촬영하여 우측 영상을 생성하는 우측 센서, 상기 상부 영상으로부터 상기 3차원 객체의 위치 및 중첩도를 산출하며, 상기 중첩도에 기초하여 시작 시점으로부터 복수의 영상 획득 신호를 순차적으로 생성하는 제어부, 및 상기 복수의 영상 획득 신호에 따라 트리거 되어 상기 상부 영상, 상기 좌측 영상, 및 상기 우측 영상으로부터 복수의 대상 프레임을 저장하고, 상기 복수의 대상 프레임으로부터 상기 3차원 객체에 대한 3차원 생체 형상을 생성하는 복원 서버를 포함한다. In order to achieve the above object, according to an embodiment of the present invention, a three-dimensional object shape acquisition system includes an upper sensor located on the upper part of a three-dimensional object and generating an upper image by photographing the upper part of the three-dimensional object; A left sensor located on the left side of the 3D object and generating a left image by photographing the left side of the 3D object. A left sensor located on the right side of the 3D object and generating a right image by photographing the right side of the 3D object. A right sensor, a control unit that calculates the position and overlap of the three-dimensional object from the upper image, and sequentially generates a plurality of image acquisition signals from a starting point based on the overlap, and according to the plurality of image acquisition signals It includes a restoration server that is triggered to store a plurality of target frames from the upper image, the left image, and the right image, and generates a 3D biometric shape for the 3D object from the plurality of target frames.

지면으로부터 상기 좌측 센서의 높이는, 상기 지면으로부터 상기 우측 센서의 높이와 동일하고, 상기 상부 센서의 센서 중심축은, 상기 좌측 센서의 센서 중심축 및 우측 센서의 센서 중심축 각각과 직교할 수 있다. The height of the left sensor from the ground is the same as the height of the right sensor from the ground, and the sensor central axis of the upper sensor may be perpendicular to each of the sensor central axis of the left sensor and the sensor central axis of the right sensor.

상기 제어부는, 상기 상부 영상에 포함된 영상 프레임들로부터 상기 3차원 객체를 검출하고, 상기 3차원 객체가 검출된 프레임으로부터 바운딩 박스(bounding box)를 검출하며, 학습된 가축 검출 신경망을 이용하여 상기 바운딩 박스로부터 상기 3차원 객체의 일단의 중심점을 산출할 수 있다. The control unit detects the 3D object from image frames included in the upper image, detects a bounding box from the frame in which the 3D object is detected, and uses a learned livestock detection neural network to detect the 3D object. The center point of one end of the 3D object can be calculated from the bounding box.

상기 제어부는, 상기 상부 영상으로부터 상기 3차원 객체를 탐지하기 시작한 시점으로부터 최초로 상기 3차원 객체의 일단을 최초로 검출한 시점을 상기 시작 시점으로 하고, 상기 시작 시점에 대응하는 첫 번째 영상 획득 신호를 생성하여 상기 복원 서버에 전송할 수 있다. The control unit sets the time point at which one end of the 3D object is first detected from the time it starts detecting the 3D object from the upper image as the start point, and generates a first image acquisition signal corresponding to the start point. It can be transmitted to the restoration server.

상기 제어부는, 상기 시작 시점 이후에, 상기 상부 영상 중 n번째 영상 프레임이 n-1번째 영상 프레임과의 중첩도가 소정의 기준 중첩도 이상에 해당하는 시점에 n번째 영상 획득 신호를 생성하여 상기 복원 서버에 전송하며, 상기 n은 2 이상의 자연수일 수 있다. The control unit, after the start time, generates the nth image acquisition signal at a time when the degree of overlap between the nth image frame of the upper image and the n-1th image frame corresponds to a predetermined reference overlap degree or more. It is transmitted to the restoration server, and n may be a natural number of 2 or more.

상기 복원 서버는, 상기 제어부로부터 복수의 영상 획득 신호를 수신하고, 상기 상부 영상, 상기 좌측 영상, 및 상기 우측 영상으로부터 상기 복수의 영상 획득 신호 각각을 수신한 시점에 대응하는 상부 대상 프레임, 좌측 대상 프레임, 및 우측 대상 프레임을 추출하여 저장하는 저장부를 포함하고, 상기 복수의 대상 프레임은, 상기 복수의 영상 획득 신호 각각에 대응하는 상기 상부 대상 프레임, 상기 좌측 대상 프레임, 및 상기 우측 대상 프레임을 포함할 수 있다. The restoration server receives a plurality of image acquisition signals from the control unit, and the upper target frame and left target corresponding to the time of receiving each of the plurality of image acquisition signals from the upper image, the left image, and the right image. and a storage unit for extracting and storing a frame and a right target frame, wherein the plurality of target frames include the upper target frame, the left target frame, and the right target frame corresponding to each of the plurality of image acquisition signals. can do.

상기 복원 서버는, 상기 복수의 대상 프레임에 기초하여 상기 복수의 대상 프레임 중 서로 중복되는 복수의 제1 대상 프레임을 점운(Point Cloud)으로 변환하여 등록하고, 상기 복수의 제1 대상 프레임 각각으로부터 특징점 간의 관계를 서로 매칭하여 상기 3차원 생체 형상을 생성하는 형상 복원부를 더 포함할 수 있다. The restoration server converts and registers a plurality of overlapping first target frames among the plurality of target frames into a point cloud based on the plurality of target frames, and registers feature points from each of the plurality of first target frames. It may further include a shape restoration unit that generates the three-dimensional biological shape by matching the relationships between the two.

본 발명의 다른 실시예에 따르면, 3차원 객체 형상 획득 방법은, 제어부가, 3차원 객체의 상부에 위치하고, 상기 3차원 객체의 상부를 촬영하여 상부 영상을 생성하는 상부 센서로부터 상기 상부 영상을 수신하는 단계, 상기 제어부가, 상기 상부 영상으로부터 상기 3차원 객체의 위치 및 중첩도를 산출하는 단계, 상기 제어부가, 상기 중첩도에 기초하여 시작 시점으로부터 복수의 영상 획득 신호를 순차적으로 생성하는 단계, 상기 제어부로부터 상기 복수의 영상 획득 신호를 수신한 복원 서버가, 상기 복수의 영상 획득 신호에 따라 트리거 되어 상기 상부 영상, 상기 3차원 객체의 좌측에 위치하는 좌측 센서로부터 생성된 좌측 영상, 및 상기 3차원 객체의 우측에 위치하는 우측 센서로부터 생성된 우측 영상으로부터 복수의 대상 프레임을 저장하는 단계, 및 상기 복원 서버가, 상기 복수의 대상 프레임으로부터 상기 3차원 객체에 대한 3차원 생체 형상을 생성하는 단계를 포함한다. According to another embodiment of the present invention, the method for obtaining the shape of a 3D object includes a control unit located on top of a 3D object and receiving the upper image from an upper sensor that captures the upper part of the 3D object and generates the upper image. A step of calculating, by the control unit, the position and degree of overlap of the three-dimensional object from the upper image, by the control part, sequentially generating a plurality of image acquisition signals from a starting point based on the degree of overlap, A restoration server that receives the plurality of image acquisition signals from the control unit is triggered according to the plurality of image acquisition signals to generate the upper image, the left image generated from the left sensor located on the left side of the three-dimensional object, and the 3 Storing a plurality of target frames from a right image generated from a right sensor located on the right side of the 3D object, and generating, by the restoration server, a 3D biometric shape for the 3D object from the plurality of target frames. Includes.

상기 3차원 객체의 위치 및 중첩도를 산출하는 단계는, 상기 상부 영상에 포함된 영상 프레임들로부터 상기 3차원 객체를 검출하는 단계, 상기 3차원 객체가 검출된 프레임으로부터 바운딩 박스(bounding box)를 검출하는 단계, 및 학습된 가축 검출 신경망을 이용하여 상기 바운딩 박스로부터 상기 3차원 객체의 일단의 중심점을 산출하는 단계를 포함할 수 있다. Calculating the position and degree of overlap of the 3D object includes detecting the 3D object from image frames included in the upper image, and creating a bounding box from the frame in which the 3D object is detected. It may include a step of detecting, and a step of calculating a central point of a set of the three-dimensional object from the bounding box using a learned livestock detection neural network.

상기 복수의 영상 획득 신호를 순차적으로 생성하는 단계는, 상기 상부 영상으로부터 상기 3차원 객체를 탐지하기 시작한 시점으로부터 최초로 상기 3차원 객체의 일단을 최초로 검출한 시점을 상기 시작 시점으로 하고, 상기 시작 시점에 대응하는 첫 번째 영상 획득 신호를 생성하여 상기 복원 서버에 전송하는 단계를 포함할 수 있다. In the step of sequentially generating the plurality of image acquisition signals, the start time is the time when one end of the three-dimensional object is first detected from the time when the three-dimensional object is started to be detected from the upper image, and the start time is It may include generating a first image acquisition signal corresponding to and transmitting it to the restoration server.

상기 복수의 영상 획득 신호를 순차적으로 생성하는 단계는, 상기 시작 시점 이후에, 상기 상부 영상 중 n번째 영상 프레임이 n-1번째 영상 프레임과의 중첩도가 소정의 기준 중첩도 이상에 해당하는 시점에 n번째 영상 획득 신호를 생성하여 상기 복원 서버에 전송하는 단계를 더 포함하고, 상기 n은 2 이상의 자연수일 수 있다. The step of sequentially generating the plurality of image acquisition signals includes, after the starting point, a point in time when the degree of overlap between the nth image frame of the upper image and the n-1th image frame corresponds to a predetermined standard overlap degree or more. and generating an nth image acquisition signal and transmitting it to the restoration server, where n may be a natural number of 2 or more.

상기 복수의 대상 프레임을 저장하는 단계는, 상기 제어부로부터 복수의 영상 획득 신호를 수신하고, 상기 상부 영상, 상기 좌측 영상, 및 상기 우측 영상으로부터 상기 복수의 영상 획득 신호 각각을 수신한 시점에 대응하는 상부 대상 프레임, 좌측 대상 프레임, 및 우측 대상 프레임을 추출하여 저장하는 단계를 포함하고, 상기 복수의 대상 프레임은, 상기 복수의 영상 획득 신호 각각에 대응하는 상기 상부 대상 프레임, 상기 좌측 대상 프레임, 및 상기 우측 대상 프레임을 포함할 수 있다. The step of storing the plurality of target frames includes receiving a plurality of image acquisition signals from the control unit, and corresponding to a time point of receiving each of the plurality of image acquisition signals from the upper image, the left image, and the right image. Extracting and storing an upper target frame, a left target frame, and a right target frame, wherein the plurality of target frames include the upper target frame, the left target frame, and It may include the right target frame.

상기 3차원 객체에 대한 3차원 생체 형상을 생성하는 단계는, 상기 복수의 대상 프레임에 기초하여 상기 복수의 대상 프레임 중 서로 중복되는 복수의 제1 대상 프레임을 점운(Point Cloud)으로 변환하여 등록하는 단계, 및 상기 복수의 제1 대상 프레임 각각으로부터 특징점 간의 관계를 서로 매칭하여 상기 3차원 생체 형상을 생성하는 단계를 포함할 수 있다. The step of generating a 3D biometric shape for the 3D object includes converting a plurality of overlapping first target frames among the plurality of target frames into a point cloud based on the plurality of target frames and registering them. It may include generating the three-dimensional biometric shape by matching relationships between feature points from each of the plurality of first target frames.

본 발명은, 객체가 센서들 사이를 이동함으로써 생성된 연속적인 생체 영상을 획득하고, 획득한 영상에 기초하여 객체에 대한 3차원 생체 형상을 복원하여, 생체 형상 복원에서의 결함을 줄이고 고품질의 자연스러운 생체 형상을 얻을 수 있도록 할 수 있다.The present invention acquires continuous biometric images generated as an object moves between sensors, and restores a three-dimensional biometric shape of the object based on the acquired images, thereby reducing defects in biometric shape restoration and providing high-quality, natural-looking images. It is possible to obtain the shape of a living body.

본 발명에 따르면, 다른 유형의 센서를 사용하지 않아도 영상 간 소정의 기준 이상으로 중첩된 복수의 생체 영상 획득 시점 산출을 통해 정밀도와 실시간성을 향상시킬 수 있다. According to the present invention, precision and real-time can be improved by calculating the acquisition time points of multiple biological images that overlap between images by more than a predetermined standard, even without using a different type of sensor.

본 발명에 따르면, 스마트 축산이나 반려동물 관리에 있어서, 가축의 정밀 사양 관리, 출하 시기 의사 결정, 반려 동물 건강 및 복지 모니터링 등에 효과적으로 활용할 수 있다. According to the present invention, it can be effectively used in smart livestock farming or companion animal management, such as managing precise specifications of livestock, determining shipment timing, and monitoring companion animal health and welfare.

본 발명에 따르면 객체가 자연스럽게 이동하도록 하면서 3차원 생체 형상을 얻을 수 있으므로, 가축의 자세가 자연스럽고, 연속적인 영상 추출을 이용하므로 3차원 형상이 자연스러우며, 가축에 대한 동물 복지가 향상될 수 있다. According to the present invention, a three-dimensional living body shape can be obtained while allowing an object to move naturally, so the posture of the livestock is natural, the three-dimensional shape is natural by using continuous image extraction, and animal welfare for livestock can be improved. .

도 1은 본 발명의 일 실시예에 따른 3차원 가축 생체 영상 획득 시스템을 도식적으로 도시한 블록도이다.
도 2는 영상 센서 쌍이 설치되는 위치를 설명하기 위한 예시도이다.
도 3은 영상 센서 쌍과 3차원 객체(10)의 거리를 설명하기 위한 예시도이다.
도 4는 상부 영상 n-1번째 프레임의 바운딩 박스 및 바운딩 박스의 중심점을 설명하기 위한 예시도이다.
도 5는 상부 영상 n번째 프레임의 바운딩 박스 및 바운딩 박스의 중심점을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따른 3차원 객체 생체 형상 획득 방법의 순서도이다.
Figure 1 is a block diagram schematically showing a 3D livestock biometric image acquisition system according to an embodiment of the present invention.
Figure 2 is an example diagram for explaining the location where a pair of image sensors is installed.
Figure 3 is an example diagram for explaining the distance between an image sensor pair and a 3D object 10.
Figure 4 is an example diagram for explaining the bounding box of the n-1th frame of the upper image and the center point of the bounding box.
Figure 5 is an example diagram for explaining the bounding box of the nth frame of the upper image and the center point of the bounding box.
Figure 6 is a flowchart of a method for acquiring a 3D object biometric shape according to an embodiment of the present invention.

본 발명은 취지를 벗어나지 않는 한도에서 다양하게 변경하여 실시할 수 있고, 하나 이상의 실시 예를 가질 수 있다. 그리고 본 발명에서 “발명을 실시하기 위한 구체적인 내용” 및 “도면” 등에 기재한 실시 예는, 본 발명을 구체적으로 설명하기 위한 예시이며, 본 발명의 권리 범위를 제한하거나 한정하는 것은 아니다.The present invention can be implemented with various changes without departing from the spirit, and can have one or more embodiments. In addition, in the present invention, the embodiments described in “specific details for carrying out the invention” and “drawings” are examples for specifically explaining the present invention, and do not limit or limit the scope of the present invention.

따라서, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자가, 본 발명의 “발명을 실시하기 위한 구체적인 내용” 및 “도면” 등으로부터 용이하게 유추할 수 있는 것은, 본 발명의 범위에 속하는 것으로 해석할 수 있다.Accordingly, what a person skilled in the art of the present invention can easily infer from the “specific details for carrying out the invention” and “drawings” of the present invention shall be interpreted as falling within the scope of the present invention. can do.

또한, 도면에 표시한 각 구성 요소들의 크기와 형태는, 실시 예의 설명을 위해 과장되어 표현한 것 일 수 있으며, 실제로 실시되는 발명의 크기와 형태를 한정하는 것은 아니다.In addition, the size and shape of each component shown in the drawings may be exaggerated for description of the embodiment, and do not limit the size and shape of the invention in actual practice.

본 발명의 명세서에서 사용되는 용어를 특별히 정의하지 않는 이상, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 것과 동일한 의미를 가질 수 있다.Unless the terms used in the specification of the present invention are specifically defined, they may have the same meaning as those generally understood by those skilled in the art to which the present invention pertains.

이하, 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 3차원 가축 생체 영상 획득 시스템을 도식적으로 도시한 블록도이다. Figure 1 is a block diagram schematically showing a 3D livestock biometric image acquisition system according to an embodiment of the present invention.

도 1을 참조하면 3차원 객체(10)에 대한 3차원 객체 생체 형상 획득 시스템(이하, "시스템")(1)은, 센서부(100), 제어부(200), 및 복원 서버(300)를 포함할 수 있다. Referring to FIG. 1, a 3D object biometric shape acquisition system (hereinafter, “system”) 1 for a 3D object 10 includes a sensor unit 100, a control unit 200, and a restoration server 300. It can be included.

본 명세에서, 3차원 객체(10)는 자율적으로 이동할 수 있는 동물(예를 들어, 가축)인 것으로 가정하여 설명하나, 발명이 이에 한정되는 것은 아니고, 3차원 객체(10)는 이동 가능한 사물 또는 생물일 수 있다. In this specification, the three-dimensional object 10 is described assuming that it is an animal (e.g., livestock) that can move autonomously, but the invention is not limited thereto, and the three-dimensional object 10 is a movable object or It could be a living thing.

3차원 객체(10)는 센서부(100) 사이를 통과할 수 있고, 시스템(1)은 이러한 3차원 객체(10)를 촬영하여 생성한 영상에 기초하여 3차원 생체 형상을 획득할 수 있다. The three-dimensional object 10 can pass between the sensor units 100, and the system 1 can obtain a three-dimensional body shape based on an image generated by photographing the three-dimensional object 10.

센서부(100)는, 3차원 객체(10)의 외형 중 일측의 형체를 촬영하여 영상 데이터를 생성하는 복수의 영상 센서를 포함할 수 있다. The sensor unit 100 may include a plurality of image sensors that generate image data by photographing one side of the external shape of the three-dimensional object 10 .

센서부(100)는 상부 센서(110), 좌측 센서(120), 및 우측 센서(130)를 포함할 수 있다. 상부 센서(110), 좌측 센서(120), 및 우측 센서(130) 각각은 RGB 및/또는 RGB-D 영상을 촬영하는 카메라 모듈일 수 있다. 상부 센서(110), 좌측 센서(120), 및 우측 센서(130)는, 3차원 객체(10)에 대한 2차원 영상 및/또는 3차원 영상을 생성할 수 있다. The sensor unit 100 may include an upper sensor 110, a left sensor 120, and a right sensor 130. Each of the upper sensor 110, left sensor 120, and right sensor 130 may be a camera module that captures RGB and/or RGB-D images. The upper sensor 110, left sensor 120, and right sensor 130 may generate a two-dimensional image and/or a three-dimensional image for the three-dimensional object 10.

상부 센서(110)는 3차원 객체(10)의 상부에 위치하여, 3차원 객체(10)의 상부로부터 3차원 객체(10)를 바라보는 방향으로 설치될 수 있다. 상부 센서(110)는, 3차원 객체(10)의 상부를 촬영하여 2차원 및/또는 3차원 영상 데이터(이하, "상부 영상")를 생성할 수 있다. The upper sensor 110 is located at the top of the 3D object 10 and may be installed in a direction looking at the 3D object 10 from the top of the 3D object 10. The upper sensor 110 may capture the upper part of the three-dimensional object 10 and generate two-dimensional and/or three-dimensional image data (hereinafter, “upper image”).

좌측 센서(120)는 3차원 객체(10)의 좌측에 위치하여, 3차원 객체(10)의 좌측으로부터 3차원 객체(10)를 바라보는 방향으로 설치될 수 있다. 좌측 센서(120)는, 3차원 객체(10)의 좌측을 상부를 촬영하여 2차원 및/또는 3차원 영상 데이터(이하, "좌측 영상")를 생성할 수 있다. The left sensor 120 is located on the left side of the 3D object 10 and may be installed in a direction looking at the 3D object 10 from the left side of the 3D object 10. The left sensor 120 may generate two-dimensional and/or three-dimensional image data (hereinafter, “left image”) by photographing the upper left side of the three-dimensional object 10.

우측 센서(130)는 3차원 객체(10)의 우측에 위치하여, 3차원 객체(10)의 우측으로부터 3차원 객체(10)를 바라보는 방향으로 설치될 수 있다. 우측 센서(130)는, 3차원 객체(10)의 우측 상부를 촬영하여 2차원 및/또는 3차원 영상 데이터(이하, "우측 영상")를 생성할 수 있다. The right sensor 130 is located on the right side of the 3D object 10 and may be installed in a direction looking at the 3D object 10 from the right side of the 3D object 10. The right sensor 130 may generate two-dimensional and/or three-dimensional image data (hereinafter, “right image”) by photographing the upper right side of the three-dimensional object 10.

제어부(200)는 임베디드 모듈에 포함되고, 복원 서버(300)는 클라우드 서버일 수 있다. The control unit 200 may be included in an embedded module, and the restoration server 300 may be a cloud server.

제어부(200)는 객체 검출부(210), 객체 위치 및 중첩도 산출부(220), 및 영상 획득 신호 발생부(230)를 포함할 수 있다. The control unit 200 may include an object detection unit 210, an object position and overlap calculation unit 220, and an image acquisition signal generator 230.

객체 검출부(210)는, 상부 센서(110)로부터 수신한 상부 영상으로부터 3차원 객체(10)를 검출할 수 있다. 객체 검출부(210)가 상부 영상에 포함된 영상 프레임들로부터 3차원 객체(10)의 일단 및 타단 중 적어도 하나를 검출하면, 검출된 영상 프레임들 각각으로부터 검출된 부분을 포함하는 바운딩 박스(bounding box)의 위치 및 크기를 검출할 수 있다. The object detector 210 may detect the three-dimensional object 10 from the upper image received from the upper sensor 110. When the object detector 210 detects at least one of one end and the other end of the three-dimensional object 10 from the image frames included in the upper image, a bounding box containing the detected part from each of the detected image frames is generated. ) can be detected.

여기서 3차원 객체(10)가 소인 경우, 3차원 객체(10)의 일단은 가축의 두부이고, 3차원 객체(10)의 타단은 가축의 둔부를 나타낼 수 있다. 객체 검출부(210)가 상부 영상에 포함된 영상 프레임들 각각으로부터 바운딩 박스의 위치 및 크기를 검출하는 방법은, 공지된 객체 인식 방법에 따라 수행될 수 있다. Here, when the 3D object 10 is a cow, one end of the 3D object 10 may represent the head of the livestock, and the other end of the 3D object 10 may represent the buttocks of the livestock. The method by which the object detector 210 detects the position and size of the bounding box from each of the image frames included in the upper image may be performed according to a known object recognition method.

객체 위치 및 중첩도 산출부(220)는, 학습된 가축 검출 신경망을 이용하여 상부 영상에 포함된 영상 프레임들 각각으로부터 3차원 객체(10)의 일단의 중심점 및 중첩도를 산출할 수 있다. 객체 위치 및 중첩도 산출부(220)는, 3차원 객체(10)의 일단의 중심점 및 중첩도를 데이터베이스에 저장할 수 있다. 예를 들어, 객체 위치 및 중첩도 산출부(220)는, 바운딩 박스 중 가축의 두부의 중심점을 나타내는 위치를 추출할 수 있다. 이하, 설명의 편의를 위해 3차원 객체(10)의 일단은 가축 두부인 것으로 하여 설명한다. The object position and overlap calculation unit 220 may calculate the center point and overlap of a set of three-dimensional objects 10 from each of the image frames included in the upper image using a learned livestock detection neural network. The object position and degree of overlap calculation unit 220 may store the center point and degree of overlap of a set of three-dimensional objects 10 in a database. For example, the object position and overlap calculation unit 220 may extract a position representing the center point of the head of the livestock from the bounding box. Hereinafter, for convenience of explanation, one end of the three-dimensional object 10 will be described as a head of livestock.

학습된 가축 검출 신경망은, 가축의 상부 영상으로부터 가축의 두부의 위치를 추출하는 방법이 학습된 신경망일 수 있다. The learned livestock detection neural network may be a neural network that has learned a method of extracting the position of the livestock's head from the upper image of the livestock.

영상 획득 신호 발생부(230)는, 바운딩 박스의 중심점 및 중첩도에 기초하여 복수의 영상 획득 신호를 생성하여 복원 서버(300)에 전송할 수 있다. The image acquisition signal generator 230 may generate a plurality of image acquisition signals based on the center point and degree of overlap of the bounding box and transmit them to the restoration server 300.

복원 서버(300)는, 저장부(310) 및 3차원 생체 형상 복원부(320)를 포함할 수 있다. The restoration server 300 may include a storage unit 310 and a 3D biomorphic shape restoration unit 320.

저장부(310)는, 영상 획득 신호 발생부(230)로부터 수신한 복수의 영상 획득 신호 각각을 트리거 신호로 하여 상부 영상, 좌측 영상, 및 우측 영상으로부터 복수의 대상 프레임을 추출하여 저장하고, 3차원 생체 형상 복원부(320)에 전달할 수 있다. The storage unit 310 uses each of the plurality of image acquisition signals received from the image acquisition signal generator 230 as a trigger signal to extract and store a plurality of target frames from the upper image, the left image, and the right image, 3 It can be transmitted to the dimensional biomorphic shape restoration unit 320.

3차원 생체 형상 복원부(320)는, 복수의 대상 프레임을 수신하여 3차원 객체(10)에 대한 3차원 생체 형상을 생성할 수 있다. The 3D biological shape restoration unit 320 may receive a plurality of target frames and generate a 3D biological shape for the 3D object 10.

이하, 설명의 편의를 위해 상부 센서(110), 좌측 센서(120), 및 우측 센서(130)을 하나의 "영상 센서 쌍"으로 정의한다. Hereinafter, for convenience of explanation, the upper sensor 110, the left sensor 120, and the right sensor 130 are defined as one “image sensor pair.”

이하, 도 2를 참조하여 영상 센서 쌍을 설명한다. Hereinafter, the image sensor pair will be described with reference to FIG. 2.

도 2는 영상 센서 쌍이 설치되는 위치를 설명하기 위한 예시도이다. Figure 2 is an example diagram for explaining the location where a pair of image sensors is installed.

도 2를 참조하면, 영상 센서 쌍은, 지면에 설치된 프레임 상에 설치될 수 있다. 지면으로부터 좌측 센서(120)가 설치된 높이는 지면으로부터 우측 센서(130)가 설치된 높이와 동일하다. 3차원 객체(10)는, 프레임을 통과하여 이동할 수 있다. 영상 센서 쌍은, 3차원 객체(10)가 프레임을 통과하여 이동하는 동안 3차원 객체를 촬영할 수 있다. Referring to FIG. 2, a pair of image sensors may be installed on a frame installed on the ground. The height at which the left sensor 120 is installed from the ground is the same as the height at which the right sensor 130 is installed from the ground. The three-dimensional object 10 can move through the frame. The image sensor pair can photograph a 3D object 10 while the 3D object 10 moves through the frame.

제어부(200)는 3차원 객체(10)의 형상을 포함하는 가상의 최소 직육면체(이하, "최소 직육면체")의 크기 및 위치를 나타내는 데이터를 데이터베이스에 저장하고 있을 수 있다. 최소 직육면체는, 3차원 객체(10)의 크기를 정하기 위한 생체 크기를 나타내고, 시스템(1)이 사용되는 농장에서 사육되는 가축군의 평균 체위 또는 종 별 평균 체위 자료 등에 기초하여 초기 정보로 미리 정해질 수 있다. The control unit 200 may store data representing the size and position of a virtual minimum cuboid (hereinafter, “minimum cuboid”) including the shape of the three-dimensional object 10 in a database. The minimum rectangular parallelepiped represents the living body size for determining the size of the three-dimensional object 10, and is predetermined as initial information based on the average body posture of livestock raised on the farm where the system 1 is used or the average body posture data for each species. It can happen.

도 2에서는 지면에 설치된 프레임 상에 하나의 영상 센서 쌍이 설치된 것으로 도시하였으나, 발명이 이에 한정되는 것은 아니고, 센서부(100)는, 적어도 하나 이상의 영상 센서 쌍을 포함할 수 있다. 예를 들어, 3차원 객체(10)의 크기가 소정의 기준 미만인 경우에는, 센서부(100)는 하나의 영상 센서 쌍을 포함하고, 3차원 객체(10)의 크기가 소정의 기준 이상인 경우에는, 센서부(100)는 두 개 이상의 영상 센서 쌍을 포함할 수 있다. Although FIG. 2 shows one image sensor pair installed on a frame installed on the ground, the invention is not limited thereto, and the sensor unit 100 may include at least one image sensor pair. For example, when the size of the three-dimensional object 10 is less than a predetermined standard, the sensor unit 100 includes one image sensor pair, and when the size of the three-dimensional object 10 is greater than a predetermined standard, the , the sensor unit 100 may include two or more image sensor pairs.

도 3을 참조하여, 영상 센서 쌍과 3차원 객체(10)의 최소 직육면체 간의 관계를 설명한다. Referring to FIG. 3, the relationship between the image sensor pair and the minimum cuboid of the three-dimensional object 10 will be described.

도 3은 영상 센서 쌍과 3차원 객체(10)의 거리를 설명하기 위한 예시도이다. Figure 3 is an example diagram for explaining the distance between an image sensor pair and a 3D object 10.

도 3을 참조하면, 3차원 객체(10)가 소인 경우, 소에 대응하는 최소 직육면체(CUB)는 3차원 객체(10)의 형상을 포함할 수 있다. 영상 센서 쌍 각각은, 최소 직육면체(CUB)의 표면들 중 대응하는 표면으로부터 동일한 수직 거리에 위치할 수 있다. 예를 들어, 좌측 센서(120)는 최소 직육면체(CUB)의 일면으로부터 수직 거리(R) 만큼 떨어진 위치에 설치되고, 우측 센서(130)는, 최소 직육면체(CUB)의 일면과 마주보는 타면으로부터 수직 거리(R) 만큼 떨어진 위치에 설치될 수 있다. Referring to FIG. 3 , when the 3D object 10 is a cow, the smallest cuboid (CUB) corresponding to the cow may include the shape of the 3D object 10. Each pair of image sensors may be positioned at the same vertical distance from a corresponding surface of a minimal cuboid (CUB). For example, the left sensor 120 is installed at a vertical distance (R) away from one side of the minimum cuboid (CUB), and the right sensor 130 is installed perpendicularly from the other side facing one side of the minimum cuboid (CUB). It can be installed at a distance (R) away.

또한 상부 센서(110)의 센서 중심축은, 좌측 센서(120)의 센서 중심축 및 우측 센서(130)의 센서 중심축 각각과 직교한다. In addition, the sensor central axis of the upper sensor 110 is perpendicular to the sensor central axis of the left sensor 120 and the sensor central axis of the right sensor 130, respectively.

이하, 도 4 및 도 5를 참조하여 제어부(200)의 동작을 설명한다. Hereinafter, the operation of the control unit 200 will be described with reference to FIGS. 4 and 5.

도 4는 상부 영상 n-1번째 프레임의 바운딩 박스 및 바운딩 박스의 중심점을 설명하기 위한 예시도이다. Figure 4 is an example diagram for explaining the bounding box of the n-1th frame of the upper image and the center point of the bounding box.

이하에서, n은 2 이상의 자연수이다. Hereinafter, n is a natural number of 2 or more.

도 4를 참조하면, 객체 검출부(210)는, 상부 영상 중 n-1번째 프레임(111_n-1)으로부터 바운딩 박스(BB_n-1)를 검출할 수 있다. 객체 검출부(210)는 바운딩 박스(BB_n-1)의 위치 및 크기를 인식할 수 있다. Referring to FIG. 4, the object detector 210 may detect the bounding box BB_n-1 from the n-1th frame 111_n-1 of the upper image. The object detector 210 may recognize the location and size of the bounding box BB_n-1.

n-1번째 프레임(111_n-1)에는 3차원 객체(10)의 전체 형상이 포함되지 않기 때문에 객체 검출부(210)는 n-1번째 프레임(111_n-1)으로부터 바운딩 박스의 크기 중 바운딩 박스의 길이(L0)를 검출할 수 없다. Since the n-1th frame (111_n-1) does not include the entire shape of the three-dimensional object 10, the object detector 210 detects the size of the bounding box from the n-1th frame (111_n-1). The length (L 0 ) cannot be detected.

따라서 3차원 객체(10)의 전체 형상이 포함되지 않는 경우, 객체 검출부(210)는 3차원 객체(10)에 대하여 데이터베이스에 미리 저장된 최소 직육면체의 크기에 기초하여 바운딩 박스의 길이(La)를 초기 정보로 결정할 수 있다. 예를 들어, 객체 검출부(210)는 n-1번째 프레임(111_n-1)에서의 바운딩 박스의 길이(La)를 도 3에서의 최소 직육면체(CUB) 중 객체의 길이를 나타내는 변(La)의 길이로 결정할 수 있다. Therefore, when the entire shape of the 3D object 10 is not included, the object detection unit 210 determines the length (L a ) of the bounding box based on the size of the minimum rectangular parallelepiped previously stored in the database for the 3D object 10. It can be decided based on initial information. For example, the object detector 210 may use the length (L a ) of the bounding box in the n-1th frame (111_n-1) as the side (L a ) indicating the length of the object among the minimum cuboids (CUB) in FIG. 3 ) can be determined by the length.

객체 위치 및 중첩도 산출부(220)는, 학습된 가축 검출 신경망을 이용하여 바운딩 박스(BB_n-1)로부터 n-1번째 프레임에 대응하는 가축 두부의 위치(LH n-1)를 산출할 수 있다.The object position and overlap calculation unit 220 calculates the position (L H n-1 ) of the livestock head corresponding to the n-1th frame from the bounding box (BB_n-1) using the learned livestock detection neural network. You can.

도 5는 상부 영상 n번째 프레임의 바운딩 박스 및 바운딩 박스의 중심점을 설명하기 위한 예시도이다. Figure 5 is an example diagram for explaining the bounding box of the nth frame of the upper image and the center point of the bounding box.

도 5를 참조하면, 객체 검출부(210)는, 상부 영상 중 n번째 프레임(111_n)으로부터 바운딩 박스(BB_n)를 검출할 수 있다. 객체 검출부(210)는 바운딩 박스(BB_n)의 위치 및 크기를 인식할 수 있다. Referring to FIG. 5 , the object detector 210 may detect the bounding box BB_n from the nth frame 111_n of the upper image. The object detector 210 may recognize the location and size of the bounding box BB_n.

n번째 프레임(111_n)에는 3차원 객체(10)의 전체 형상이 포함되기 때문에 객체 검출부(210)는 n번째 프레임(111_n)으로부터 바운딩 박스(BB_n)의 크기 중 바운딩 박스의 길이(L0)를 검출할 수 있다. Since the nth frame (111_n) includes the entire shape of the three-dimensional object 10, the object detector 210 determines the length (L 0 ) of the bounding box among the sizes of the bounding box (BB_n) from the nth frame (111_n). It can be detected.

객체 위치 및 중첩도 산출부(220)는, 학습된 가축 검출 신경망을 이용하여 바운딩 박스(BB_n)로부터 n번째 프레임에 대응하는 가축 두부의 위치(LH n)를 산출할 수 있다. The object position and overlap calculation unit 220 may calculate the position (L H n ) of the livestock head corresponding to the nth frame from the bounding box (BB_n) using the learned livestock detection neural network.

이하, 설명의 편의를 위해 최소 직육면체(CUB)의 크기에 기초하여 결정된 바운딩 박스의 길이(La) 및 상부 영상으로부터 검출된 바운딩 박스의 길이(L0) 모두 바운딩 박스의 길이(L0)로 설명한다. Hereinafter, for convenience of explanation, both the length of the bounding box (L a ) determined based on the size of the minimum cuboid (CUB) and the length of the bounding box (L 0 ) detected from the upper image are expressed as the length of the bounding box (L 0 ). Explain.

도 4 및 도 5를 참조하면, 객체 위치 및 중첩도 산출부(220)는 가축 두부의 위치(LH n-1), 가축 두부의 위치(LH n), 및 바운딩 박스의 길이(L0)에 기초하여 n번째 프레임에 대응하는 중첩도를 산출할 수 있다. Referring to Figures 4 and 5, the object position and overlap calculation unit 220 calculates the position of the livestock head (L H n-1 ), the position of the livestock head (L H n ), and the length of the bounding box (L 0 ) Based on this, the degree of overlap corresponding to the nth frame can be calculated.

객체 위치 및 중첩도 산출부(220)는 하기의 [수학식 1]에 따라 n번째 프레임에 대응하는 중첩도를 산출할 수 있다. The object position and overlap calculation unit 220 may calculate the overlap degree corresponding to the nth frame according to [Equation 1] below.

[수학식 1][Equation 1]

여기서 는 중첩도이고, 는 n번째 프레임의 바운딩 박스의 길이를 나타낸다. 예를 들어, 는 n번째 프레임의 바운딩 박스 중 가축의 두부로부터 둔부까지를 나타내는 길이일 수 있다. here is the degree of overlap, represents the length of the bounding box of the nth frame. for example, may be a length representing the length from the head to the buttocks of the livestock among the bounding boxes of the nth frame.

영상 획득 신호 발생부(230)는, 상부 영상에 포함된 영상 프레임들의 중첩도에 기초하여 영상 획득 신호를 발생시킬 수 있다. The image acquisition signal generator 230 may generate an image acquisition signal based on the degree of overlap of image frames included in the upper image.

상술한 [수학식 1]에 다르면, 상부 영상에 포함된 영상 프레임들의 시간 간격 동안 상응하는 바운딩 박스에 포함된 3차원 객체(10)가 이동한 거리를 하기의 [수학식 2]와 같이 나타낼 수 있다. According to the above-mentioned [Equation 1], the distance moved by the 3D object 10 included in the corresponding bounding box during the time interval of the image frames included in the upper image can be expressed as [Equation 2] below. there is.

[수학식 2][Equation 2]

여기서 는 3차원 객체(10)가 이전 영상 프레임으로부터 현재의 영상 프레임까지 이동한 거리를 나타낼 수 있다. here may represent the distance that the 3D object 10 moves from the previous image frame to the current image frame.

상술한 [수학식 1] 및 [수학식 2]에 기초하면, 3차원 객체(10)가 이동한 거리를 하기의 [수학식 3]와 같이 나타낼 수 있다.Based on the above-described [Equation 1] and [Equation 2], the distance moved by the three-dimensional object 10 can be expressed as [Equation 3] below.

객체 검출부(210)가 상부 영상의 프레임들로부터 3차원 객체를 탐지하기 시작한 시점으로부터 최초로 3차원 객체(10)의 일단을 검출한 시점을 시작 시점으로 할 수 있다. 영상 획득 신호 발생부(230)는, 시작 시점에 대응하는 제1 영상 획득 신호를 생성하여 복원 서버(300)에 전송할 수 있다. From the point in time when the object detector 210 starts detecting the 3D object from the frames of the upper image, the point in time when one end of the 3D object 10 is first detected can be set as the starting point. The image acquisition signal generator 230 may generate a first image acquisition signal corresponding to the starting point and transmit it to the restoration server 300.

영상 획득 신호 발생부(230)는, 시작 시점으로부터 상부 영상의 프레임들 중 이전 시점으로부터의 3차원 객체(10)가 이동한 거리()가 하기의 [수학식 4]를 만족하는 시점을 n번째 시점으로 하고, n번째 시점에 대응하는 제n 영상 획득 신호를 생성하여 복원 서버(300)에 전송할 수 있다. The image acquisition signal generator 230 calculates the distance that the three-dimensional object 10 has moved from the start point to the previous point among the frames of the upper image ( ) The point in time that satisfies [Equation 4] below is set as the n-th point in time, and the n-th image acquisition signal corresponding to the n-th point in time can be generated and transmitted to the restoration server 300.

[수학식 4][Equation 4]

여기서 는 중첩도의 기준이 되는 기준 중첩도이다. 기준 중첩도() 값은 제어부(200)에 초기 정보로 미리 저장되어 있을 수 있다. here is the standard overlap degree, which is the standard for the degree of overlap. Standard overlap ( ) The value may be previously stored in the control unit 200 as initial information.

예를 들어, 영상 획득 신호 발생부(230)는 제1 영상 획득 신호에 대응하는 가축 두부의 위치(LH 1) 및 제2 영상 획득 신호에 대응하는 가축 두부의 위치(LH 2) 간의 차이를 2번째 프레임의 바운딩 박스의 길이()로 나눈 값이 기준 중첩도()를 초과하는 시점에 2번째 시점에 대응하는 제2 영상 획득 신호를 생성할 수 있다. For example, the image acquisition signal generator 230 determines the difference between the position of the livestock head (L H 1 ) corresponding to the first image acquisition signal and the position of the livestock head (L H 2 ) corresponding to the second image acquisition signal. the length of the bounding box of the second frame ( The value divided by ) is the standard overlap ( ), a second image acquisition signal corresponding to the second time point may be generated.

제어부(200)는, 객체 검출부(210)가 상부 영상으로부터 3차원 객체(10)를 검출하지 못할 때까지 상술한 과정을 반복할 수 있다. The control unit 200 may repeat the above-described process until the object detection unit 210 fails to detect the 3D object 10 from the upper image.

저장부(310)는, 복수의 영상 획득 신호 각각을 트리거 신호로 하여 상부 영상, 좌측 영상, 및 우측 영상으로부터 복수의 대상 프레임을 추출할 수 있다. 여기서 대상 프레임은, 상부 대상 프레임, 좌측 대상 프레임, 및 우측 대상 프레임을 포함할 수 있다. 예를 들어 제2 영상 획득 신호를 수신한 시점을 기준으로, 저장부(310)는 상부 영상으로부터 상부 대상 프레임을 추출하고, 좌측 영상으로부터 좌측 대상 프레임을 추출하며, 우측 영상으로부터 우측 대상 프레임을 추출하여 저장할 수 있다.The storage unit 310 may extract a plurality of target frames from the upper image, the left image, and the right image by using each of the plurality of image acquisition signals as a trigger signal. Here, the target frame may include an upper target frame, a left target frame, and a right target frame. For example, based on the time of receiving the second image acquisition signal, the storage unit 310 extracts the upper target frame from the upper image, extracts the left target frame from the left image, and extracts the right target frame from the right image. You can save it.

이하, 하나의 영상 획득 신호에 대응하는 복수의 대상 프레임을, "대상 프레임 쌍"이라 한다. 저장부(310)는 복수의 영상 획득 신호 각각에 대응하는 대상 프레임 쌍을 저장하고 3차원 생체 형상 복원부(320)에 전달할 수 있다. 저장부(310)가 복수의 영상 획득 신호 각각을 수신한 시점은, 복수의 영상 획득 신호 각각을 수신한 시점으로부터 대상 프레임 쌍을 추출하는 시점까지의 기간 중 임의의 시점일 수 있다. Hereinafter, a plurality of target frames corresponding to one image acquisition signal are referred to as a “target frame pair.” The storage unit 310 may store pairs of target frames corresponding to each of the plurality of image acquisition signals and transmit them to the 3D biomorphic shape restoration unit 320. The point in time at which the storage unit 310 receives each of the plurality of image acquisition signals may be at any point in the period from the time in which each of the plurality of image acquisition signals is received to the time in which the target frame pair is extracted.

3차원 생체 형상 복원부(320)는, 중첩된 대상 프레임 쌍을 SfM(Structure from Motion) 알고리즘 또는 공지된 다른 알고리즘에 입력하여 3차원 객체(10)의 3차원 생체 형상을 복원할 수 있다. The 3D biometric shape restoration unit 320 may restore the 3D biometric shape of the 3D object 10 by inputting pairs of overlapping target frames into a Structure from Motion (SfM) algorithm or another known algorithm.

예를 들어 3차원 생체 형상 복원부(320)는, 복수의 영상 획득 신호 각각에 대응하는 대상 프레임 쌍 중 서로 중복되는 영상 프레임들을 점운(Point Cloud)으로 변환하여 등록하고, 중복되는 영상 프레임들 각각으로부터 특징점 간의 관계를 서로 매칭하여 3차원 생체 형상을 생성할 수 있다. For example, the 3D biomorphic shape restoration unit 320 converts and registers overlapping image frames among target frame pairs corresponding to each of a plurality of image acquisition signals into a point cloud, and registers each of the overlapping image frames. A 3D biometric shape can be created by matching the relationships between feature points.

시스템(1)은 복수의 영상 획득 신호 생성 시점과, 3차원 생체 형상의 품질을 향상시키기 위하여 상술한 과정을 반복하면서 기준 중첩도()를 최적화할 수 있다. The system 1 generates a plurality of image acquisition signals and repeats the above-described process to improve the quality of the three-dimensional biomorphic shape and determines the reference overlap ( ) can be optimized.

상술한 바와 마찬가지로, 복원 서버(300)는 임베디드 시스템에 포함된 제어부(200)로부터 중첩된 일련의 3차원 객체에 대한 영상 데이터를 입력 받아 이루어진다. 또한 3차원 생체 형상 복원부(320)는 클라우드 서버, 외부 컴퓨터 등 별도의 컴퓨팅 장치 및/또는 서버에 이식(Implementation)되어 실시간 또는 비실시간으로 3차원 형상 복원을 수행할 수 있다. As described above, the restoration server 300 receives image data for a series of overlapping three-dimensional objects from the control unit 200 included in the embedded system. Additionally, the 3D biometric shape restoration unit 320 can be implemented in a separate computing device and/or server, such as a cloud server or an external computer, to perform 3D shape restoration in real time or non-real time.

이하, 도 6을 참조하여 시스템(1)을 이용한 3차원 객체 생체 형상 획득 방법을 설명한다. Hereinafter, a method for acquiring a 3D object biometric shape using the system 1 will be described with reference to FIG. 6.

도 6은 본 발명의 일 실시예에 따른 3차원 객체 생체 형상 획득 방법의 순서도이다. Figure 6 is a flowchart of a method for acquiring a 3D object biometric shape according to an embodiment of the present invention.

이하, 상술한 설명과 중복되는 설명은 생략될 수 있다. Hereinafter, descriptions that overlap with the above description may be omitted.

제어부(200)는 n=0을 초기 값으로 미리 결정할 수 있다(S100). The control unit 200 may predetermine n=0 as the initial value (S100).

객체 검출부(210)는 상부 센서(110)로부터 상부 영상을 수신할 수 있다(S200).The object detector 210 may receive an upper image from the upper sensor 110 (S200).

객체 검출부(210)는, 상부 영상으로부터 3차원 객체(10)가 검출되는지를 판단할 수 있다(S300). The object detection unit 210 may determine whether the 3D object 10 is detected from the upper image (S300).

S300 단계에서, 3차원 객체(10)가 검출되면, 객체 검출부(210)는 3차원 객체(10)가 검출된 프레임으로부터 바운딩 박스를 검출하고, 객체 위치 및 중첩도 산출부(220)는, 가축 두부의 위치(LH n)를 산출할 수 있다(S400). In step S300, when the 3D object 10 is detected, the object detection unit 210 detects a bounding box from the frame in which the 3D object 10 is detected, and the object position and overlap calculation unit 220 detects the livestock The position of the head (L H n ) can be calculated (S400).

객체 검출부(210)는 n=0인지를 판단할 수 있다(S500). The object detection unit 210 may determine whether n=0 (S500).

S500 단계에서 n=0인 경우에는, 객체 검출부(210)는 n=1로 변경하고(S600), S200 단계부터 다시 수행할 수 있다. S500 단계에서 n=0인 경우에는 검출한 프레임이 시작 시점에 대응하는 1번째 영상 프레임이기 때문에, 이전 프레임이 없어 객체 위치 및 중첩도 산출부(220)가 중첩도를 산정할 수 없기 때문이다. If n=0 in step S500, the object detection unit 210 changes n=1 (S600) and performs the process again from step S200. If n = 0 in step S500, the detected frame is the first image frame corresponding to the starting point, so the object position and overlap calculation unit 220 cannot calculate the overlap degree because there is no previous frame.

S500 단계에서 n=0이 아닌 경우에는, 객체 위치 및 중첩도 산출부(220)는 3차원 객체(10)가 이동한 거리()를 상술한 [수학식 2]와 같이 도출할 수 있다(S700)If n = 0 in step S500, the object position and overlap calculation unit 220 calculates the distance that the three-dimensional object 10 has moved ( ) can be derived as in [Equation 2] described above (S700)

영상 획득 신호 발생부(230)는, 상술한 [수학식 4]에 해당하는지를 판단할 수 있다(S800).The image acquisition signal generator 230 may determine whether the above-described [Equation 4] is met (S800).

S800 단계에서, [수학식 4]를 만족하면, 영상 획득 신호 발생부(230)는, 영상 획득 신호를 생성하여 복원 서버(300)에 전송하고, 저장부(310)는 상부 영상, 좌측 영상, 및 우측 영상으로부터 대상 프레임 쌍을 추출하여 저장하고(S900), n 값은 하나 증가시킬 수 있다(S1000).In step S800, if [Equation 4] is satisfied, the image acquisition signal generator 230 generates an image acquisition signal and transmits it to the restoration server 300, and the storage unit 310 generates the upper image, the left image, And the target frame pair can be extracted and stored from the right image (S900), and the n value can be increased by one (S1000).

S800 단계에서, [수학식 4]를 만족하지 않거나, S1000 단계에 이어서, 객체 검출부(210)는 S200 단계부터 다시 수행할 수 있다.In step S800, if [Equation 4] is not satisfied, or following step S1000, the object detection unit 210 may perform the operation again from step S200.

S300 단계에서, 3차원 객체(10)가 검출되지 않고, n=0이면(S1100), 3차원 객체(10)가 아직 상부 영상의 프레임 내에 들어오지 않은 것이므로, 객체 검출부(210)는 S200 단계부터 다시 수행할 수 있다.In step S300, if the 3D object 10 is not detected and n=0 (S1100), the 3D object 10 has not yet entered the frame of the upper image, so the object detector 210 starts again from step S200. It can be done.

S300 단계에서, 3차원 객체(10)가 검출되지 않고, n=0이 아니면(S1100), 3차원 객체(10)가 상부 영상의 프레임을 통과하여 벗어난 것이므로, 단계를 종료할 수 있다.In step S300, if the 3D object 10 is not detected and n=0 (S1100), the 3D object 10 has passed through the frame of the upper image and is out of the frame, and the step can be ended.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium that stores instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media storing instructions that can be decoded by a computer. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, etc.

이상을 통해 본 발명의 실시 예에 대하여 설명하였지만, 본 발명은 상기 실시 예에 한정되지 않고, 본 발명의 취지를 벗어나지 않고 효과를 저해하지 않는 한, 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 다양하게 변경하여 실시할 수 있다. 또한 그러한 실시 예가 본 발명의 범위에 속하는 것은 당연하다.Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and may be varied within the scope of the detailed description and accompanying drawings, as long as it does not deviate from the spirit of the present invention and does not impair the effect. It can be implemented by changing it accordingly. It is also natural that such embodiments fall within the scope of the present invention.

1 : 3차원 객체 생체 형상 획득 시스템
10: 3차원 객체
100: 센서부
110: 상부 센서
120: 좌측 센서
130: 우측 센서
200: 제어부
210: 객체 검출부
220: 객체 위치 및 중첩도 산출부
230: 영상 획득 신호 발생부
300: 복원 서버
310: 저장부
320: 3차원 생체 형상 복원부
1: 3D object biometric shape acquisition system
10: 3D object
100: sensor unit
110: upper sensor
120: Left sensor
130: Right sensor
200: control unit
210: object detection unit
220: Object position and overlap calculation unit
230: Image acquisition signal generator
300: Restore server
310: storage unit
320: 3D biomorphic shape restoration unit

Claims (13)

3차원 객체의 상부에 위치하고, 상기 3차원 객체의 상부를 촬영하여 상부 영상을 생성하는 상부 센서;
상기 3차원 객체의 좌측에 위치하고, 상기 3차원 객체에 대한 좌측을 촬영하여 좌측 영상을 생성하는 좌측 센서;
상기 3차원 객체의 우측에 위치하고, 상기 3차원 객체에 대한 우측을 촬영하여 우측 영상을 생성하는 우측 센서;
상기 상부 영상으로부터 상기 3차원 객체의 위치 및 중첩도를 산출하며, 상기 중첩도에 기초하여 시작 시점으로부터 복수의 영상 획득 신호를 순차적으로 생성하는 제어부; 및
상기 복수의 영상 획득 신호에 따라 트리거 되어 상기 상부 영상, 상기 좌측 영상, 및 상기 우측 영상으로부터 복수의 대상 프레임을 저장하고, 상기 복수의 대상 프레임으로부터 상기 3차원 객체에 대한 3차원 생체 형상을 생성하는 복원 서버;를 포함하고,
상기 제어부에 포함되는 객체 위치 및 중첩도 산출부는,
하기의 수학식 1에 따라 n번째 프레임에 대응하는 중첩도를 산출하고,
[수학식 1]

여기서 는 중첩도이고, LH n-1는 n-1번째 프레임의 가축 두부의 위치, LH n는 n번째 프레임의 가축 두부의 위치, L0는 n번째 프레임의 바운딩 박스의 길이를 나타내고,
상기 제어부에 포함되는 영상 획득 신호 발생부는,
상기 상부 영상에 포함된 영상 프레임들의 중첩도에 기초하여 영상 획득 신호를 발생시키고,
상기 상부 영상에 포함된 영상 프레임들의 시간 간격 동안 상응하는 바운딩 박스에 포함된 3차원 객체가 이동한 거리를 하기의 수학식 2에 의해 계산하고,
[수학식 2]

여기서, ΔL은 3차원 객체가 이전 영상 프레임으로부터 현재의 영상 프레임까지 이동한 거리를 나타내고, LH n-1는 n-1번째 프레임의 가축 두부의 위치, LH n는 n번째 프레임의 가축 두부의 위치이고,
상기 제어부는,
상기 시작 시점 이후에, 상기 상부 영상 중 n번째 영상 프레임이 n-1번째 영상 프레임과의 중첩도가 소정의 기준 중첩도 이상에 해당하는 시점에 n번째 영상 획득 신호를 생성하여 상기 복원 서버에 전송하며,
상기 n은 2 이상의 자연수인, 3차원 객체 형상 획득 시스템.
An upper sensor located on top of a three-dimensional object and generating an upper image by photographing the upper part of the three-dimensional object;
A left sensor located on the left side of the 3D object and generating a left image by photographing the left side of the 3D object;
A right sensor located on the right side of the 3D object and generating a right image by photographing the right side of the 3D object;
a control unit that calculates the position and degree of overlap of the three-dimensional object from the upper image and sequentially generates a plurality of image acquisition signals from a starting point based on the degree of overlap; and
Triggered according to the plurality of image acquisition signals to store a plurality of target frames from the upper image, the left image, and the right image, and to generate a 3D biometric shape for the 3D object from the plurality of target frames Includes a restoration server;
The object position and overlap calculation unit included in the control unit,
Calculate the degree of overlap corresponding to the nth frame according to Equation 1 below,
[Equation 1]

here is the overlap degree, L H n-1 represents the position of the livestock head in the n-1th frame, L H n represents the position of the livestock head in the n-th frame, L 0 represents the length of the bounding box of the n-th frame,
The image acquisition signal generator included in the control unit,
Generating an image acquisition signal based on the degree of overlap of image frames included in the upper image,
Calculate the distance moved by the 3D object included in the corresponding bounding box during the time interval of the image frames included in the upper image using Equation 2 below,
[Equation 2]

Here, ΔL represents the distance the 3D object moved from the previous image frame to the current image frame, L H n-1 is the location of the livestock head in the n-1th frame, and L H n is the livestock head in the nth frame. is the location of
The control unit,
After the start time, at the point when the degree of overlap of the nth video frame with the n-1th video frame of the upper video corresponds to a predetermined standard overlap degree or more, the nth image acquisition signal is generated and transmitted to the restoration server. And
A three-dimensional object shape acquisition system, wherein n is a natural number of 2 or more.
제1항에 있어서,
지면으로부터 상기 좌측 센서의 높이는, 상기 지면으로부터 상기 우측 센서의 높이와 동일하고, 상기 상부 센서의 센서 중심축은, 상기 좌측 센서의 센서 중심축 및 우측 센서의 센서 중심축 각각과 직교하는,
3차원 객체 형상 획득 시스템.
According to paragraph 1,
The height of the left sensor from the ground is the same as the height of the right sensor from the ground, and the sensor central axis of the upper sensor is orthogonal to each of the sensor central axis of the left sensor and the sensor central axis of the right sensor.
3D object shape acquisition system.
제1항에 있어서,
상기 제어부는,
상기 상부 영상에 포함된 영상 프레임들로부터 상기 3차원 객체를 검출하고, 상기 3차원 객체가 검출된 프레임으로부터 바운딩 박스(bounding box)를 검출하며, 학습된 가축 검출 신경망을 이용하여 상기 바운딩 박스로부터 상기 3차원 객체의 일단의 중심점을 산출하는,
3차원 객체 형상 획득 시스템.
According to paragraph 1,
The control unit,
The three-dimensional object is detected from image frames included in the upper image, a bounding box is detected from the frame in which the three-dimensional object is detected, and the bounding box is detected from the bounding box using a learned livestock detection neural network. Calculating the center point of a set of three-dimensional objects,
3D object shape acquisition system.
제3항에 있어서,
상기 제어부는,
상기 상부 영상으로부터 상기 3차원 객체를 탐지하기 시작한 시점으로부터 최초로 상기 3차원 객체의 일단을 최초로 검출한 시점을 상기 시작 시점으로 하고, 상기 시작 시점에 대응하는 첫 번째 영상 획득 신호를 생성하여 상기 복원 서버에 전송하는,
3차원 객체 형상 획득 시스템.
According to paragraph 3,
The control unit,
Starting from the time when detecting the 3D object from the upper image, the time when one end of the 3D object is first detected is set as the start time, and the first image acquisition signal corresponding to the start time is generated to generate the restoration server. transmitted to,
3D object shape acquisition system.
삭제delete 제4항에 있어서,
상기 복원 서버는,
상기 제어부로부터 복수의 영상 획득 신호를 수신하고, 상기 상부 영상, 상기 좌측 영상, 및 상기 우측 영상으로부터 상기 복수의 영상 획득 신호 각각을 수신한 시점에 대응하는 상부 대상 프레임, 좌측 대상 프레임, 및 우측 대상 프레임을 추출하여 저장하는 저장부를 포함하고,
상기 복수의 대상 프레임은,
상기 복수의 영상 획득 신호 각각에 대응하는 상기 상부 대상 프레임, 상기 좌측 대상 프레임, 및 상기 우측 대상 프레임을 포함하는,
3차원 객체 형상 획득 시스템.
According to paragraph 4,
The restoration server is,
Receive a plurality of image acquisition signals from the control unit, and receive an upper target frame, a left target frame, and a right target corresponding to a point in time at which each of the plurality of image acquisition signals is received from the upper image, the left image, and the right image. Includes a storage unit for extracting and storing frames,
The plurality of target frames are:
Containing the upper target frame, the left target frame, and the right target frame corresponding to each of the plurality of image acquisition signals,
3D object shape acquisition system.
제6항에 있어서,
상기 복원 서버는,
상기 복수의 대상 프레임에 기초하여 상기 복수의 대상 프레임 중 서로 중복되는 복수의 제1 대상 프레임을 점운(Point Cloud)으로 변환하여 등록하고, 상기 복수의 제1 대상 프레임 각각으로부터 특징점 간의 관계를 서로 매칭하여 상기 3차원 생체 형상을 생성하는 형상 복원부를 더 포함하는,
3차원 객체 형상 획득 시스템.
According to clause 6,
The restoration server is,
Based on the plurality of target frames, a plurality of overlapping first target frames among the plurality of target frames are converted into point clouds and registered, and the relationships between feature points from each of the plurality of first target frames are matched to each other. Further comprising a shape restoration unit that generates the three-dimensional biological shape,
3D object shape acquisition system.
제어부가, 3차원 객체의 상부에 위치하고, 상기 3차원 객체의 상부를 촬영하여 상부 영상을 생성하는 상부 센서로부터 상기 상부 영상을 수신하는 단계;
상기 제어부가, 상기 상부 영상으로부터 상기 3차원 객체의 위치 및 중첩도를 산출하는 단계;
상기 제어부가, 상기 중첩도에 기초하여 시작 시점으로부터 복수의 영상 획득 신호를 순차적으로 생성하는 단계;
상기 제어부로부터 상기 복수의 영상 획득 신호를 수신한 복원 서버가, 상기 복수의 영상 획득 신호에 따라 트리거 되어 상기 상부 영상, 상기 3차원 객체의 좌측에 위치하는 좌측 센서로부터 생성된 좌측 영상, 및 상기 3차원 객체의 우측에 위치하는 우측 센서로부터 생성된 우측 영상으로부터 복수의 대상 프레임을 저장하는 단계; 및
상기 복원 서버가, 상기 복수의 대상 프레임으로부터 상기 3차원 객체에 대한 3차원 생체 형상을 생성하는 단계;를 포함하고,
상기 제어부에 포함되는 객체 위치 및 중첩도 산출부는,
하기의 수학식 1에 따라 n번째 프레임에 대응하는 중첩도를 산출하고,
[수학식 1]

여기서 는 중첩도이고, LH n-1는 n-1번째 프레임의 가축 두부의 위치, LH n는 n번째 프레임의 가축 두부의 위치, L0는 n번째 프레임의 바운딩 박스의 길이를 나타내고,
상기 제어부에 포함되는 영상 획득 신호 발생부는,
상기 상부 영상에 포함된 영상 프레임들의 중첩도에 기초하여 영상 획득 신호를 발생시키고,
상기 상부 영상에 포함된 영상 프레임들의 시간 간격 동안 상응하는 바운딩 박스에 포함된 3차원 객체가 이동한 거리를 하기의 수학식 2에 의해 계산하고,
[수학식 2]

여기서, ΔL은 3차원 객체가 이전 영상 프레임으로부터 현재의 영상 프레임까지 이동한 거리를 나타내고, LH n-1는 n-1번째 프레임의 가축 두부의 위치, LH n는 n번째 프레임의 가축 두부의 위치이고,
상기 시작 시점 이후에, 상기 상부 영상 중 n번째 영상 프레임이 n-1번째 영상 프레임과의 중첩도가 소정의 기준 중첩도 이상에 해당하는 시점에 n번째 영상 획득 신호를 생성하여 상기 복원 서버에 전송하는 단계를 더 포함하고,
상기 n은 2 이상의 자연수인,
3차원 객체 형상 획득 방법.
Receiving, by a control unit, the upper image from an upper sensor located on the upper part of the three-dimensional object and generating the upper image by photographing the upper part of the three-dimensional object;
Calculating, by the control unit, the position and overlap of the three-dimensional object from the upper image;
The control unit sequentially generating a plurality of image acquisition signals from a starting point based on the degree of overlap;
A restoration server that receives the plurality of image acquisition signals from the control unit is triggered according to the plurality of image acquisition signals to generate the upper image, the left image generated from the left sensor located on the left side of the three-dimensional object, and the 3 Storing a plurality of target frames from a right image generated from a right sensor located on the right side of the dimensional object; and
A step of generating, by the restoration server, a 3D biometric shape for the 3D object from the plurality of target frames,
The object position and overlap calculation unit included in the control unit,
Calculate the degree of overlap corresponding to the nth frame according to Equation 1 below,
[Equation 1]

here is the overlap degree, L H n-1 represents the position of the livestock head in the n-1th frame, L H n represents the position of the livestock head in the n-th frame, L 0 represents the length of the bounding box of the n-th frame,
The image acquisition signal generator included in the control unit,
Generating an image acquisition signal based on the degree of overlap of image frames included in the upper image,
Calculate the distance moved by the 3D object included in the corresponding bounding box during the time interval of the image frames included in the upper image using Equation 2 below,
[Equation 2]

Here, ΔL represents the distance the 3D object moved from the previous image frame to the current image frame, L H n-1 is the location of the livestock head in the n-1th frame, and L H n is the livestock head in the nth frame. is the location of
After the start time, at the point when the degree of overlap of the nth video frame with the n-1th video frame of the upper video corresponds to a predetermined standard overlap degree or more, the nth image acquisition signal is generated and transmitted to the restoration server. It further includes steps of:
where n is a natural number of 2 or more,
Method for acquiring 3D object shape.
제8항에 있어서,
상기 3차원 객체의 위치 및 중첩도를 산출하는 단계는,
상기 상부 영상에 포함된 영상 프레임들로부터 상기 3차원 객체를 검출하는 단계;
상기 3차원 객체가 검출된 프레임으로부터 바운딩 박스(bounding box)를 검출하는 단계; 및
학습된 가축 검출 신경망을 이용하여 상기 바운딩 박스로부터 상기 3차원 객체의 일단의 중심점을 산출하는 단계를 포함하는,
3차원 객체 형상 획득 방법.
According to clause 8,
The step of calculating the position and overlap of the 3D object is,
detecting the three-dimensional object from image frames included in the upper image;
detecting a bounding box from the frame in which the 3D object is detected; and
Comprising the step of calculating a set of center points of the three-dimensional object from the bounding box using a learned livestock detection neural network,
Method for acquiring 3D object shape.
제8항에 있어서,
상기 복수의 영상 획득 신호를 순차적으로 생성하는 단계는,
상기 상부 영상으로부터 상기 3차원 객체를 탐지하기 시작한 시점으로부터 최초로 상기 3차원 객체의 일단을 최초로 검출한 시점을 상기 시작 시점으로 하고, 상기 시작 시점에 대응하는 첫 번째 영상 획득 신호를 생성하여 상기 복원 서버에 전송하는 단계를 포함하는,
3차원 객체 형상 획득 방법.
According to clause 8,
The step of sequentially generating the plurality of image acquisition signals is,
Starting from the time when detecting the 3D object from the upper image, the time when one end of the 3D object is first detected is set as the start time, and the first image acquisition signal corresponding to the start time is generated to generate the restoration server. Including the step of transmitting to,
Method for acquiring 3D object shape.
삭제delete 제8항에 있어서,
상기 복수의 대상 프레임을 저장하는 단계는,
상기 제어부로부터 복수의 영상 획득 신호를 수신하고, 상기 상부 영상, 상기 좌측 영상, 및 상기 우측 영상으로부터 상기 복수의 영상 획득 신호 각각을 수신한 시점에 대응하는 상부 대상 프레임, 좌측 대상 프레임, 및 우측 대상 프레임을 추출하여 저장하는 단계를 포함하고,
상기 복수의 대상 프레임은,
상기 복수의 영상 획득 신호 각각에 대응하는 상기 상부 대상 프레임, 상기 좌측 대상 프레임, 및 상기 우측 대상 프레임을 포함하는,
3차원 객체 형상 획득 방법.
According to clause 8,
The step of storing the plurality of target frames includes:
Receive a plurality of image acquisition signals from the control unit, and receive an upper target frame, a left target frame, and a right target corresponding to a point in time at which each of the plurality of image acquisition signals is received from the upper image, the left image, and the right image. Including the step of extracting and storing a frame,
The plurality of target frames are:
Containing the upper target frame, the left target frame, and the right target frame corresponding to each of the plurality of image acquisition signals,
Method for acquiring 3D object shape.
제8항에 있어서,
상기 3차원 객체에 대한 3차원 생체 형상을 생성하는 단계는,
상기 복수의 대상 프레임에 기초하여 상기 복수의 대상 프레임 중 서로 중복되는 복수의 제1 대상 프레임을 점운(Point Cloud)으로 변환하여 등록하는 단계; 및
상기 복수의 제1 대상 프레임 각각으로부터 특징점 간의 관계를 서로 매칭하여 상기 3차원 생체 형상을 생성하는 단계를 포함하는,
3차원 객체 형상 획득 방법.
According to clause 8,
The step of generating a 3D biometric shape for the 3D object is:
Converting and registering a plurality of overlapping first target frames among the plurality of target frames into a point cloud based on the plurality of target frames; and
Comprising the step of generating the three-dimensional biometric shape by matching relationships between feature points from each of the plurality of first target frames.
Method for acquiring 3D object shape.
KR1020230047070A 2023-04-10 2023-04-10 3-dimention object shape acquisition system and method KR102578113B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230047070A KR102578113B1 (en) 2023-04-10 2023-04-10 3-dimention object shape acquisition system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230047070A KR102578113B1 (en) 2023-04-10 2023-04-10 3-dimention object shape acquisition system and method

Publications (1)

Publication Number Publication Date
KR102578113B1 true KR102578113B1 (en) 2023-09-14

Family

ID=88013863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230047070A KR102578113B1 (en) 2023-04-10 2023-04-10 3-dimention object shape acquisition system and method

Country Status (1)

Country Link
KR (1) KR102578113B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089196A (en) * 2016-11-29 2019-07-30 블랙모어 센서스 앤드 애널리틱스 인코포레이티드 Method and system for classifying objects in a point cloud data set
WO2021029662A1 (en) * 2019-08-14 2021-02-18 엘지전자 주식회사 Point cloud data transmission device, point cloud data transmission method, point cloud data reception device and point cloud data reception method
KR20210046217A (en) * 2019-10-18 2021-04-28 주식회사 메이아이 Method and apparatus for detecting an object using detection of a plurality of regions
KR20210083016A (en) * 2019-12-26 2021-07-06 삼성전자주식회사 Electronic apparatus and controlling method thereof
KR20210127070A (en) * 2020-04-13 2021-10-21 엘지전자 주식회사 Point cloud data transmission apparatus, point cloud data transmission method, point cloud data reception apparatus and point cloud data reception method
KR20220052140A (en) * 2020-10-20 2022-04-27 한국전자통신연구원 Method and server for generating custom 3d human body model data
KR102391853B1 (en) * 2021-11-19 2022-05-09 주식회사 케이비전 System and Method for Processing Image Informaion
KR102467234B1 (en) * 2021-12-20 2022-11-16 전남대학교 산학협력단 Method and apparatus for estimating size and weight of crops and livestocks

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089196A (en) * 2016-11-29 2019-07-30 블랙모어 센서스 앤드 애널리틱스 인코포레이티드 Method and system for classifying objects in a point cloud data set
WO2021029662A1 (en) * 2019-08-14 2021-02-18 엘지전자 주식회사 Point cloud data transmission device, point cloud data transmission method, point cloud data reception device and point cloud data reception method
KR20210046217A (en) * 2019-10-18 2021-04-28 주식회사 메이아이 Method and apparatus for detecting an object using detection of a plurality of regions
KR20210083016A (en) * 2019-12-26 2021-07-06 삼성전자주식회사 Electronic apparatus and controlling method thereof
KR20210127070A (en) * 2020-04-13 2021-10-21 엘지전자 주식회사 Point cloud data transmission apparatus, point cloud data transmission method, point cloud data reception apparatus and point cloud data reception method
KR20220052140A (en) * 2020-10-20 2022-04-27 한국전자통신연구원 Method and server for generating custom 3d human body model data
KR102391853B1 (en) * 2021-11-19 2022-05-09 주식회사 케이비전 System and Method for Processing Image Informaion
KR102467234B1 (en) * 2021-12-20 2022-11-16 전남대학교 산학협력단 Method and apparatus for estimating size and weight of crops and livestocks

Similar Documents

Publication Publication Date Title
CN110426112B (en) Live pig weight measuring method and device
CN110163904B (en) Object labeling method, movement control method, device, equipment and storage medium
US20210142052A1 (en) Entity identification using machine learning
CN112419494B (en) Obstacle detection and marking method and device for automatic driving and storage medium
US8903161B2 (en) Apparatus for estimating robot position and method thereof
US20110158540A1 (en) Pattern recognition method and pattern recognition apparatus
US20150138322A1 (en) Image processing device and its control method, imaging apparatus, and storage medium
KR20120048370A (en) Object pose recognition apparatus and method using the same
KR20190070514A (en) Apparatus for Building Grid Map and Method there of
WO2021114773A1 (en) Target detection method, device, terminal device, and medium
JP2019211364A (en) Device and method for estimating weight of body of animal
KR102403791B1 (en) Weight measurement system using livestock photographing device
KR102467234B1 (en) Method and apparatus for estimating size and weight of crops and livestocks
WO2022002443A1 (en) Autonomous livestock monitoring
JP6429466B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
WO2021051382A1 (en) White balance processing method and device, and mobile platform and camera
KR102578113B1 (en) 3-dimention object shape acquisition system and method
Torii et al. Omnidirectional image stabilization for visual object recognition
CN117178161A (en) Computer program, model generation method, estimation method, and estimation device
KR102289640B1 (en) A contactless mobile weighting system for livestock using asymmetric stereo cameras
CN114694204A (en) Social distance detection method and device, electronic equipment and storage medium
JP7078771B1 (en) Information processing equipment, information processing methods and programs
KR102635277B1 (en) Product recognizing apparatus and controlling method of the same
KR102389931B1 (en) Mobile device with livestock weight inference application installed
CN116468878B (en) AR equipment positioning method based on positioning map

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant