KR102663038B1 - Method and device for performing modeling for target plants - Google Patents
Method and device for performing modeling for target plants Download PDFInfo
- Publication number
- KR102663038B1 KR102663038B1 KR1020220169844A KR20220169844A KR102663038B1 KR 102663038 B1 KR102663038 B1 KR 102663038B1 KR 1020220169844 A KR1020220169844 A KR 1020220169844A KR 20220169844 A KR20220169844 A KR 20220169844A KR 102663038 B1 KR102663038 B1 KR 102663038B1
- Authority
- KR
- South Korea
- Prior art keywords
- images
- target plant
- standard
- image
- angle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000003384 imaging method Methods 0.000 claims abstract description 62
- 230000000873 masking effect Effects 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 16
- 238000005259 measurement Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 15
- 238000004590 computer program Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 206010044565 Tremor Diseases 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
- G06K19/06037—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
대상 식물과 인접한 영역에서 상기 대상 식물에 대한 복수의 이미지를 획득하는 단계; 상기 대상 식물에 대한 기준 라인에 기초하여 상기 복수의 이미지에 대응하는 촬상 각도를 결정하는 단계; 상기 복수의 이미지 중 일부 이미지에 대한 상기 촬상 각도에 기초하여 수행되는 상기 일부 이미지의 가중 합에 기초하여 표준 각도에 대한 표준 이미지를 획득하는 단계; 및 상기 표준 이미지를 이용하여 상기 대상 식물에 대한 모델링을 수행하는 단계;를 포함하는, 방법 및 디바이스가 개시된다. Obtaining a plurality of images of the target plant in an area adjacent to the target plant; determining an imaging angle corresponding to the plurality of images based on a reference line for the target plant; Obtaining a standard image for a standard angle based on a weighted sum of some images performed based on the imaging angle for some images among the plurality of images; and performing modeling on the target plant using the standard image. A method and device including a method and device are disclosed.
Description
본 개시의 기술 분야는 대상 식물에 대한 모델링을 수행하는 방법 및 디바이스에 관한 것으로, 더욱 상세하게는, 대상 식물에 대한 복수의 이미지를 획득함에 따라 식물의 형상 치수를 측정하기 위한 3D 모델링을 수행하는 방법 및 디바이스에 관한 것이다. The technical field of the present disclosure relates to a method and device for performing modeling on a target plant, and more specifically, performing 3D modeling to measure the shape dimensions of the plant by acquiring a plurality of images of the target plant. It relates to methods and devices.
최근 글로벌 시장조사업체 '이머전 리서치'에 따르면, 전 세계적으로 농업에 활용되는 인공지능의 시장 규모가 2021년을 기준으로 17억 달러를 이미 넘어섰으며, 2022년부터 2030년까지 연평균 28%의 성장률을 기록할 것으로 예측했다. 또한, 이런 가파른 성장세를 이끄는 주요 분야 중 하나가 바로 '센서를 통한 작물에 대한 데이터 생성 및 데이터 분석' 분야일 것으로 내다 보고 있다. 이런 세계적인 추세 속에서 대한민국에서도 농촌 진흥청을 중심으로 작물 및 생육 환경에 대한 빅데이터를 수집하기 위한 노력을 쏟고 있는 실정이다. 농촌 진흥청의 '2022년도 세입세출예산 각목명세서'에 따르면, '농업 빅데이터 수집 및 생산성 향상 모델 개발(R&D)'에 39억 9천 5백만원의 예산이 책정되었으며, 이는 전년도 동일 항목 대비 27% 증가된 예산으로 해당 사업으로 얻어진 데이터는 '스마트팜 R&D빅데이터 포털'을 통해 모아지고, 농촌 진흥청 홈페이지 '공공데이터개방'에서 정제된 자료를 볼 수 있다. 하지만, 해당 사업으로 쌓이는 데이터는 신뢰성 문제로 실제 국산 농업 인공지능 프로그램을 개발하는 데 쓰이지 못하고 있다는 한계점이 존재한다. 따라서, 촬영 사각지대를 추론하여 식물의 형상 치수를 측정할 수 있는 식물에 대한 삼차원 모델링을 수행하는 방법을 제공하는 시스템 및 장치가 필요한 실정이다. According to the recent global market research company 'Immersion Research', the global market size of artificial intelligence used in agriculture has already exceeded $1.7 billion as of 2021, and is expected to grow at an average annual growth rate of 28% from 2022 to 2030. predicted to be recorded. In addition, it is expected that one of the major fields leading to this rapid growth will be the field of 'generating and analyzing data about crops through sensors.' Amid this global trend, efforts are being made in Korea to collect big data on crops and growing environments, led by the Rural Development Administration. According to the Rural Development Administration's '2022 Revenue and Expenditure Budget Statement', a budget of 3.995 billion won was allocated for 'agricultural big data collection and productivity improvement model development (R&D)', a 27% increase compared to the same item last year. The data obtained from the project with the allocated budget is collected through the 'Smart Farm R&D Big Data Portal', and the refined data can be viewed on the Rural Development Administration website 'Open Public Data'. However, there is a limitation in that the data accumulated through this project cannot be used to develop actual domestic agricultural artificial intelligence programs due to reliability issues. Therefore, there is a need for a system and device that provides a method of performing three-dimensional modeling of plants that can measure the shape dimensions of plants by inferring blind spots in photography.
본 개시에서 해결하고자 하는 과제는 식물에 대한 3D 모델링을 수행하는 시스템 및 장치에 있어서, 식물에 대한 복수의 이미지를 획득하고 일부 이미지에 대한 촬상 각도에 기초하여 기설정 각도에 대응되는 이미지를 획득함에 따라 식물에 대한 모델링이 수행되도록 하는 시스템을 제공하기 위한 것이다.The problem to be solved in the present disclosure is to provide a system and device for performing 3D modeling of plants, obtaining a plurality of images of plants and acquiring images corresponding to preset angles based on the imaging angles for some images. The purpose is to provide a system that allows modeling of plants to be performed accordingly.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로써, 본 개시의 제 1 측면에 따른 디바이스가 대상 식물에 대한 모델링을 수행하는 방법은 대상 식물과 인접한 영역에서 상기 대상 식물에 대한 복수의 이미지를 획득하는 단계; 상기 대상 식물에 대한 기준 라인에 기초하여 상기 복수의 이미지에 대응하는 촬상 각도를 결정하는 단계; 상기 복수의 이미지 중 일부 이미지에 대한 상기 촬상 각도에 기초하여 수행되는 상기 일부 이미지의 가중 합에 기초하여 표준 각도에 대한 표준 이미지를 획득하는 단계; 및 상기 표준 이미지를 이용하여 상기 대상 식물에 대한 모델링을 수행하는 단계;를 포함할 수 있다.As a technical means for achieving the above-described technical problem, a method of performing modeling on a target plant by a device according to the first aspect of the present disclosure includes acquiring a plurality of images of the target plant in an area adjacent to the target plant. ; determining an imaging angle corresponding to the plurality of images based on a reference line for the target plant; Obtaining a standard image for a standard angle based on a weighted sum of some images performed based on the imaging angle for some images among the plurality of images; and performing modeling on the target plant using the standard image.
또한, 상기 표준 이미지를 획득하는 단계는 상기 일부 이미지에서 기설정된 컬러 범위에 대응되는 영역에 대한 마스킹을 수행하여 마스킹 이미지를 획득하는 단계; 및 상기 마스킹 이미지의 가중 합에 기초하여 상기 표준 이미지를 획득하는 단계;를 포함할 수 있다.Additionally, the step of acquiring the standard image may include obtaining a masking image by masking an area corresponding to a preset color range in the partial image; and acquiring the standard image based on a weighted sum of the masking images.
또한, 상기 대상 식물로 조사되는 적외선을 이용하여 상기 대상 식물의 내부 공간 정보를 획득하는 단계;를 포함하고, 상기 대상 식물에 대한 모델링을 수행하는 단계는 상기 표준 이미지 및 상기 내부 공간 정보를 이용하여 상기 대상 식물에 대한 모델링을 수행할 수 있다.In addition, the step of obtaining internal space information of the target plant using infrared rays irradiated to the target plant; and performing modeling on the target plant using the standard image and the internal space information. Modeling can be performed on the target plant.
또한, 상기 대상 식물에 대한 모델링을 수행하는 단계는 상기 복수의 이미지에 포함되는 레일 이미지 및 진동 센서로부터 획득되는 진동 측정 데이터를 이용하여 상기 표준 이미지에 대한 떨림 보정을 수행하는 단계; 및 상기 떨림 보정의 수행 결과에 기초하여 상기 대상 식물에 대한 모델링을 수행하는 단계;를 포함할 수 있다.In addition, performing modeling on the target plant may include performing shaking correction on the standard image using vibration measurement data obtained from a rail image and a vibration sensor included in the plurality of images; and performing modeling on the target plant based on the results of the shaking correction.
또한, 상기 대상 식물에 대한 상기 기준 라인 및 상기 촬상 각도는 상기 대상 식물에 대응되는 큐알 이미지에 기초하여 결정될 수 있다. Additionally, the reference line and the imaging angle for the target plant may be determined based on the QR image corresponding to the target plant.
또한, 상기 표준 이미지를 획득하는 단계는 상기 복수의 이미지 중 상기 표준 이미지에 대응되는 상기 일부 이미지를 결정하는 단계;Additionally, acquiring the standard image may include determining the partial image among the plurality of images corresponding to the standard image;
상기 일부 이미지 각각에 대응되는 상기 촬상 각도가 상기 표준 각도와 근접한 정도에 따라 수행되는 가중 합에 기초하여 상기 표준 이미지를 획득하는 단계;를 포함할 수 있다.It may include obtaining the standard image based on a weighted sum performed according to the degree to which the imaging angle corresponding to each of the partial images is close to the standard angle.
본 개시의 제 2 측면에 따른 대상 식물에 대한 모델링을 수행하는 디바이스는 대상 식물과 인접한 영역에서 상기 대상 식물에 대한 복수의 이미지를 획득하는 수신부; 및 상기 대상 식물에 대한 기준 라인에 기초하여 상기 복수의 이미지에 대응하는 촬상 각도를 결정하고, 상기 복수의 이미지 중 일부 이미지에 대한 상기 촬상 각도에 기초하여 수행되는 상기 일부 이미지의 가중 합에 기초하여 표준 각도에 대한 표준 이미지를 획득하고, 상기 표준 이미지를 이용하여 상기 대상 식물에 대한 모델링을 수행하는 프로세서;를 포함할 수 있다.A device that performs modeling on a target plant according to a second aspect of the present disclosure includes a receiver that acquires a plurality of images of the target plant in an area adjacent to the target plant; and determining an imaging angle corresponding to the plurality of images based on a reference line for the target plant, and based on a weighted sum of the partial images performed based on the imaging angle for some of the plurality of images. It may include a processor that acquires a standard image for a standard angle and performs modeling on the target plant using the standard image.
본 개시의 일 실시 예에 따르면, 일부 이미지에 대한 촬상 각도에 기초하여 일부 이미지의 가중 합에 따라 복수의 표준 이미지를 획득하기 때문에 이미지에 대한 정확도가 향상될 수 있다는 효과가 있다.According to an embodiment of the present disclosure, there is an effect that image accuracy can be improved because a plurality of standard images are acquired according to a weighted sum of some images based on the imaging angle of some images.
또한, 식물에 대한 모델링을 수행하는데 있어서, 가시광선, 적외선 영역의 카메라 센서를 이용하기 때문에 금액을 절감할 수 있다는 점에서 효율성이 향상될 수 있다. In addition, when performing modeling for plants, efficiency can be improved in that costs can be reduced by using camera sensors in the visible and infrared regions.
또한, 적외선을 이용하여 식물의 내부 공간 정보를 더 획득하기 때문에 식물에 대한 형상 수치 확인이 가능할 수 있다는 점에서 효율성이 향상될 수 있다는 효과가 있다. In addition, since more information on the interior space of the plant is obtained using infrared rays, efficiency can be improved in that it is possible to confirm the shape of the plant.
또한, 복수의 이미지에 포함되는 레일 이미지를 이용하여 떨림 보정이 가능하기 때문에 정확도 높은 이미지를 획득 및 제공할 수 있다는 효과가 있다.In addition, since shake correction is possible using rail images included in a plurality of images, there is an effect of obtaining and providing images with high accuracy.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.
도 1은 일 실시 예에 따른 디바이스의 구성을 개략적으로 도시한 블록도이다.
도 2는 일 실시 예에 따른 대상 식물에 대한 모델링을 수행하는 디바이스가 동작하는 각 단계를 도시한 흐름도이다.
도 3은 일 실시 예에 따라 디바이스가 식물을 중심으로 회전함에 따라 식물에 대한 스캔이 수행되는 일 예를 설명하기 위한 도면이다.
도 4는 일 실시 예에 따라 표준 각도에 대한 표준 이미지가 획득되는 일 예를 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 디바이스가 마스킹 이미지를 획득하는 일 예를 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 디바이스가 레일 이미지를 이용하여 떨림 보정을 수행하는 일 예를 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 디바이스가 적외선을 이용하여 대상 식물의 내부 공간 정보를 획득하는 일 예를 설명하기 위한 도면이다.
도 8은 다른 실시 예에 따른 디바이스가 복수의 식물을 순차적으로 스캔하는 일 예를 설명하기 위한 도면이다.
도 9는 다른 실시 예에 따른 디바이스가 복수의 식물을 순차적으로 스캔하는 방법을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 디바이스가 식물에 대응되는 큐알 코드에 기초하여 3D 모델링 정보를 제공하는 일 예를 설명하기 위한 도면이다. Figure 1 is a block diagram schematically showing the configuration of a device according to an embodiment.
Figure 2 is a flowchart illustrating each step of a device that performs modeling on a target plant according to an embodiment.
FIG. 3 is a diagram illustrating an example in which scanning of a plant is performed as a device rotates around the plant, according to an embodiment.
FIG. 4 is a diagram illustrating an example in which a standard image for a standard angle is acquired according to an embodiment.
FIG. 5 is a diagram illustrating an example in which a device acquires a masking image according to an embodiment.
FIG. 6 is a diagram illustrating an example in which a device performs shake correction using a rail image according to an embodiment.
FIG. 7 is a diagram illustrating an example in which a device according to an embodiment acquires information on the internal space of a target plant using infrared rays.
FIG. 8 is a diagram illustrating an example in which a device sequentially scans a plurality of plants according to another embodiment.
FIG. 9 is a diagram illustrating a method in which a device sequentially scans a plurality of plants according to another embodiment.
FIG. 10 is a diagram illustrating an example in which a device according to an embodiment provides 3D modeling information based on a QR code corresponding to a plant.
본 개시에서 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시 예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 개시가 완전 하도록 하고, 해당 기술 분야에 속하는 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이다. Advantages and features in the present disclosure, and methods for achieving them, will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure is complete and to those skilled in the art. It is provided to provide complete information.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used herein are for describing embodiments and are not intended to limit the disclosure. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be the second component within the technical spirit of the present disclosure.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 해당 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art. Additionally, terms defined in commonly used dictionaries are not to be interpreted ideally or excessively unless clearly specifically defined.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms such as “below”, “beneath”, “lower”, “above”, “upper”, etc. are used as a single term as shown in the drawing. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms that include different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is flipped over, a component described as "below" or "beneath" another component will be placed "above" the other component. You can. Accordingly, the illustrative term “down” may include both downward and upward directions. Components can also be oriented in other directions, so spatially relative terms can be interpreted according to orientation.
이하에서는 도면을 참조하여 다양한 실시 예들을 상세히 설명한다.Hereinafter, various embodiments will be described in detail with reference to the drawings.
도 1은 일 실시 예에 따른 디바이스(100)의 구성을 개략적으로 도시한 블록도이다.FIG. 1 is a block diagram schematically showing the configuration of a device 100 according to an embodiment.
도 1을 참조하면, 디바이스(100)는 수신부(110) 및 프로세서(120)를 포함할 수 있다.Referring to FIG. 1, device 100 may include a receiver 110 and a processor 120.
일 실시 예에 따른 수신부(110)는 대상 식물과 인접한 영역에서 대상 식물에 대한 복수의 이미지를 획득할 수 있다.The receiver 110 according to one embodiment may acquire a plurality of images of the target plant in an area adjacent to the target plant.
일 실시 예에 따른 프로세서(120)는 대상 식물에 대한 기준 라인에 기초하여 복수의 이미지에 대응하는 촬상 각도를 결정할 수 있다. 또한, 프로세서(120)는 복수의 이미지 중 일부 이미지에 대한 촬상 각도에 기초하여 수행되는 일부 이미지의 가중 합에 기초하여 표준 각도에 대한 표준 이미지를 획득할 수 있다. 또한, 프로세서(100)는 표준 이미지를 이용하여 대상 식물에 대한 모델링을 수행할 수 있다.The processor 120 according to an embodiment may determine an imaging angle corresponding to a plurality of images based on a reference line for the target plant. Additionally, the processor 120 may obtain a standard image for a standard angle based on a weighted sum of some images performed based on the imaging angles of some of the plurality of images. Additionally, the processor 100 may perform modeling on the target plant using a standard image.
또한, 대상 식물에 대한 모델링을 수행하는 디바이스(100)는 수신부(110)에서 대상 식물에 대한 복수의 이미지를 획득하고 프로세서(120)에서 촬상 각도 및 표준 이미지를 획득하여 식물에 대한 모델링을 수행 및 모델링 정보를 제공하게 되는 과정에서 인터넷망 또는 이동통신망 등과 같은 종래의 다양한 네트워크 조합에 의해 결합될 수 있으며, 이에 대해서는 특별한 제한이 없음을 유의해야 한다. In addition, the device 100 that performs modeling on the target plant acquires a plurality of images of the target plant from the receiver 110, acquires the imaging angle and standard image from the processor 120, and performs modeling on the plant. It should be noted that in the process of providing modeling information, various existing networks such as Internet networks or mobile communication networks can be combined, and there are no special restrictions on this.
더하여, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소가 대상 식물에 대한 모델링을 수행하는 디바이스(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 대상 식물에 대한 모델링을 수행하는 디바이스(100)는 식물에 대한 모델링 정보를 제공하는 디스플레이(미도시), 프로세서(120)로부터 결정된 촬상 각도, 표준 각도에 대한 표준 이미지에 대한 정보 등을 저장하는 메모리(미도시)를 더 포함할 수 있다. 또는 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.In addition, those skilled in the art can understand that other general-purpose components in addition to the components shown in FIG. 1 may be further included in the device 100 that performs modeling on a target plant. For example, the device 100 that performs modeling on a target plant includes a display (not shown) that provides modeling information about the plant, an imaging angle determined by the processor 120, information about a standard image for a standard angle, etc. It may further include a memory (not shown) to store. Alternatively, according to another embodiment, those skilled in the art may understand that some of the components shown in FIG. 1 may be omitted.
일 실시 예에 따른 대상 식물에 대한 모델링을 수행하는 디바이스(100)는 사용자에 의해 이용될 수 있고, 휴대폰, 스마트폰, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 태블릿 PC 등과 같이 터치 스크린 패널이 구비된 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 연동될 수 있으며, 이 외에도 데스크탑 PC, 태블릿 PC, 랩탑 PC, 셋탑 박스를 포함하는 IPTV와 같이, 애플리케이션을 설치하고 실행할 수 있는 기반이 마련된 장치에 포함되거나 연동될 수 있다.The device 100 that performs modeling on a target plant according to an embodiment may be used by a user and may be touch-sensitive such as a mobile phone, smartphone, PDA (Personal Digital Assistant), PMP (Portable Multimedia Player), tablet PC, etc. It can be linked with all types of handheld wireless communication devices equipped with a screen panel, and can also install and run applications such as desktop PCs, tablet PCs, laptop PCs, and IPTVs including set-top boxes. It can be included in or linked to an existing device.
대상 식물에 대한 모델링을 수행하는 디바이스(100)는 본 명세서에서 설명되는 기능을 실현시키기 위한 컴퓨터 프로그램을 통해 동작하는 컴퓨터 등의 단말기로 구현될 수 있다.The device 100 that performs modeling on a target plant may be implemented as a terminal such as a computer that operates through a computer program to realize the functions described in this specification.
일 실시 예에 따른 대상 식물에 대한 모델링을 수행하는 디바이스(100)는 식물에 대한 3D 모델링을 수행하는 시스템(미도시) 및 관련 서버(미도시)를 포함할 수 있으나, 이에 제한되지 않는다. 일 실시 예에 따른 서버는 식물에 대한 3D 모델링에 대한 정보를 제공하는 애플리케이션을 지원할 수 있다.The device 100 that performs modeling of a target plant according to an embodiment may include, but is not limited to, a system (not shown) that performs 3D modeling of a plant and a related server (not shown). The server according to one embodiment may support an application that provides information about 3D modeling of plants.
이하에서는 일 실시 예에 따른 대상 식물에 대한 모델링을 수행하는 디바이스(100)가 독립적으로 식물에 대한 모델링을 수행하는 실시 예를 중심으로 서술하도록 하지만, 전술한 것처럼, 서버와의 연동을 통해 수행될 수도 있다. 즉, 일 실시 예에 따른 대상 식물에 대한 모델링을 수행하는 디바이스(100)와 서버는 그 기능의 측면에서 통합 구현될 수 있고, 서버는 생략될 수도 있으며, 어느 하나의 실시 예에 제한되지 않음을 알 수 있다.Hereinafter, the description will focus on an embodiment in which the device 100, which performs modeling on a target plant according to an embodiment, independently performs modeling on a plant. However, as described above, the device 100 performs modeling on a target plant independently. It may be possible. That is, the device 100 and the server that perform modeling for the target plant according to one embodiment may be integrated in terms of their functions, and the server may be omitted, and is not limited to any one embodiment. Able to know.
일 실시 예에서, 디바이스(100)와 서버는 연동될 수 있으며 식물에 대한 모델링을 수행하거나 모델링 정보를 사용자 계정에 제공하는 서비스를 제공하는 구성은 서버에 의해 수행될 수 있으며 디바이스(100)에서 수행될 수도 있다. 예를 들면 디바이스(100)는 서버로서 동작 할 수 있고 이하에서는 디바이스(100)로 통일하여 후술하도록 한다.In one embodiment, the device 100 and the server may be linked, and the configuration of providing a service that performs modeling for plants or provides modeling information to a user account may be performed by the server and is performed by the device 100. It could be. For example, the device 100 can operate as a server, and hereinafter it will be collectively referred to as the device 100 and described later.
도 2는 일 실시 예에 따른 대상 식물에 대한 모델링을 수행하는 디바이스(100)가 동작하는 각 단계를 도시한 흐름도이다.FIG. 2 is a flowchart illustrating each step of operation of the device 100 that performs modeling on a target plant according to an embodiment.
단계 S210을 참조하면, 일 실시 예에 따른 디바이스(100)는 대상 식물과 인접한 영역에서 대상 식물에 대한 복수의 이미지를 획득할 수 있다. 일 실시 예에서, 디바이스(100)는 대상 식물과의 기설정 거리 내의 영역을 움직임에 따라 가시광선 및 적외선 영역의 카메라 센서를 이용하여 대상 식물에 대한 복수의 이미지를 획득할 수 있다. Referring to step S210, the device 100 according to an embodiment may acquire a plurality of images of the target plant in an area adjacent to the target plant. In one embodiment, the device 100 may acquire a plurality of images of the target plant using a camera sensor in the visible light and infrared regions as it moves in an area within a preset distance from the target plant.
단계 S220을 참조하면, 일 실시 예에 따른 디바이스(100)는 대상 식물에 대한 기준 라인에 기초하여 복수의 이미지에 대응하는 촬상 각도를 결정할 수 있다. 일 실시 예에서, 기준 라인은 촬상 각도가 결정되는데 있어 기준이 되는 라인을 의미할 수 있다. 예를 들면, 기준 라인은 식물의 위치에 대응되는 지점의 중앙을 지나는 하나의 라인이 대응될 수 있다. 따라서, 식물에 대한 기준 라인으로부터 복수의 이미지가 촬영된 위치로의 각도가 각 이미지에 대응되는 촬상 각도로 결정될 수 있다. Referring to step S220, the device 100 according to an embodiment may determine an imaging angle corresponding to a plurality of images based on a reference line for the target plant. In one embodiment, the reference line may refer to a line that serves as a reference for determining the imaging angle. For example, the reference line may correspond to a line passing through the center of a point corresponding to the location of the plant. Accordingly, the angle from the reference line for the plant to the position where the plurality of images are captured may be determined as the imaging angle corresponding to each image.
단계 S230을 참조하면, 일 실시 예에 따른 디바이스(100)는 복수의 이미지 중 일부 이미지에 대한 촬상 각도에 기초하여 수행되는 일부 이미지의 가중 합에 기초하여 표준 각도에 대한 표준 이미지를 획득할 수 있다. 일 실시 예에서, 표준 이미지는 사용자가 획득하고자 하는 각도에서의 프레임이 대응될 수 있고 표준 각도는 표준 이미지에 대응되는 각도를 의미하는 것으로 사용자(관리자)에 의해 기설정될 수 있다. 또한, 일 실시 예에서, 디바이스(100)는 복수의 이미지를 각도 별로 추출할 수 있다. 기설정된 표준 각도에서의 표준 이미지를 획득하기 위해 각도 별로 획득된 복수의 이미지 중 표준 각도와 기설정 범위 이내의 각도에 대응되는 촬상 각도에서의 일부 이미지를 결정할 수 있다. 일 실시 예에 따른 디바이스(100)는 일부 이미지에서 기설정된 컬러 범위에 대응되는 영역에 대한 마스킹을 수행하여 마스킹 이미지를 획득할 수 있고 마스킹 이미지의 가중 합에 기초하여 표준 이미지를 획득할 수 있다. 디바이스(100)는 이미지 특정 영역에만 효과가 적용되도록 하기 위해 효과가 적용되지 않는 부분과 효과가 적용되는 부분을 구분할 수 있고 이 때, 기설정된 컬러 범위를 이용할 수 있다. 예를 들면, 디바이스(100)는 식물에 대응되는 기설정 R, G, B 값의 범위 내에 대응되는 녹색 영역을 마스킹 이미지로 획득할 수 있다. 디바이스(100)는 HSV 색 기반으로 녹색 영역 추출할 수 있고, 추출 결과물에서 가장 큰 물체 추출하여 GRABCUT 알고리즘에 기초하여 마스킹 이미지를 획득할 수 있다. 디바이스(100)는 복수의 일부 이미지로부터 획득되는 마스킹 이미지에서의 같은 위치에 존재하는 픽셀 값에 대하여 가중 합을 계산할 수 있고 각 이미지에 가중치를 곱하여 이미지를 중첩함에 따라 표준 이미지를 획득할 수 있다. Referring to step S230, the device 100 according to an embodiment may acquire a standard image for a standard angle based on a weighted sum of some images performed based on the imaging angle for some of the plurality of images. . In one embodiment, the standard image may correspond to a frame at an angle that the user wishes to obtain, and the standard angle may be preset by the user (administrator) to mean an angle corresponding to the standard image. Additionally, in one embodiment, the device 100 may extract a plurality of images for each angle. In order to acquire a standard image at a preset standard angle, some images at an imaging angle corresponding to an angle within the standard angle and a preset range may be determined among a plurality of images acquired for each angle. The device 100 according to an embodiment may obtain a masking image by performing masking on an area corresponding to a preset color range in some images and may obtain a standard image based on a weighted sum of the masking images. The device 100 can distinguish between a part to which the effect is not applied and a part to which the effect is applied so that the effect is applied only to a specific area of the image, and at this time, a preset color range can be used. For example, the device 100 may acquire a green area corresponding to a range of preset R, G, and B values corresponding to a plant as a masking image. The device 100 can extract the green area based on the HSV color, extract the largest object from the extraction result, and obtain a masking image based on the GRABCUT algorithm. The device 100 can calculate a weighted sum for pixel values existing at the same location in a masking image obtained from a plurality of partial images and obtain a standard image by overlapping the images by multiplying each image by the weight.
단계 S240을 참조하면, 일 실시 예에 따른 디바이스(100)는 표준 이미지를 이용하여 대상 식물에 대한 3D 모델링을 수행할 수 있다. 예를 들면, 일정 각도인 이미지의 특정 점을 행렬 값으로 갖는 공간 (x,y,z)들을 출력하고 출력된 공간 위의 점들 중, (px_1, py_1) 출력 값이 일정 각도에서 기설정 수준 이상의 각도 이미지에 있는 공간 위의 점을 출력함에 따라 두 이미지에 의해 검출된 3D 형상의 한 점을 이용하여 식물에 대한 모델링을 수행할 수 있다. 또한, 디바이스(100)는 대상 식물로 조사되는 적외선을 이용하여 대상 식물의 내부 공간 정보를 획득할 수 있다. 일 실시 예에서, 디바이스(100)는 가시광선 및 적외선 영역의 카메라 센서로부터 대상 식물의 컬러 및 내부 공간 정보를 획득할 수 있다. 일 실시 예에서, 내부 공간 정보는 식물의 잎, 줄기 등의 두께에 대한 정보를 포함할 수 있고 디바이스(100)는 내부 공간 정보를 획득함에 따라 수관의 형상 정보를 획득할 수 있다. 따라서, 디바이스(100)는 표준 이미지 및 내부 공간 정보를 이용하여 대상 식물에 대한 모델링을 수행할 수 있다. 따라서, 식물의 잎 형상(잎의 색 분포, 잎의 면적, 잎의 길이, 잎의 폭, 잎맥의 분포 등), 줄기 및 가지 형상(줄기의 길이, 줄기의 두께, 줄기의 색상, 곁가지의 개수, 곁가지의 분포, 곁가지의 길이, 곁가지의 색상), 수확물 형상(과육 의 부피, 과육의 둘레, 과육의 길이, 과육의 색상, 꽃의 색, 꽃의 형태, 꽃의 길이 등)에 대한 정보를 확인 및 기록할 수 있다는 효과가 있다. 또한, 일 실시 예에 따른 디바이스(100)는 복수의 이미지에 포함되는 레일 이미지 및 진동 센서로부터 획득되는 진동 측정 데이터를 이용하여 복수의 이미지에 대한 떨림 보정을 수행할 수 있다. 예를 들면, 대상 식물을 기준으로 기설정 거리 내의 영역의 바운더리에 대응되는 레일을 회전함(원형 레일)에 따라 획득되는 복수의 이미지에 레일 이미지가 포함될 수 있다. 일 실시 예에 따른 디바이스(100)는 획득된 복수의 이미지 내 일정 영역에 기설정 알고리즘(Bgsegm)을 적용함에 따라 떨림 보정을 수행할 수 있다. 또한, 디바이스(100)는 진동 보정을 수행함에 따라 떨림 보정을 수행할 수도 있다. 일 실시 예에서, 진동 센서는 자이로 센서 또는 피에조 진동 센서를 포함할 수 있다. 예를 들면, 디바이스(100)는 이미지 센서에 근접한 자이로 센서 또는 피에조 진동 센서를 이용하여 진동을 측정하여 이미지의 소프트웨어 상에서 떨림을 보정함에 따라 떨림 보정을 수행할 수도 있다. 따라서, 디바이스(100)는 떨림 보정의 수행 결과에 기초하여 대상 식물에 대한 모델링을 수행할 수 있다. Referring to step S240, the device 100 according to one embodiment may perform 3D modeling on a target plant using a standard image. For example, output spaces (x,y,z) that have matrix values for specific points of an image at a certain angle, and among the points on the output space, the output value (px_1, py_1) is above the preset level at a certain angle. By outputting points on the space in the angular image, modeling of plants can be performed using one point of the 3D shape detected by the two images. Additionally, the device 100 may obtain information on the internal space of the target plant using infrared rays irradiated to the target plant. In one embodiment, the device 100 may obtain color and internal space information of a target plant from a camera sensor in the visible and infrared regions. In one embodiment, the internal space information may include information about the thickness of the plant's leaves, stems, etc., and the device 100 may obtain shape information of the tree crown by acquiring the internal space information. Accordingly, the device 100 may perform modeling on the target plant using the standard image and internal spatial information. Therefore, the plant's leaf shape (leaf color distribution, leaf area, leaf length, leaf width, distribution of leaf veins, etc.), stem and branch shape (stem length, stem thickness, stem color, number of side branches, etc.) , distribution of side branches, length of side branches, color of side branches), information on harvest shape (volume of flesh, circumference of flesh, length of flesh, color of flesh, color of flower, shape of flower, length of flower, etc.) It has the effect of being able to be checked and recorded. Additionally, the device 100 according to an embodiment may perform vibration correction on a plurality of images using rail images included in the plurality of images and vibration measurement data obtained from a vibration sensor. For example, a rail image may be included in a plurality of images obtained by rotating a rail (circular rail) corresponding to the boundary of an area within a preset distance based on the target plant. The device 100 according to one embodiment may perform tremor correction by applying a preset algorithm (Bgsegm) to a certain area within a plurality of acquired images. Additionally, the device 100 may perform vibration correction by performing vibration correction. In one embodiment, the vibration sensor may include a gyro sensor or a piezo vibration sensor. For example, the device 100 may perform tremor correction by measuring vibration using a gyro sensor or piezoelectric vibration sensor close to the image sensor and correcting tremor in image software. Accordingly, the device 100 may perform modeling on the target plant based on the results of shaking correction.
일 실시 예에 따른 디바이스(100)는 복수의 이미지 중 표준 이미지에 대응되는 일부 이미지를 결정할 수 있다. 또한, 디바이스(100)는 일부 이미지 각각에 대응되는 촬영 각도가 표준 각도와 근접한 정도에 따라 수행되는 가중 합에 기초하여 표준 이미지를 획득할 수 있다. 예를 들면, 상술한 바와 같이, 디바이스(100)는 기설정된 표준 각도에서의 표준 이미지를 획득하기 위해 각도 별로 획득된 복수의 이미지 중 표준 각도와 기설정 범위 이내의 각도에 대응되는 촬상 각도에서의 일부 이미지를 결정할 수 있고 이 때 결정된 일부 이미지가 표준 이미지에 대응되는 이미지일 수 있다. 또한, 표준 각도에서 기설정된 표준 각도 범위 내의 촬상 각도에 대응되는 각도 내의 이미지가 일부 이미지에 대응될 수 있다. 일 실시 예에서, 기설정된 표준 각도 범위는 사용자(관리자)에 의해 기설정될 수 있으며, 표준 이미지를 결정하기 위해 표준 이미지에 대응되는 각도로부터 떨어진 각도의 정도 범위를 의미할 수 있다. 예를 들면, 표준 각도 범위 내의 일부 이미지의 촬상 각도 중 표준 각도와 가장 가까운 촬상 각도 및 표준 각도와의 차이, 표준 각도 범위 내의 일부 이미지의 촬상 각도 중 표준 각도와 가장 먼 촬상 각도 및 표준 각도와의 차이를 고려하여 표준 각도와 근접한 정도에 따라 일부 이미지의 개수 및 일부 이미지에 부여되는 가중치의 크기를 결정할 수 있다. 디바이스(100)는 기설정된 표준 각도 범위 내에 포함되는 일부 이미지의 개수가 2개일 경우 2개의 이미지를 이용하여 표준 이미지를 획득할 수 있다. 또한, 기설정된 표준 각도 범위 내에 포함되는 일부 이미지의 개수가 2개를 초과하는 경우 각 이미지에 대응되는 촬상 각도 및 표준 각도의 차이를 기초로 하여 2개 이상에 대응되는 일부 이미지의 개수 및 일부 이미지에 부여되는 가중치의 크기를 결정할 수 있다. 예를 들면, 표준 각도가 45도이고 표준 각도 범위가 표준 각도로부터 -15도, +15도에 대응되는 범위인 경우 표준 각도 범위는 30도 내지 60도의 범위가 대응될 수 있다. 이 때, 표준 각도 범위 내에 포함되는 일부 이미지에 대응되는 촬상 각도가 각각 40도 60도인 경우 두 이미지가 일부 이미지로 결정될 수 있다. 디바이스(100)는 일부 이미지에 대응되는 촬상 각도와 표준 각도의 차이가 적은 40도에 대응되는 이미지에 60도에 대응되는 이미지보다 높은 가중치를 부여함에 따른 가중 합에 기초하여 표준 이미지를 획득할 수 있다. 또한, 표준 각도 범위 내에 포함되는 일부 이미지에 대응되는 촬상 각도가 각각 35도 41도 50도인 경우 세 이미지가 일부 이미지로 결정될 수 있다. 디바이스(100)는 일부 이미지에 대응되는 촬상 각도와 표준 각도의 차이가 가장 적은 41도에 대응되는 이미지에 가장 높은 가중치를 부여할 수 있고, 50도에 대응되는 이미지에 두번째로 높은 가중치를 부여할 수 있고, 35도에 대응되는 이미지에 세번째로 높은 가중치를 부여함에 따른 가중 합에 기초하여 표준 이미지를 획득할 수 있다. 따라서, 디바이스(100)는 복수의 일부 이미지에 대응되는 촬상 각도가 표준 각도에 근접할수록 더 높은 가중치를 부여하여 표준 이미지를 획득하기 때문에 보다 정확도 높은 이미지를 획득할 수 있다는 효과가 있다. 또한, 일 실시 예에 따른 디바이스(100)는 상황에 따라 기설정된 표준 각도 범위를 갱신할 수 있다. 예를 들면, 표준 각도를 기준으로 하여 마이너스에 대응되는 범위에만 일부 이미지가 존재할 수도 있다. 일 실시 예에서, 표준 각도가 45도이고 기설정된 표준 각도 범위가 30도 내지 60도에 대응되는 경우에 일부 이미지에 대응되는 촬상 각도가 각각 30도 40도인 경우 두 이미지는 모두 표준 각도를 기준으로 하여 마이너스에 대응되는 범위에만 포함되는 이미지이기 때문에 표준 이미지에 대한 정확도가 떨어질 수 있다는 점에서 디바이스(100)는 기설정된 표준 각도 범위를 갱신할 수 있다. 예를 들면, 디바이스(100)는 표준 각도에서 가장 가까운 촬상 각도를 표준 각도 범위의 시작 각도로 결정할 수 있다. 상술한 바와 같이, 일부 이미지에 대응되는 촬상 각도가 각각 30도 40도인 경우 표준 각도인 45도와 가장 근접한 촬상 각도는 40도이기 때문에 표준 각도 범위는 40도 내지 70도로 갱신될 수 있다. 또한, 45도 내지 70도 사이에 일부 이미지가 존재하지 않은 경우 디바이스(100)는 표준 각도를 기준으로 하여 두번째로 근접한 촬상 각도와 가장 근접한 촬상 각도의 차이만큼 표준 각도 범위가 앞뒤로 확장되도록 할 수 있다. 예를 들면 표준 각도 범위를 1차적으로 갱신했음에도 표준 각도를 기준으로 하여 플러스에 대응되는 범위에 일부 이미지가 존재하지 않은 경우 30도와 40도의 차이인 10도만큼 표준 각도 범위가 앞뒤로 확장되도록 하여 표준 각도 범위는 30도 내지 80도로 갱신될 수 있다. 또한, 1차적으로 갱신된 범위에 일부 이미지가 존재하지 않는 경우(표준 각도를 기준으로 플러스되는 영역에 존재하지 않는 경우) 정확성을 보다 높이기 위해 디바이스(100)는 표준 각도를 기준으로 하여 플러스에 대응되는 범위에서 가장 근접한 촬상 각도에 대응되는 이미지(표준 각도 범위를 초과한 각도에 대응되는 이미지) 및 표준 각도를 기준으로 하여 마이너스에 대응되는 범위에서 가장 근접한 촬상 각도(예를 들면 40도)에 대응되는 이미지를 중첩함에 따라 중간 각도에 대응되는 이미지를 획득할 수 있고 해당 위치(각도)에서의 이미지를 일부 이미지로 결정할 수 있다. 따라서, 디바이스(100)는 새로 획득되는 일부 이미지를 함께 이용하여 근접한 정도에 따라 부여되는 가중치에 기초하여 표준 이미지를 획득할 수 있다. 따라서, 디바이스(100)는 일부 이미지가 한쪽에만 치우쳐 존재하는 경우에도 표준 각도 범위를 갱신함에 따라 보다 정확도 높은 표준 이미지를 획득할 수 있다는 효과가 있다. The device 100 according to one embodiment may determine some images that correspond to standard images among a plurality of images. Additionally, the device 100 may acquire standard images based on a weighted sum performed according to the degree to which the shooting angle corresponding to each of some images is close to the standard angle. For example, as described above, in order to acquire a standard image at a preset standard angle, the device 100 selects an image at an imaging angle corresponding to an angle within the standard angle and a preset range among a plurality of images acquired for each angle. Some images may be determined, and some images determined at this time may be images that correspond to standard images. Additionally, some images may correspond to images within an angle corresponding to an imaging angle within a preset standard angle range from a standard angle. In one embodiment, the preset standard angle range may be preset by a user (administrator) and may mean a degree range of an angle away from the angle corresponding to the standard image to determine the standard image. For example, among the imaging angles of some images within the standard angle range, the imaging angle closest to the standard angle and the difference from the standard angle; the imaging angle furthest from the standard angle among the imaging angles of some images within the standard angle range; and the difference between the standard angle and the Considering the difference, the number of some images and the size of the weight given to some images can be determined depending on the degree of proximity to the standard angle. If the number of some images included within the preset standard angle range is two, the device 100 may acquire a standard image using two images. In addition, if the number of partial images included within the preset standard angle range exceeds two, the number of partial images and partial images corresponding to two or more are based on the difference between the imaging angle and standard angle corresponding to each image. The size of the weight given to can be determined. For example, if the standard angle is 45 degrees and the standard angle range is a range corresponding to -15 degrees and +15 degrees from the standard angle, the standard angle range may correspond to a range of 30 degrees to 60 degrees. At this time, if the imaging angles corresponding to some images included in the standard angle range are 40 degrees and 60 degrees, the two images may be determined as partial images. The device 100 can acquire a standard image based on a weighted sum by assigning a higher weight to the image corresponding to 40 degrees, which has a small difference between the imaging angle corresponding to some images and the standard angle, than to the image corresponding to 60 degrees. there is. Additionally, if the imaging angles corresponding to some images included within the standard angle range are 35 degrees, 41 degrees, and 50 degrees, the three images may be determined as partial images. The device 100 may assign the highest weight to the image corresponding to 41 degrees, which has the smallest difference between the imaging angle corresponding to some images and the standard angle, and assign the second highest weight to the image corresponding to 50 degrees. A standard image can be obtained based on the weighted sum of assigning the third highest weight to the image corresponding to 35 degrees. Accordingly, the device 100 obtains a standard image by assigning a higher weight as the imaging angle corresponding to a plurality of partial images approaches the standard angle, which has the effect of obtaining a more accurate image. Additionally, the device 100 according to one embodiment may update the preset standard angle range depending on the situation. For example, some images may exist only in a range corresponding to the negative angle based on the standard angle. In one embodiment, when the standard angle is 45 degrees and the preset standard angle range corresponds to 30 degrees to 60 degrees, if the imaging angles corresponding to some images are 30 degrees and 40 degrees, both images are based on the standard angle. Therefore, since the image is included only in the range corresponding to the minus, the accuracy of the standard image may be reduced, so the device 100 may update the preset standard angle range. For example, the device 100 may determine the imaging angle closest to the standard angle as the starting angle of the standard angle range. As described above, when the imaging angles corresponding to some images are 30 degrees and 40 degrees, the standard angle range can be updated to 40 degrees to 70 degrees because the imaging angle closest to the standard angle of 45 degrees is 40 degrees. In addition, if some images do not exist between 45 degrees and 70 degrees, the device 100 may allow the standard angle range to be extended back and forth by the difference between the second closest imaging angle and the closest imaging angle based on the standard angle. . For example, if some images do not exist in the range corresponding to the plus based on the standard angle even though the standard angle range has been primarily updated, the standard angle range is extended back and forth by 10 degrees, which is the difference between 30 degrees and 40 degrees, and the standard angle The range can be updated from 30 to 80 degrees. In addition, if some images do not exist in the primarily updated range (if they do not exist in the plus area based on the standard angle), the device 100 responds to the plus based on the standard angle to further increase accuracy. Images corresponding to the closest imaging angle in the range (images corresponding to angles exceeding the standard angle range) and images corresponding to the closest imaging angle in the minus corresponding range based on the standard angle (for example, 40 degrees) By overlapping the images, an image corresponding to the intermediate angle can be obtained, and the image at that position (angle) can be determined as a partial image. Accordingly, the device 100 can use some newly acquired images together to obtain a standard image based on a weight given according to the degree of proximity. Accordingly, the device 100 has the effect of being able to obtain a standard image with higher accuracy by updating the standard angle range even when some images are biased to only one side.
다른 실시 예에서, 디바이스(100)는 일반적으로, 일부 이미지에 대응되는 촬상 각도가 표준 각도에 근접할수록 높은 가중치를 부여하여 표준 각도와의 차이 각도에 반비례하도록 가중치의 크기를 결정할 수 있으나, 일부 이미지가 3개 이상으로 복수개일 경우 각 이미지에 부여되는 가중치의 크기를 결정하는데 있어 선형적으로 반비례하도록 결정하는 것이 아니라 다른 복수의 요소를 더 고려하여 결정할 수 있다. 예를 들면, 대상 식물과 촬상 위치 간의 거리, 대상 식물의 최외곽 지점 및 대상 식물의 중점 간의 거리, 표준 각도와 기설정 수준 이상으로 근접한 촬상 각도에 대응되는 이미지의 개수가 일정 수준 이상으로 많은 경우를 더 고려할 수 있다. 일 실시 예에서, 레일이 정확한 원형의 형태가 아닐 수 있고 식물이 정확히 정 가운데 위치하지 않을 수 있기 때문에 대상 식물과 촬상 위치 간의 거리가 각각의 일부 이미지마다 상이할 수 있다. 따라서, 일부 이미지 대상 식물과 촬상 위치 간의 거리가 가장 짧은 이미지에 1.5배의 가중치를 더 부여할 수 있고, 식물의 최외곽 지점 및 중점 간의 거리는 식물의 반지름이 대응될 수 있는데 식물은 완벽히 대칭적이지 않기 때문에 각 반지름이 상이할 수 있다. 적외선 영역의 카메라 센서를 이용하여 복수의 이미지를 획득하는데 있어, 식물의 반지름이 짧을수록 보다 정확한 내부 공간 정보일 수 있다는 점에서 식물의 반지름이 가장 짧은 위치에서의 이미지에 1.5배의 가중치를 더 부여할 수 있다. 또한, 표준 각도와 기설정 수준 이상(예를 들면 10도)으로 근접한 촬상 각도에 대응되는 이미지의 개수가 일정 수준 이상(예를 들면 4개)으로 많은 경우 표준 각도 범위 내에는 포함되고 기설정 수준 이상으로 근접한 촬상 각도에 대응되는 범위에는 포함되지 않는 일부 이미지에는 부여되는 가중치를 0으로 결정하거나 또는 부여되는 가중치의 크기를 1/2(절반)이상으로 감소시키고 기설정 수준 이상으로 근접한 일정 수준 이상의 일부 이미지에 부여되는 가중치의 크기를 1/2이상으로 증가시킬 수도 있다. 이와 같이, 디바이스(100)는 상황에 따라 일부 이미지 각각에 부여되는 가중치를 상이하도록 하여 보다 정확도 높은 표준 이미지를 획득할 수 있다. In another embodiment, the device 100 generally assigns a higher weight as the imaging angle corresponding to some images approaches the standard angle and determines the size of the weight to be inversely proportional to the difference angle from the standard angle. However, in some images If there are three or more, the size of the weight given to each image may be determined by further considering a plurality of other factors rather than being linearly inversely proportional. For example, when the distance between the target plant and the imaging location, the distance between the outermost point of the target plant and the center of the target plant, and the number of images corresponding to the standard angle and the imaging angle closer than the preset level are greater than a certain level. can be further considered. In one embodiment, the distance between the target plant and the imaging location may be different for each partial image because the rail may not be exactly circular and the plant may not be exactly centered. Therefore, 1.5 times more weight can be given to the image with the shortest distance between some image target plants and the imaging location, and the distance between the outermost point and the midpoint of the plant can correspond to the radius of the plant, but plants are not perfectly symmetrical. Because each radius may be different. When acquiring multiple images using a camera sensor in the infrared range, 1.5 times more weight is given to the image at the location with the shortest plant radius, given that the shorter the plant's radius, the more accurate internal space information can be. can do. In addition, if the number of images corresponding to an imaging angle that is closer to the standard angle and the preset level (e.g. 10 degrees) is greater than a certain level (e.g. 4), it is included within the standard angle range and is at the preset level. The weight given to some images that are not included in the range corresponding to the imaging angle closer than above is determined to be 0, or the size of the given weight is reduced to more than 1/2 (half), and the weight given is set to a certain level closer than the preset level. The size of the weight given to some images can be increased by more than 1/2. In this way, the device 100 can obtain a standard image with higher accuracy by varying the weight assigned to each of some images depending on the situation.
도 3은 일 실시 예에 따라 디바이스(100)가 식물을 중심으로 회전함에 따라 식물에 대한 스캔이 수행되는 일 예를 설명하기 위한 도면이다. 도 3을 참조하면, 일 실시 예에 따른 디바이스(100)는 원형의 레일을 따라 이동되는 카메라 센서를 통해 대상 식물을 스캔함에 따라 대상 식물에 대한 복수의 이미지를 획득할 수 있다. FIG. 3 is a diagram illustrating an example in which scanning of a plant is performed as the device 100 rotates around the plant, according to an embodiment. Referring to FIG. 3, the device 100 according to one embodiment may acquire a plurality of images of the target plant by scanning the target plant through a camera sensor that moves along a circular rail.
도 4는 일 실시 예에 따라 표준 각도에 대한 표준 이미지가 획득되는 일 예를 설명하기 위한 도면이다. 도 4를 참조하면, 일 실시 예에 따른 디바이스(100)는 대상 식물과 인접한 영역에서 대상 식물에 대한 복수의 이미지를 획득할 수 있고 획득된 이미지에 대응되는 촬상 각도(410)가 각각 0도 30도 60도 90도 일 수 있다. 또한, 도면에 도시 되지는 않았지만, 90도 이후에 복수의 촬상 각도(410)가 더 포함될 수 있다. 또한, 디바이스(100)는 복수의 촬상 각도(410)에서의 복수의 이미지를 이용하여 표준 각도 영역(420)에서의 기설정 표준 각도에 대응되는 표준 이미지를 획득할 수 있다. 예를 들면, 디바이스(100)는 표준 각도 영역(420)에서의 기설정 표준 각도가 15도에 대응되는 경우 촬상 각도(410)가 0도 및 30도에 대응되는 일부 이미지를 이용하여 표준 이미지를 획득할 수 있다. 일 실시 예에서, 촬상 각도(410)를 0도 30도 60도 90도 등으로 표시하였지만 이에 제한되지 아니하며 상황에 따라 상이하게 적용될 수 있음은 통상의 기술자가 이해할 수 있을 것이다. FIG. 4 is a diagram illustrating an example in which a standard image for a standard angle is acquired according to an embodiment. Referring to FIG. 4, the device 100 according to an embodiment can acquire a plurality of images of the target plant in an area adjacent to the target plant, and the imaging angle 410 corresponding to the acquired images is 0 degrees and 30 degrees, respectively. It can be 60 degrees or 90 degrees. Additionally, although not shown in the drawing, a plurality of imaging angles 410 may be further included after 90 degrees. Additionally, the device 100 may acquire a standard image corresponding to a preset standard angle in the standard angle area 420 using a plurality of images from a plurality of imaging angles 410. For example, if the preset standard angle in the standard angle area 420 corresponds to 15 degrees, the device 100 creates a standard image using some images corresponding to the imaging angle 410 of 0 degrees and 30 degrees. It can be obtained. In one embodiment, the imaging angle 410 is indicated as 0 degrees, 30 degrees, 60 degrees, 90 degrees, etc., but it is not limited thereto and it will be understood by those skilled in the art that it may be applied differently depending on the situation.
도 5는 일 실시 예에 따른 디바이스(100)가 마스킹 이미지를 획득하는 일 예를 설명하기 위한 도면이다. 도 5를 참조하면, 단계 S230에서 설명한 바와 같이 디바이스(100)는 일부 이미지에서 기설정된 컬러 범위에 대응되는 영역에 대한 마스킹을 수행하여 마스킹 이미지를 획득할 수 있고 마스킹 이미지의 가중 합에 기초하여 표준 이미지를 획득할 수 있다. 디바이스(100)는 이미지 특정 영역에만 효과가 적용되도록 하기 위해 효과가 적용되지 않는 부분과 효과가 적용되는 부분을 구분할 수 있다. 따라서, 식물에 대한 마스킹 이미지를 획득할 수 있다. FIG. 5 is a diagram illustrating an example in which the device 100 acquires a masking image according to an embodiment. Referring to FIG. 5, as described in step S230, the device 100 may obtain a masking image by performing masking on an area corresponding to a preset color range in some images and obtain a standard image based on the weighted sum of the masking images. Images can be obtained. The device 100 may distinguish between a part to which the effect is not applied and a part to which the effect is applied in order to apply the effect only to a specific area of the image. Therefore, a masking image of the plant can be obtained.
도 6은 일 실시 예에 따른 디바이스(100)가 레일 이미지를 이용하여 떨림 보정을 수행하는 일 예를 설명하기 위한 도면이다. 도 6을 참조하면, 단계 S240에서 설명한 바와 같이, 대상 식물을 기준으로 기설정 거리 내의 영역의 바운더리에 대응되는 레일을 회전함(원형 레일)에 따라 획득되는 복수의 이미지에는 레일 이미지가 포함될 수 있고 일 실시 예에 따른 디바이스(100)는 획득된 표준 이미지 내 일정 영역에 기설정 알고리즘(Bgsegm) 및 이미지 센서에 인접한 진동 센서의 출력 데이터를 이용한 보정 알고리즘을 적용함에 따라 떨림 보정을 수행할 수 있다.FIG. 6 is a diagram illustrating an example in which the device 100 performs shake correction using a rail image according to an embodiment. Referring to FIG. 6, as described in step S240, a plurality of images obtained by rotating a rail (circular rail) corresponding to the boundary of an area within a preset distance based on the target plant may include rail images, The device 100 according to an embodiment may perform shaking correction by applying a correction algorithm using a preset algorithm (Bgsegm) and output data of a vibration sensor adjacent to the image sensor to a certain area in the acquired standard image.
도 7은 일 실시 예에 따른 디바이스(100)가 적외선을 이용하여 대상 식물의 내부 공간 정보를 획득하는 일 예를 설명하기 위한 도면이다. 도 7을 참조하면, 디바이스(100)는 적외선 영역의 카메라 센서를 이용하여 식물의 내부 공간 정보를 획득할 수 있다. 또한, 내부 공간 정보는 식물의 수관의 형상 정보를 포함할 수 있다. 따라서, 디바이스(100)는 대상 식물에 대한 두께, 수관 정보 등을 획득할 수 있다. FIG. 7 is a diagram illustrating an example in which the device 100 according to an embodiment acquires information on the internal space of a target plant using infrared rays. Referring to FIG. 7, the device 100 can obtain information on the internal space of a plant using a camera sensor in the infrared region. Additionally, the internal space information may include shape information of the plant's crown. Accordingly, the device 100 can obtain thickness and crown information about the target plant.
도 8은 다른 실시 예에 따른 디바이스(100)가 복수의 식물을 순차적으로 스캔하는 일 예를 설명하기 위한 도면이다. 도 8을 참조하면, 디바이스(100)는 원형 레일 및 원형 레일을 회전함에 따라 복수의 이미지를 획득하지 않고 일자 레일을 움직임에 따라 복수의 이미지를 획득할 수도 있다. FIG. 8 is a diagram illustrating an example in which the device 100 sequentially scans a plurality of plants according to another embodiment. Referring to FIG. 8 , the device 100 may acquire a plurality of images by moving a straight rail rather than acquiring a plurality of images by rotating the circular rail.
도 9는 다른 실시 예에 따른 디바이스(100)가 복수의 식물을 순차적으로 스캔하는 방법을 설명하기 위한 도면이다. 도 9를 참조하면, 일 실시 예에 따른 디바이스(100)는 일자 레일을 움직임에 따라 복수의 이미지를 획득하는 경우 원기둥을 축으로 하여 연결된 두 축이 각각 좌우로 움직임에 따라 대상 식물의 주변에 카메라가 위치할 수 있도록 하여 복수의 이미지를 획득할 수 있다. 따라서, 디바이스(100)는 대상 식물을 기준으로 하여 양쪽에서 두 축이 좌우로 움직임에 따라 카메라 경로(910)에서 카메라가 위치 및 이동할 수 있도록 하여 복수의 이미지를 획득할 수 있다. FIG. 9 is a diagram illustrating a method in which the device 100 sequentially scans a plurality of plants according to another embodiment. Referring to FIG. 9, when the device 100 according to one embodiment acquires a plurality of images by moving a straight rail, the two axes connected with the cylinder as an axis move left and right, respectively, so that a camera is placed around the target plant. Multiple images can be acquired by allowing the to be positioned. Accordingly, the device 100 can acquire a plurality of images by allowing the camera to position and move along the camera path 910 as the two axes move left and right on both sides based on the target plant.
도 10은 일 실시 예에 따른 디바이스(100)가 식물에 대응되는 큐알 코드에 기초하여 3D 모델링 정보를 제공하는 일 예를 설명하기 위한 도면이다. 일 실시 예에서, 대상 식물에 대한 기준 라인 및 촬상 각도는 대상 식물에 대응되는 큐알 이미지에 기초하여 결정될 수 있다. 도 10을 참조하면, 대상 식물에 복수의 큐알 이미지가 포함되어 있을 수 있고, 디바이스(100)는 애플리케이션과 연동함에 따라 사용자 단말로부터 획득되는 큐알 이미지에 따라 촬상 각도를 결정하거나, 해당 각도에서 획득된 이미지에 대한 3D 모델링 정보를 디스플레이 할 수 있다. 예를 들면, 디바이스(100)는 사용자 계정으로부터 획득되는 큐알 이미지를 통해 대상 식물에 대한 정보를 불러올 수 있다. 또한, 사용자 계정으로부터 획득된 식물 이미지가 촬영된 위치를 식물에 대한 기준 라인으로부터 떨어진 3D 공간상의 좌표(r, θ, ψ)에서의 각도 및 거리에 기초하여 확인할 수 있고 이에 따라 식물 이미지가 획득된 위치를 판별할 수 있다.FIG. 10 is a diagram illustrating an example in which the device 100 provides 3D modeling information based on a QR code corresponding to a plant, according to an embodiment. In one embodiment, the reference line and imaging angle for the target plant may be determined based on the QR image corresponding to the target plant. Referring to FIG. 10, the target plant may include a plurality of QR images, and the device 100 determines the imaging angle according to the QR image acquired from the user terminal in conjunction with the application, or 3D modeling information about images can be displayed. For example, the device 100 may retrieve information about a target plant through a QR image obtained from a user account. In addition, the location where the plant image obtained from the user account was taken can be confirmed based on the angle and distance in the coordinates (r, θ, ψ) in 3D space away from the reference line for the plant, and the plant image was acquired accordingly. The location can be determined.
일 실시 예에 따르면, 일부 이미지에 대한 촬상 각도에 기초하여 일부 이미지의 가중 합에 따라 복수의 표준 이미지를 획득하기 때문에 이미지에 대한 정확도가 향상될 수 있다는 효과가 있고, 식물에 대한 모델링을 수행하는데 있어서, 가시광선, 적외선 영역의 카메라 센서를 이용하기 때문에 금액을 절감할 수 있다는 점에서 효율성이 향상될 수 있다. 또한, 적외선을 이용하여 식물의 내부 공간 정보를 더 획득하기 때문에 식물에 대한 형상 수치 확인이 가능할 수 있다는 점에서 효율성이 향상될 수 있다는 효과가 있고, 복수의 이미지에 포함되는 레일 이미지를 이용하여 떨림 보정이 가능하기 때문에 정확도 높은 이미지를 획득 및 제공할 수 있다는 효과가 있다.According to one embodiment, since a plurality of standard images are acquired according to a weighted sum of some images based on the imaging angle of some images, the accuracy of the images can be improved, and modeling for plants is performed. Efficiency can be improved in that costs can be reduced by using camera sensors in the visible and infrared regions. In addition, by using infrared rays to obtain more information on the internal space of the plant, efficiency can be improved in that it is possible to confirm the shape of the plant, and by using rail images included in multiple images, Because correction is possible, it is effective in obtaining and providing high-accuracy images.
본 개시의 다양한 실시 예들은 기기(machine)(예를 들어, 디스플레이 장치 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(120)(예를 들어, 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 인스트럭션을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present disclosure are implemented as software including one or more instructions stored in a storage medium (e.g., memory) that can be read by a machine (e.g., a display device or computer). It can be. For example, the processor 120 of the device (eg, processor 120) may call at least one instruction among one or more instructions stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
일 실시 예에 따르면, 본 개시에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or via an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
본 발명에 대하여 예시한 도면을 참조로 하여 설명하였으나 개시된 실시 예와 도면에 의해 한정되는 것은 아니며 본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 실시 예를 설명하며 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을지라도, 해당 구성에 의해 예측이 가능한 효과 또한 인정될 수 있다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Although the present invention has been described with reference to the illustrative drawings, it is not limited to the disclosed embodiments and drawings, and those skilled in the art in the technical field related to the present embodiments may make modifications without departing from the essential characteristics of the above-mentioned description. You will be able to understand that it can be implemented in a certain form. Therefore, the disclosed methods should be considered from an explanatory rather than a restrictive perspective. Even if the operational effects according to the configuration of the present invention are not explicitly described and explained in the description of the embodiment, the effects that can be predicted by the configuration may also be recognized. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.
100: 디바이스
110: 수신부 120: 프로세서
410: 촬상 각도 420: 표준 각도 영역
910: 카메라 경로100: device
110: receiving unit 120: processor
410: Imaging angle 420: Standard angle area
910: Camera path
Claims (7)
대상 식물과 인접한 영역에서 상기 대상 식물에 대한 복수의 이미지를 획득하는 단계;
상기 대상 식물에 대한 기준 라인에 기초하여 상기 복수의 이미지에 대응하는 촬상 각도를 결정하는 단계;
상기 복수의 이미지 중 일부 이미지에 대한 상기 촬상 각도에 기초하여 수행되는 상기 일부 이미지의 가중 합에 기초하여 표준 각도에 대한 표준 이미지를 획득하는 단계; 및
상기 표준 이미지를 이용하여 상기 대상 식물에 대한 모델링을 수행하는 단계;를 포함하고,
상기 표준 이미지를 획득하는 단계는
상기 복수의 이미지 중 상기 표준 이미지에 대응되는 상기 일부 이미지를 결정하는 단계;
상기 일부 이미지 각각에 대응되는 상기 촬상 각도가 상기 표준 각도와 근접한 정도에 따라 수행되는 가중 합에 기초하여 상기 표준 이미지를 획득하는 단계;를 포함하는, 방법.
In a method of performing modeling on a target plant,
Obtaining a plurality of images of the target plant in an area adjacent to the target plant;
determining an imaging angle corresponding to the plurality of images based on a reference line for the target plant;
Obtaining a standard image for a standard angle based on a weighted sum of some images performed based on the imaging angle for some images among the plurality of images; and
Comprising: performing modeling on the target plant using the standard image,
The step of acquiring the standard image is
determining the partial image among the plurality of images corresponding to the standard image;
Obtaining the standard image based on a weighted sum performed according to the degree to which the imaging angle corresponding to each of the partial images is close to the standard angle.
상기 표준 이미지를 획득하는 단계는
상기 일부 이미지에서 기설정된 컬러 범위에 대응되는 영역에 대한 마스킹을 수행하여 마스킹 이미지를 획득하는 단계; 및
상기 마스킹 이미지의 가중 합에 기초하여 상기 표준 이미지를 획득하는 단계;를 포함하는, 방법.
According to claim 1,
The step of acquiring the standard image is
Obtaining a masking image by masking an area corresponding to a preset color range in the partial image; and
Obtaining the standard image based on a weighted sum of the masking images.
상기 대상 식물로 조사되는 적외선을 이용하여 상기 대상 식물의 내부 공간 정보를 획득하는 단계;를 포함하고,
상기 대상 식물에 대한 모델링을 수행하는 단계는
상기 표준 이미지 및 상기 내부 공간 정보를 이용하여 상기 대상 식물에 대한 모델링을 수행하는, 방법.
According to claim 1,
Comprising: acquiring internal space information of the target plant using infrared rays irradiated to the target plant,
The step of performing modeling on the target plant is
Method for performing modeling on the target plant using the standard image and the internal space information.
상기 대상 식물에 대한 모델링을 수행하는 단계는
상기 복수의 이미지에 포함되는 레일 이미지 및 진동 센서로부터 획득되는 진동 측정 데이터를 이용하여 상기 표준 이미지에 대한 떨림 보정을 수행하는 단계; 및
상기 떨림 보정의 수행 결과에 기초하여 상기 대상 식물에 대한 모델링을 수행하는 단계;를 포함하는, 방법.
According to claim 1,
The step of performing modeling on the target plant is
performing vibration correction on the standard image using rail images included in the plurality of images and vibration measurement data obtained from a vibration sensor; and
A method comprising: performing modeling on the target plant based on a result of performing the shaking correction.
상기 대상 식물에 대한 상기 기준 라인 및 상기 촬상 각도는 상기 대상 식물에 대응되는 큐알 이미지에 기초하여 결정되는, 방법.
According to claim 1,
The reference line and the imaging angle for the target plant are determined based on the QR image corresponding to the target plant.
대상 식물과 인접한 영역에서 상기 대상 식물에 대한 복수의 이미지를 획득하는 수신부; 및
상기 대상 식물에 대한 기준 라인에 기초하여 상기 복수의 이미지에 대응하는 촬상 각도를 결정하고,
상기 복수의 이미지 중 일부 이미지에 대한 상기 촬상 각도에 기초하여 수행되는 상기 일부 이미지의 가중 합에 기초하여 표준 각도에 대한 표준 이미지를 획득하고,
상기 표준 이미지를 이용하여 상기 대상 식물에 대한 모델링을 수행하고,
상기 복수의 이미지 중 상기 표준 이미지에 대응되는 상기 일부 이미지를 결정하고,
상기 일부 이미지 각각에 대응되는 상기 촬상 각도가 상기 표준 각도와 근접한 정도에 따라 수행되는 가중 합에 기초하여 상기 표준 이미지를 획득하는 프로세서;를 포함하는, 디바이스.
In a device that performs modeling on a target plant,
a receiving unit that acquires a plurality of images of the target plant in an area adjacent to the target plant; and
Determine an imaging angle corresponding to the plurality of images based on a reference line for the target plant,
Obtaining a standard image for a standard angle based on a weighted sum of some images performed based on the imaging angle for some images of the plurality of images,
Perform modeling on the target plant using the standard image,
Determining the partial images among the plurality of images that correspond to the standard images,
A device comprising: a processor for obtaining the standard image based on a weighted sum performed according to the degree to which the imaging angle corresponding to each of the partial images is close to the standard angle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220169844A KR102663038B1 (en) | 2022-12-07 | 2022-12-07 | Method and device for performing modeling for target plants |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220169844A KR102663038B1 (en) | 2022-12-07 | 2022-12-07 | Method and device for performing modeling for target plants |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102663038B1 true KR102663038B1 (en) | 2024-05-09 |
Family
ID=91075227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220169844A KR102663038B1 (en) | 2022-12-07 | 2022-12-07 | Method and device for performing modeling for target plants |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102663038B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110073203A (en) * | 2009-12-21 | 2011-06-29 | 한국전자통신연구원 | Portable multi view image acquisition system and method |
KR20120026239A (en) * | 2010-09-09 | 2012-03-19 | (주)넥스챌 | System of managing power distributing equipment base on augmented reality and operating method of the same |
KR102134396B1 (en) | 2018-11-15 | 2020-07-15 | 한국과학기술연구원 | Portable image acquisition apparatus for plants |
KR102139459B1 (en) * | 2019-03-19 | 2020-07-30 | 주식회사 쉘파스페이스 | Method, Apparatus and System for monitoring and growing of plant |
KR20210050780A (en) * | 2019-10-29 | 2021-05-10 | 서울과학기술대학교 산학협력단 | Apparatus for providing three dimensional model of plant |
JP2022123119A (en) * | 2017-07-07 | 2022-08-23 | 秀夫 安東 | Composite light generation method, optical property change unit, light source unit, measurement device, optical detection method, and imaging method |
-
2022
- 2022-12-07 KR KR1020220169844A patent/KR102663038B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110073203A (en) * | 2009-12-21 | 2011-06-29 | 한국전자통신연구원 | Portable multi view image acquisition system and method |
KR20120026239A (en) * | 2010-09-09 | 2012-03-19 | (주)넥스챌 | System of managing power distributing equipment base on augmented reality and operating method of the same |
JP2022123119A (en) * | 2017-07-07 | 2022-08-23 | 秀夫 安東 | Composite light generation method, optical property change unit, light source unit, measurement device, optical detection method, and imaging method |
KR102134396B1 (en) | 2018-11-15 | 2020-07-15 | 한국과학기술연구원 | Portable image acquisition apparatus for plants |
KR102139459B1 (en) * | 2019-03-19 | 2020-07-30 | 주식회사 쉘파스페이스 | Method, Apparatus and System for monitoring and growing of plant |
KR20210050780A (en) * | 2019-10-29 | 2021-05-10 | 서울과학기술대학교 산학협력단 | Apparatus for providing three dimensional model of plant |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Iglhaut et al. | Structure from motion photogrammetry in forestry: A review | |
Mokroš et al. | Novel low-cost mobile mapping systems for forest inventories as terrestrial laser scanning alternatives | |
Paulus | Measuring crops in 3D: using geometry for plant phenotyping | |
Friedli et al. | Terrestrial 3D laser scanning to track the increase in canopy height of both monocot and dicot crop species under field conditions | |
RU2735151C2 (en) | Weeds identification in natural environment | |
Herrero-Huerta et al. | Vineyard yield estimation by automatic 3D bunch modelling in field conditions | |
Gruszczyński et al. | Comparison of low-altitude UAV photogrammetry with terrestrial laser scanning as data-source methods for terrain covered in low vegetation | |
JP2019520632A (en) | Weed recognition in the natural environment | |
JP6273473B2 (en) | Forest information management device | |
Hämmerle et al. | Direct derivation of maize plant and crop height from low-cost time-of-flight camera measurements | |
US11334986B2 (en) | System and method for processing images of agricultural fields for remote phenotype measurement | |
Brocks et al. | Toward an automated low-cost three-dimensional crop surface monitoring system using oblique stereo imagery from consumer-grade smart cameras | |
CN109843034A (en) | Production forecast for wheatland | |
CN110458940A (en) | The processing method and processing unit of motion capture | |
JP2022136365A (en) | Plant evaluation device, plant evaluation method, and program | |
Murray et al. | The novel use of proximal photogrammetry and terrestrial LiDAR to quantify the structural complexity of orchard trees | |
KR101525772B1 (en) | Method and apparatus for providing three-dimensional model service of street tree information | |
Li et al. | Smartphone application-based measurements of stem-base width and plant height in rice seedling | |
Saeed et al. | Cotton plant part 3D segmentation and architectural trait extraction using point voxel convolutional neural networks | |
Morhart et al. | Limitations of estimating branch volume from terrestrial laser scanning | |
Puletti et al. | Enhancing wall-to-wall forest structure mapping through detailed co-registration of airborne and terrestrial laser scanning data in Mediterranean forests | |
Fol et al. | Evaluating state-of-the-art 3D scanning methods for stem-level biodiversity inventories in forests | |
KR102663038B1 (en) | Method and device for performing modeling for target plants | |
CN117376717A (en) | Camera disturbance correction method and system | |
Rossi et al. | A comparison of high-throughput imaging methods for quantifying plant growth traits and estimating above-ground biomass accumulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |