JP2020122692A - Image processor and method for processing image - Google Patents

Image processor and method for processing image Download PDF

Info

Publication number
JP2020122692A
JP2020122692A JP2019013960A JP2019013960A JP2020122692A JP 2020122692 A JP2020122692 A JP 2020122692A JP 2019013960 A JP2019013960 A JP 2019013960A JP 2019013960 A JP2019013960 A JP 2019013960A JP 2020122692 A JP2020122692 A JP 2020122692A
Authority
JP
Japan
Prior art keywords
image
information
plant
area
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019013960A
Other languages
Japanese (ja)
Inventor
悠修 古賀
Hironobu Koga
悠修 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019013960A priority Critical patent/JP2020122692A/en
Priority to PCT/JP2019/051249 priority patent/WO2020158286A1/en
Publication of JP2020122692A publication Critical patent/JP2020122692A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation

Landscapes

  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Botany (AREA)
  • Ecology (AREA)
  • Forests & Forestry (AREA)
  • Environmental Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

To specify a state of an object by using an image of the object.SOLUTION: An image processor 2 acquires first information showing a direction of an edge of an object from an image generated by imaging of the object and specifies at least one of a first region of the image, in which the object is in a specific state, and a second region, in which the object is not in the specific state, by using the first information.SELECTED DRAWING: Figure 1

Description

本発明は、植物等の物体を撮像して得られた画像から物体の情報を取得する画像処理技術に関する。 The present invention relates to an image processing technique for acquiring information on an object from an image obtained by imaging an object such as a plant.

水稲等の植物の栽培において、植物の生育状態を判断する指標として、葉の色を数値化した値である葉色値が用いられている。葉色値の測定方法には、葉色カラースケールを用いる方法と葉緑素計を用いる方法とがある。 In the cultivation of plants such as paddy rice, the leaf color value, which is a numerical value of the leaf color, is used as an index for determining the growth state of the plant. There are two methods for measuring leaf color values: a method using a leaf color scale and a method using a chlorophyll meter.

これらの測定方法において、植物を撮像して得られた画像を用いることが提案されている。特許文献1には、水稲を撮像して得られた画像を用いて水稲の葉色値を正確に測定するために、撮像時の照明スペクトルの影響を補正する方法が開示されている。 In these measuring methods, it has been proposed to use an image obtained by imaging a plant. Patent Document 1 discloses a method of correcting the influence of the illumination spectrum at the time of imaging in order to accurately measure the leaf color value of paddy rice using an image obtained by imaging rice.

特開2002−168771号公報JP, 2002-168771, A

しかしながら、特許文献1にて開示されたような方法を用いても、水稲が風で靡いてたり倒伏したりしていると、葉色値を正確に測定することができない場合がある。これは、風で靡いていたり倒伏したりしている水稲とそうではない水稲とでは、照明光のあたり方が異なるために、葉色値が異なる値として測定されてしまうからである。また、測定した葉色値から水稲が風で靡いている又は倒伏しているかを判別しようとしても、生育不良等の理由で部分的に葉色値が異なる場合との区別が難しい。 However, even if the method disclosed in Patent Document 1 is used, the leaf color value may not be accurately measured when the paddy rice is hindered or lodged by the wind. The reason for this is that the leaf color values are measured as different values because the illumination light hits differently between the paddy rice that has been swollen or lodged by the wind and the paddy rice that does not. Further, even if it is tried to determine whether the paddy rice is dull or lodging due to wind from the measured leaf color values, it is difficult to distinguish it from the case where the leaf color values are partially different due to poor growth or the like.

本発明は、物体の撮像画像を用いて該物体の状態を特定するのに有効な画像処理装置および画像処理方法を提供する。 The present invention provides an image processing apparatus and an image processing method that are effective for specifying the state of an object using a captured image of the object.

本発明の一側面としての画像処理装置は、物体の撮像により生成された画像から該物体のエッジ方向を示す第1の情報を取得する第1の情報取得手段と、第1の情報を用いて、画像のうち物体が特定の状態にある第1の領域および物体が特定の状態にない第2の領域のうち少なくとも一方を特定する領域特定手段とを有することを特徴とする。 An image processing apparatus according to one aspect of the present invention uses a first information acquisition unit that acquires first information indicating an edge direction of an object from an image generated by imaging an object, and the first information. , An area specifying unit that specifies at least one of a first area in which the object is in a specific state and a second area in which the object is not in a specific state.

また、本発明の他の一側面としての画像処理方法は、物体の撮像により生成された画像から該物体のエッジ方向を示す第1の情報を取得するステップと、第1の情報を用いて、画像のうち物体が特定の状態にある第1の領域および物体が特定の状態にない第2の領域のうち少なくとも一方を特定するステップとを有することを特徴とする。 An image processing method according to another aspect of the present invention uses a step of acquiring first information indicating an edge direction of the object from an image generated by imaging the object, and using the first information, Identifying at least one of a first region in which the object is in a particular state and a second region in which the object is not in a particular state.

なお、コンピュータに上記画像処理方法に従う処理を実行させるコンピュータプログラムも、本発明の他の一側面を構成する。 A computer program that causes a computer to execute the processing according to the image processing method also constitutes another aspect of the present invention.

本発明によれば、物体の撮像画像のうち該物体の状態に応じた領域を特定することができる。 According to the present invention, it is possible to specify a region in a captured image of an object according to the state of the object.

本発明の実施例である植物情報取得システムにおいて行われる処理を示すフローチャート。The flowchart which shows the process performed in the plant information acquisition system which is an Example of this invention. 実施例におけるエッジ方向特徴量を計算する処理を示すフローチャート。6 is a flowchart showing a process of calculating an edge direction feature amount according to the embodiment. 図2におけるエッジ強調処理に使用される平滑化フィルタを示す図。The figure which shows the smoothing filter used for the edge emphasis process in FIG. 図2におけるエッジ画像生成処理に使用される微分フィルタを示す図。FIG. 3 is a diagram showing a differential filter used for the edge image generation processing in FIG. 2. 実施例1における測定用画像、靡き/倒伏領域および非靡き/非倒伏領域の例を示す図。FIG. 3 is a diagram showing an example of a measurement image, a solid/collapsed area, and a non-silvered/non-cold area in Example 1. 実施例2である植物情報取得システムにおいて行われる処理を示すフローチャート。9 is a flowchart showing a process performed in the plant information acquisition system according to the second embodiment. 実施例3である植物情報取得システムにおいて行われる処理を示すフローチャート。The flowchart which shows the process performed in the plant information acquisition system which is Example 3. 実施例3における靡き/倒伏領域面積と閾値との関係を示す図。FIG. 10 is a diagram showing a relationship between a smooth/collapse region area and a threshold value in Example 3; 実施例4である植物情報取得システムにおいて行われる処理を示すフローチャート。The flowchart which shows the process performed in the plant information acquisition system which is Example 4. 実施例4における靡き/倒伏領域判定のための処理を示す図。FIG. 13 is a diagram showing a process for determining a solid/falling area in the fourth embodiment. 実施例の植物情報取得システムの構成を示す図。The figure which shows the structure of the plant information acquisition system of an Example.

以下、本発明の実施例について図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明の実施例では、物体としての植物の撮像により生成された画像(以下、測定用画像という)からエッジ方向を示す情報としてのエッジ方向特徴量(第1の情報)を取得(計算)する。次に、該エッジ方向特徴量を用いて植物が風に靡いている又は倒伏している特定の状態(以下、靡き/倒伏状態という)にあるか否かを判定する。そして、測定用画像のうち植物が靡き/倒伏状態にある第1の領域および靡き/倒伏状態にない第2の領域のうち少なくとも一方を抽出(特定)する。第1または第2の領域としての画像領域を情報取得領域とし、該情報取得領域の画像情報から植物の生育状態を判断する指標となる植物情報である葉色値(第2の情報)を取得(測定)することが可能である。 In the embodiment of the present invention, an edge direction feature amount (first information) as information indicating an edge direction is acquired (calculated) from an image generated by imaging a plant as an object (hereinafter, referred to as a measurement image). .. Next, using the edge direction feature amount, it is determined whether or not the plant is in a specific state in which it is sluggish in the wind or lodged (hereinafter, referred to as slid/lodging state). Then, at least one of the first region and the second region in which the plant is in the absent/disposed state is extracted (specified) from the measurement image. An image area as the first or second area is used as an information acquisition area, and a leaf color value (second information), which is plant information serving as an index for determining the growth state of a plant, is acquired from the image information of the information acquisition area ( Can be measured).

まず、エッジ方向特徴量について説明する。図2のフローチャートは、エッジ方向特徴量を計算する処理を示す。エッジ方向特徴量の計算は、エッジ強調処理(S111)、二値化処理(S112)、エッジ画像生成処理(S113)およびエッジ方向計算処理(S114)の4つの処理により実行される。Sはステップを意味する。 First, the edge direction feature amount will be described. The flowchart of FIG. 2 shows a process of calculating the edge direction feature amount. The calculation of the edge direction feature amount is executed by four processes of an edge emphasis process (S111), a binarization process (S112), an edge image generation process (S113), and an edge direction calculation process (S114). S means a step.

前提として、エッジ方向特徴量を計算する対象となる入力画像としての測定用画像は、植物の撮像により得られるモノクロ画像I(x, y)を使用する。Iはモノクロ画像の各画素の輝度値を示す。植物の撮像により生成された画像がマルチバンド画像である場合は、モノクロ画像I(x, y)として、各バンド画像の重み付き和で計算された画像を用いるとよい。例えば、植物の撮像により生成された画像がRGB画像である場合には、Rバンド画像、Gバンド画像およびBバンド画像の重み付き和で計算されたグレースケール画像を用いるとよい。また、モノクロ画像I(x, y)として、マルチバンド画像のうち代表的なバンド画像を用いてもよい。例えば、植物の葉を撮像することで生成された画像がRGB画像である場合には、植物の葉の緑色をよく反映するGバンド画像をモノクロ画像I(x, y)として用いてもよい。なお、画像の横と縦の画素数をそれぞれNx, Nyとするとき、x=1, ...,Nxおよびy=1, ...,Nyとする。 As a premise, a monochrome image I(x, y) obtained by imaging a plant is used as the measurement image as an input image for which the edge direction feature amount is calculated. I indicates the brightness value of each pixel of the monochrome image. When the image generated by imaging the plant is a multi-band image, an image calculated by the weighted sum of the band images may be used as the monochrome image I(x, y). For example, when the image generated by imaging a plant is an RGB image, it is preferable to use a grayscale image calculated by the weighted sum of the R band image, the G band image, and the B band image. Also, as the monochrome image I(x, y), a representative band image of the multi-band images may be used. For example, when the image generated by capturing an image of a plant leaf is an RGB image, a G band image that well reflects the green color of the plant leaf may be used as the monochrome image I(x, y). When the number of horizontal and vertical pixels of the image is Nx and Ny, respectively, x=1,. . . , Nx and y=1,. . . , Ny.

エッジ強調処理(S111)では、モノクロ画像I(x, y)のエッジを強調したエッジ強調画像Ienhance(x, y)を生成する。具体的には、下記の式(1)および(2)により、エッジ強調画像エッジ強調画像Ienhance(x, y)を生成する。 In the edge enhancement processing (S111), an edge enhanced image I enhance (x, y) in which the edges of the monochrome image I(x, y) are enhanced is generated. Specifically, the equation (1) and (2) below, to generate an edge enhanced image edge enhanced image I enhance (x, y).

ここで、Imean(x, y)はモノクロ画像I(x, y)を平滑化フィルタHmeanを用いて平滑化した平滑化画像であり、言い換えれば、各画素(x, y)を含む局所領域内の画素の平均輝度値を示す。記号*は畳み込み積分を意味する。すなわち、式(2)は、モノクロ画像I(x, y)の各画素(x, y)の輝度値Iを上記平均輝度値で除算することを意味する。 Here, I mean (x, y) is a smoothed image obtained by smoothing the monochrome image I(x, y) using the smoothing filter H mean , in other words, a local image including each pixel (x, y). The average luminance value of the pixels in the area is shown. The symbol * means convolution integral. That is, the expression (2) means that the brightness value I of each pixel (x, y) of the monochrome image I(x, y) is divided by the average brightness value.

図3(a),(b)は、平滑化フィルタHmeanの例を示す。図3(a)はフィルタサイズn=3とした場合の平滑化フィルタを、図3(b)はフィルタサイズn=5とした場合の平滑化フィルタを示している。 3A and 3B show examples of the smoothing filter H mean . FIG. 3A shows a smoothing filter when the filter size n=3, and FIG. 3B shows a smoothing filter when the filter size n=5.

上記エッジ強調処理(S111)を行うと、局所的な輝度差が小さい領域においてもエッジを強調することができる。この結果、後のエッジ画像生成処理(S113)において、検出すべきエッジを適切に検出することができる。 When the edge enhancement processing (S111) is performed, the edge can be enhanced even in a region where the local brightness difference is small. As a result, the edge to be detected can be appropriately detected in the subsequent edge image generation processing (S113).

二値化処理(S112)では、下記の式(3)を用いて、エッジ強調処理により得られたエッジ強調画像Ienhance(x, y)から二値化画像Ibinary(x, y)を生成する。 In the binarization process (S112), the binarized image I binary (x, y) is generated from the edge-enhanced image I enhance (x, y) obtained by the edge enhancement process using the following formula (3). To do.

この二値化処理(S112)を行うと、エッジ強調画像Ienhance(x, y)のエッジをさらに強調することができ、後のエッジ画像生成処理(S113)において、検出すべきエッジをより適切に検出することができる。 When this binarization processing (S112) is performed, the edges of the edge-enhanced image I enhance (x, y) can be further enhanced, and the edges to be detected are more appropriate in the subsequent edge image generation processing (S113). Can be detected.

エッジ画像生成処理(S113)では、二値化処理により得られた二値化画像Ibinary(x, y)を少なくとも2方向に微分して該少なくとも2方向の微分画像を生成する。ここでは、x方向とy方向の微分画像Gx(x, y),Gy(x, y)を例として説明する。微分画像Gx(x, y),Gy(x, y)は下記の式(4)および(5)を用いて生成する。 In the edge image generation process (S113), the binarized image I binary (x, y) obtained by the binarization process is differentiated in at least two directions to generate differential images in at least two directions. Here, the differential images G x (x, y) and G y (x, y) in the x and y directions will be described as an example. The differential images G x (x, y) and G y (x, y) are generated using the following equations (4) and (5).

ここで、Hxはx方向微分フィルタであり、Hyはy方向微分フィルタである。記号*は畳み込み積分を意味する。 Here, H x is a differential filter in the x direction and H y is a differential filter in the y direction. The symbol * means convolution integral.

図4(a)〜(c)は、y方向微分フィルタHyの例を示す。y方向微分フィルタHyとしては、図4(a)に示すPrewittフィルタを用いてもよいし、図4(b)に示すSobelフィルタを用いてもよい。また、図4(c)に示すような微分フィルタを用いてもよい。図4(c)に示すように、微分フィルタのフィルタサイズを大きくすると、エッジ方向計算処理(S114)において計算されるエッジ方向特徴量の階調を大きくすることができる。なお、x方向微分フィルタHxとしては、y方向微分フィルタHyを転置したフィルタを用いればよい。 Figure 4 (a) ~ (c) shows an example of a y-direction differential filter H y. As the y-direction differential filter H y , the Prewitt filter shown in FIG. 4A may be used, or the Sobel filter shown in FIG. 4B may be used. Alternatively, a differential filter as shown in FIG. 4(c) may be used. As shown in FIG. 4C, when the filter size of the differential filter is increased, the gradation of the edge direction feature amount calculated in the edge direction calculation process (S114) can be increased. A filter obtained by transposing the y-direction differential filter H y may be used as the x-direction differential filter H x .

エッジ方向計算処理(S114)では、下記の式(6)を用いてエッジ方向特徴量θ(x, y)を計算する。 In the edge direction calculation process (S114), the edge direction feature amount θ(x, y) is calculated using the following equation (6).

ここで、エッジ方向特徴量θ(x, y)は、-90°≦ θ(x, y) ≦90°の範囲で変化する特徴量である。なお、エッジ画像生成処理(S113)とエッジ方向計算処理(S114)の説明では、x方向とy方向の微分画像Gx(x, y),Gy(x, y)を例に挙げたが、微分する2方向が互いに直交していればx方向とy方向に限られない。 Here, the edge direction feature amount θ(x, y) is a feature amount that changes in the range of −90°≦θ(x, y)≦90°. In the description of the edge image generation process (S113) and the edge direction calculation process (S114), the differential images G x (x, y) and G y (x, y) in the x direction and the y direction are given as examples. , The two directions to be differentiated are not limited to the x direction and the y direction as long as they are orthogonal to each other.

本実施例におけるエッジ方向特徴量θ(x, y)の計算方法は、モノクロ画像I(x, y)に輝度分布がある場合やモノクロ画像I(x, y)のコントラストが低い場合でも、エッジをほぼ確実に検出し、検出エッジのエッジ方向特徴量θ(x, y)を正確に計算できるという特徴を有する。 The calculation method of the edge direction feature amount θ(x, y) in the present embodiment is such that even if the monochrome image I(x, y) has a luminance distribution or the contrast of the monochrome image I(x, y) is low, the edge Is almost certainly detected, and the edge direction feature quantity θ(x, y) of the detected edge can be accurately calculated.

そして、本実施例では、こうして計算されたエッジ方向特徴量θ(x, y)を用いて、撮像された植物の靡き/倒伏状態を判定する。エッジ方向特徴量θ(x, y)は、画像内の植物の輝度や色に依存しにくいという特徴を有する。このため、植物の輝度や色とは独立して、植物の靡き/倒伏状態を判定することができる。 Then, in this embodiment, the edge/feature amount θ(x, y) thus calculated is used to determine the swinging/accumulation state of the imaged plant. The edge direction feature amount θ(x, y) has a feature that it is unlikely to depend on the brightness and color of the plant in the image. For this reason, it is possible to determine the dull/accelerated state of the plant independently of the brightness and color of the plant.

本実施例によれば、生育不良等の理由で葉色値が異なる水稲と、靡き/倒伏状態にあるために葉色値が異なる水稲とを良好に区別することができる。 According to this example, it is possible to favorably distinguish between paddy rice having different leaf color values due to poor growth and the like, and paddy rice having different leaf color values due to the dry/falling state.

以下、具体的な実施例として、エッジ方向特徴量を用いて植物の靡き/倒伏状態を判定し、靡き/倒伏状態の情報を用いて測定用画像から葉色値を取得する情報取得領域を選択(設定)する植物情報取得システムについて説明する。 Hereinafter, as a specific example, the information on the leaf color value is selected from the measurement image by using the edge direction feature value to determine the plant's laid/lodging state and selecting the information acquisition region using the information on the laid/lodging state ( The plant information acquisition system to be set) will be described.

図11は、実施例1である植物情報取得システム100の構成を示している。植物情報取得システム100は、植物(水稲)を撮像して測定用画像を生成する撮像装置1と、該撮像装置1から測定用画像を取得する画素処理装置としてのパーソナルコンピュータ(PC)2とにより構成されている。 FIG. 11 shows the configuration of the plant information acquisition system 100 according to the first embodiment. The plant information acquisition system 100 includes an imaging device 1 that images a plant (paddy rice) to generate a measurement image, and a personal computer (PC) 2 as a pixel processing device that acquires the measurement image from the imaging device 1. It is configured.

図1のフローチャートは、本実施例においてPC2が行う処理(画像処理方法)を示している。PC2は、内蔵されたコンピュータプログラムに従って、エッジ方向特徴量計算処理(S110)と、靡き/倒伏状態判定処理(S120)と、非靡き/非倒伏領域(情報取得領域)抽出処理(S130)とを行う。PC2は、第1の情報取得手段および領域取得手段として機能する。 The flowchart of FIG. 1 shows the processing (image processing method) performed by the PC 2 in this embodiment. The PC 2 performs an edge direction feature amount calculation process (S110), a smooth/accelerated state determination process (S120), and a non-cervical/non-accelerated region (information acquisition region) extraction process (S130) according to a built-in computer program. To do. The PC 2 functions as first information acquisition means and area acquisition means.

PC2は、エッジ方向特徴量計算処理(S110)において、図2のフローチャートを用いて説明した処理を行ってエッジ方向特徴量θ(x, y)を計算する。 In the edge direction feature amount calculation process (S110), the PC 2 calculates the edge direction feature amount θ(x, y) by performing the process described with reference to the flowchart of FIG.

図5は、エッジ方向特徴量θ(x, y)を用いた水稲の靡き/倒伏状態の判定結果を示している。上段の3つの測定用画像は、同一地点から同一領域の水稲を互いに異なる時刻(t1,t2,t3)にて撮像することで生成されたRGB画像から生成されたグレースケール画像である。時刻t2の測定用画像において水稲の一部が風に靡いており、靡いている水稲の輝度値は高く、測定される葉色値は低くなっている。PC2は、これらの測定用画像に対して、エッジ方向特徴量計算処理(S110)によりエッジ方向特徴量θ(x, y)を計算する。 FIG. 5 shows the determination result of the rice paddy/laying state using the edge direction feature amount θ(x, y). The three measurement images in the upper row are grayscale images generated from RGB images generated by imaging rice in the same region from the same point at different times (t1, t2, t3). In the measurement image at the time t2, part of the paddy rice is turbulent in the wind, the brightness value of the quiescent paddy rice is high, and the measured leaf color value is low. The PC 2 calculates the edge direction feature amount θ(x, y) for these measurement images by the edge direction feature amount calculation process (S110).

次にPC2は、靡き/倒伏状態判定処理(S120)において、特定の状態としての靡き/倒伏状態にある植物とそうではない(非靡き/非倒伏)状態の植物とのエッジ方向特徴量θ(x, y)の違いを利用して、測定用画像内の植物が靡き/倒伏状態か否かを判定する。具体的には、下記の判定式(7)を用いて判定する。 Next, the PC 2 performs the edge/direction feature amount θ() between the plant in the aggression/accordance state as a specific state and the plant in the non-acquisition/accordance state (S120) in the aspiration/acceleration state determination process (S120). The difference in (x, y) is used to determine whether or not the plant in the measurement image is in a dull/accumulated state. Specifically, the determination is made using the following determination formula (7).

ここで、θthresholdは靡き/倒伏状態か非靡き/非倒伏状態かを判定するためにエッジ方向特徴量θ(x, y)と比較される閾値(所定値)である。本実施例では、非靡き/非倒伏状態ではエッジ方向特徴量θ(x, y)が0付近の値となり、靡き/倒伏状態になるにつれてエッジ方向特徴量θ(x, y)の絶対値が大きくなることを利用して靡き/倒伏状態か非靡き/非倒伏状態かを判定する。 Here, θ threshold is a threshold value (predetermined value) that is compared with the edge direction feature amount θ(x, y) in order to determine whether the state is the solid/falling state or the non-solid/non-falling state. In the present embodiment, the edge direction feature amount θ(x, y) has a value near 0 in the non-quick/non-yielding state, and the absolute value of the edge direction feature amount θ(x, y) has a value in the non-quick/prone state. The fact that the size becomes large is used to determine whether the user is in a good/prone state or a non-good/non-prone state.

図5の中段の3つの画像は、上述した3つの測定用画像のうち靡き/倒伏状態にあると判定された領域を示す画像であり、靡き/倒伏状態にある領域を1(白)、それ以外を0(黒)で表現している。これらの画像から、エッジ方向特徴量を用いて靡き/倒伏状態の領域を適切に判定することが分かる。また、図5の下段の3つの画像は、上述した3つの測定用画像のうち非靡き/非倒伏状態にあると判定された領域を示した画像であり、非靡き/非倒伏状態にある領域を1(白)、それ以外を0(黒)で表現している。 The three images in the middle part of FIG. 5 are images showing the regions determined to be in the laid/lodging state among the above-mentioned three measurement images, and the region in the laid/tilting state is 1 (white), Others are represented by 0 (black). From these images, it can be seen that the area in the prone/prone state is appropriately determined using the edge direction feature amount. In addition, the three images in the lower part of FIG. 5 are images showing the regions determined to be in the non-quick/non-collapsed state among the above-described three measurement images, and the regions in the non-quick/non-collapsed state. Is represented by 1 (white), and the others are represented by 0 (black).

本実施例では、平滑化フィルタのサイズn=7とし、微分フィルタとして図4(c)に示したフィルタを使用している。また、閾値θthreshold=20°としている。閾値θthresholdは撮像する植物の種類や検出したい靡き/倒伏状態の程度に応じて選択することができる。水稲の場合は、閾値θthreshold=20°〜30°に設定するとよい。 In this embodiment, the size of the smoothing filter is n=7, and the filter shown in FIG. 4C is used as the differential filter. Further, the threshold value θ threshold =20° is set. The threshold value θ threshold can be selected according to the type of the plant to be imaged and the degree of the dull/accumbing state to be detected. In the case of paddy rice, the threshold value θ threshold = 20° to 30° may be set.

さらにPC2は、非靡き/非倒伏領域抽出処理(S130)において、測定用画像から図5の下段に示した非靡き/非倒伏領域を抽出する。PC2は、抽出した非靡き/非倒伏領域をモニタに表示したりプリンタに出力したりしてもよい。 Further, in the non-silver/non-yielding region extraction processing (S130), the PC 2 extracts the non-silver/non-yielding region shown in the lower part of FIG. 5 from the measurement image. The PC 2 may display the extracted non-silver/non-collapsed area on a monitor or output it to a printer.

本実施例によれば、測定用画像内の植物が風に靡いたり倒伏したりしていても、正確な植物情報を取得可能な画像領域を抽出することができる。 According to the present embodiment, even if the plant in the measurement image is swollen or lodged in the wind, it is possible to extract an image region in which accurate plant information can be acquired.

次に実施例2について説明する。図6のフローチャートは、本実施例においてPC2が行う処理を示している。PC2は、エッジ方向特徴量計算処理(S210)と、靡き/倒伏状態判定処理(S220)と、非靡き/非倒伏領域抽出処理(S230)と、植物情報取得処理(S240)とを行う。S210〜S230は、実施例1で説明したS110〜S130と同じである。PC2は、第1の情報取得手段、領域特定手段および第2の情報取得手段として機能する。 Next, a second embodiment will be described. The flowchart of FIG. 6 shows the processing performed by the PC 2 in this embodiment. The PC 2 performs an edge direction feature amount calculation process (S210), a smooth/accelerated state determination process (S220), a non-quick/non-accumulated region extraction process (S230), and a plant information acquisition process (S240). S210 to S230 are the same as S110 to S130 described in the first embodiment. The PC 2 functions as a first information acquisition unit, a region specifying unit, and a second information acquisition unit.

植物情報取得処理(S240)では、PC2は、抽出された非靡き/非倒伏領域の画像情報から植物情報(物体情報)としての葉色値を測定する。 In the plant information acquisition process (S240), the PC 2 measures the leaf color value as the plant information (object information) from the extracted image information of the non-silver/non-cold area.

本実施例では、植物情報の取得に適さない靡き/倒伏状態の水稲が含まれない非靡き/非倒伏領域を抽出し、この非靡き/非倒伏領域の画像情報を用いて植物情報を取得するので、正確な植物情報を得ることができる。 In the present embodiment, a non-silent/non-yielding region that does not include a solid/yield state paddy rice that is not suitable for obtaining plant information is extracted, and the plant information is acquired using the image information of this non-silver/non-yielding region. Therefore, accurate plant information can be obtained.

なお、測定用画像から靡き/倒伏領域を抽出し、抽出された靡き/倒伏領域内の画像情報から植物情報を取得してもよい。 It is also possible to extract the solid/accelerated region from the image for measurement and obtain the plant information from the image information in the extracted crystalline/accelerated region.

次に実施例3について説明する。図7のフローチャートは、本実施例においてPC2が行う処理を示している。PC2は、エッジ方向特徴量計算処理(S310)と、靡き/倒伏状態判定処理(S320)とを行う。S310,S320は、実施例1で説明したS110,S120と同じである。さらにPC2は、靡き/倒伏領域抽出処理(S330)と、靡き/倒伏領域面積計算処理(S340)と、閾値判定処理(S350)と、植物情報取得処理(S360)とを行う。S360は、実施例2で説明したS240と同じである。PC2は、第1の情報取得手段、領域特定手段、画像判定手段および第2の情報取得手段として機能する。 Next, a third embodiment will be described. The flowchart of FIG. 7 shows the processing performed by the PC 2 in this embodiment. The PC 2 performs an edge direction feature amount calculation process (S310) and a squeeze/falling state determination process (S320). S310 and S320 are the same as S110 and S120 described in the first embodiment. Further, the PC 2 performs a smooth/accelerated region extraction process (S330), a smooth/accelerated region area calculation process (S340), a threshold determination process (S350), and a plant information acquisition process (S360). S360 is the same as S240 described in the second embodiment. The PC 2 functions as a first information acquisition unit, a region identification unit, an image determination unit, and a second information acquisition unit.

靡き/倒伏領域抽出処理(S330)では、PC2は、測定用画像から図5の中段に示した靡き/倒伏領域を抽出する。 In the smooth/accelerated area extraction process (S330), the PC 2 extracts the smooth/accelerated area shown in the middle part of FIG. 5 from the measurement image.

次に靡き/倒伏領域面積計算処理(S340)では、PC2は、靡き/倒伏領域抽出処理(S330)により抽出された靡き/倒伏領域の面積を計算する。具体的には、PC2は、靡き/倒伏領域の面積をその画素数によりカウントする。図5に示した時刻t1,t2およびt3での靡き/倒伏領域の画素数を計算した結果を図8に示す。 Next, in the squeeze/acceleration region area calculation process (S340), the PC 2 calculates the area of the squeeze/acceleration region extracted by the compression/acceleration region extraction process (S330). Specifically, the PC 2 counts the area of the blue/collapse region by the number of pixels. FIG. 8 shows the result of calculating the number of pixels in the solid/collapsed area at the times t1, t2, and t3 shown in FIG.

続いて閾値判定処理(S350)では、PC2は、靡き/倒伏領域の面積が閾値Nthreshold以上か否かを判定する。靡き/倒伏領域の面積が閾値Nthreshold以上である場合は、測定用画像が靡き/倒伏状態の植物を撮像して得られたものであり、植物情報を取得するための測定用画像としては適さない画像であると判定する。図8においては、時刻t2の測定用画像の靡き/倒伏領域の面積が閾値Nthreshold以上であるので、この測定用画像は植物情報を取得するための画像としては適さないと判定される。 Subsequently, in the threshold value determination processing (S350), the PC 2 determines whether or not the area of the rough/collapsed region is equal to or larger than the threshold value N threshold . When the area of the auspicious/accelerated region is greater than or equal to the threshold N threshold , the measurement image is obtained by imaging the avid/accelerated plant, and is suitable as a measurement image for obtaining plant information. It is determined that the image does not exist. In FIG. 8, since the area of the solid/accelerated region of the measurement image at time t2 is equal to or larger than the threshold N threshold, it is determined that this measurement image is not suitable as an image for obtaining plant information.

一方、靡き/倒伏領域の面積が閾値Nthresholdより小さい場合は、PC2は、測定用画像が植物情報を取得するために適した画像であると判定し、該測定用画像を用いて植物情報取得処理(S360)を行う。図8においては、時刻t1,t3の測定用画像の靡き/倒伏領域の面積が閾値Nthresholdより小さいので、これらの測定用画像は植物情報を取得するための画像として適すると判定される。 On the other hand, when the area of the solid/accelerated region is smaller than the threshold N threshold , the PC 2 determines that the measurement image is an image suitable for obtaining the plant information, and acquires the plant information by using the measurement image. A process (S360) is performed. In FIG. 8, the area of the solid/accelerated region of the measurement images at times t1 and t3 is smaller than the threshold value N threshold , and thus these measurement images are determined to be suitable as images for obtaining plant information.

閾値Nthresholdは、測定用画像の総画素数、植物の植被率(所定の面積を植物が覆っている割合)等に応じて選択することができる。 The threshold value N threshold can be selected according to the total number of pixels of the measurement image, the vegetation cover ratio of the plant (the ratio of the plant covering a predetermined area), and the like.

本実施例によれば、植物情報の取得に適さない測定用画像を植物情報を取得する測定用画像として用いないことにより、植物情報を安定的に、かつ正確に測定することができる。 According to the present embodiment, it is possible to stably and accurately measure the plant information by not using the measurement image that is not suitable for obtaining the plant information as the measurement image for obtaining the plant information.

なお、非靡き/非倒伏領域の面積を、その画素数ではなく、実際の面積で表してもよい。また、靡き/倒伏領域の面積が閾値より小さいか否かで測定用画像が植物情報の取得に適しているか否かを判定する代わりに、非靡き/非倒伏領域の面積が閾値より大きいか否かで測定用画像が植物情報の取得に適しているか否かを判定してもよい。 Note that the area of the non-smooth/non-collapsed area may be represented by the actual area instead of the number of pixels. In addition, instead of determining whether the measurement image is suitable for obtaining plant information by determining whether the area of the solid/accelerated area is smaller than a threshold value, whether the area of the non-ceramic/non-accumulated area is larger than the threshold value is determined. Alternatively, it may be determined whether or not the measurement image is suitable for obtaining the plant information.

次に実施例4について説明する。図9のフローチャートは、本実施例においてPC2が行う処理を示している。PC2は、同一地点から同一領域を互いに異なる時刻t1,t2で撮像することにより生成された測定用画像(以下それぞれ、t1画像およびt2画像という)を取得する処理として、t1画像入力処理(S411)とt2画像入力処理(S412)とを行う。そしてPC2は、t1画像およびt2画像のそれぞれに対して、エッジ方向特徴量計算処理(S421,S422)と、靡き/倒伏状態判定処理(S431,S432)と、靡き/倒伏領域抽出処理(S441,S442)とを行う。S411〜S432は実施例1で説明したS110〜S120と同じであり、S411,S442は実施例3で説明したS330と同じである。 Next, a fourth embodiment will be described. The flowchart of FIG. 9 shows the processing performed by the PC 2 in this embodiment. The PC2 acquires a measurement image (hereinafter referred to as a t1 image and a t2 image) generated by capturing the same region from the same point at different times t1 and t2, respectively, as a t1 image input process (S411). And t2 image input processing (S412). Then, the PC 2 performs edge direction feature amount calculation processing (S421, S422), squeeze/acceleration state determination processing (S431, S432), and squeeze/acceleration area extraction processing (S441) for each of the t1 image and the t2 image. S442) is performed. S411 to S432 are the same as S110 to S120 described in the first embodiment, and S411 and S442 are the same as S330 described in the third embodiment.

さらにPC2は、差分計算処理(S450)と、靡き・倒伏判定処理(S460)とを行う。PC2は、第1の情報取得手段、領域特定手段および物体判定手段として機能する。 Further, the PC 2 performs a difference calculation process (S450) and a squeeze/fallover determination process (S460). The PC 2 functions as a first information acquisition unit, a region identification unit, and an object determination unit.

差分計算処理(S450)について、図10を用いて説明する。この差分計算処理では、PC2は、図10に示すように図5に示した時刻t1,t2での靡き/倒伏領域の画像の差分を計算して差分画像を生成する。具体的には、時刻t2での靡き/倒伏領域の画像から時刻t1での靡き/倒伏領域の画像を差し引く。 The difference calculation process (S450) will be described with reference to FIG. In this difference calculation process, the PC 2 calculates the difference between the images of the solid/accelerated regions at the times t1 and t2 shown in FIG. 5, as shown in FIG. 10, to generate a difference image. Specifically, the image of the dynamic/fallover area at time t1 is subtracted from the image of the dynamic/fallover area at time t2.

図10に示す差分画像では、時刻t2で靡き状態にある領域を+1(白)で、時刻t1,t2で共に靡き/倒伏状態または非靡き/非倒伏状態にある領域を0(灰)で、時刻t1で靡き状態にある領域を−1(黒)で表現している。 In the difference image shown in FIG. 10, the area in the quivering state at time t2 is +1 (white), and the areas in the quivering/accumulating state or the non-quickness/non-clining state at times t1 and t2 are 0 (gray), The region in the dull state at time t1 is represented by -1 (black).

次に靡き・倒伏判定処理(S460)では、PC2は、差分画像に2を加えた画像に対して、時刻t1での靡き/倒伏領域の画像を乗じることで、図10の下段に示す時刻t1における靡き・倒伏判定画像を生成する。同様に、差分画像に2を加えた画像に対して、時刻t2での靡き/倒伏領域の画像を乗じて時刻t2における靡き・倒伏判定画像を生成する。 Next, in the dynamic/acceleration determination process (S460), the PC 2 multiplies the image obtained by adding 2 to the difference image by the image of the dynamic/accelerated region at the time t1, so that the time t1 shown in the lower part of FIG. To generate a slap/pronouncement determination image. Similarly, the image obtained by adding 2 to the difference image is multiplied by the image of the dynamic/accelerated area at time t2 to generate the dynamic/accelerated determination image at time t2.

なお、靡き・倒伏判定処理において、差分画像に2を加えた画像に対して非靡き/非倒伏領域の画像を乗じて靡き・倒伏判定画像を生成してもよい。 In addition, in the dynamic/accelerated determination process, the image of the non-determined/non-accelerated area may be multiplied by the image obtained by adding 2 to the difference image to generate the dynamic/accelerated determination image.

そして、PC2は、これら時刻t1,t2における靡き・倒伏判定画像を比較することで、各時刻において植物が風に靡いている又は倒伏している状態か否かを判定する。具体的には、各靡き・倒伏判定画像において、+3(白)の領域は時刻t2において靡き状態にあることを示し、+2(灰)の領域は恒常的に植物が倒れている倒伏状態にあることを示す。また、+1(灰)の領域は時刻t1において靡き状態にあることを示す。さらに0(黒)の領域は、時刻t1,t2において非靡き/非倒伏状態にあることを示す。 Then, the PC 2 determines whether or not the plant is in the wind or is prone to the wind at each time by comparing the propulsion/accumbing determination images at the times t1 and t2. Specifically, in each of the mesh/acceleration determination images, the area of +3 (white) indicates that it is in the mesh state at the time t2, and the area of +2 (ash) is in the lodging state in which the plant is constantly collapsed. Indicates that. Further, the area of +1 (gray) indicates that it is in a dull state at time t1. Further, the region of 0 (black) indicates that the time is at a time t1 or t2 in a non-quick/non-laid-down state.

本実施例によれば、同一地点から同一領域を互いに異なる時刻で撮像することで生成された測定用画像を用いることで、植物が風に靡いている状態か倒伏している状態かを判定することができる。 According to the present embodiment, by using the measurement image generated by capturing the same region from the same point at different times, it is determined whether the plant is in the wind or lying. be able to.

なお、互いに異なる時刻での撮像により生成された測定用画像は複数の画像であればよく、多くの測定用画像を用いるほど判定結果の信頼性を向上させることができる。 Note that the measurement images generated by imaging at different times may be a plurality of images, and the more measurement images are used, the more reliable the determination result can be.

上記各実施例では、撮像対象の植物として水稲を例として挙げたが、小麦その他の植物を撮像対象としてもよく、さらに植物以外の物体を撮像対象としてもよい。また、植物情報として葉色値を例として挙げたが、葉色値とは異なる植物情報を取得してもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
In each of the above embodiments, paddy rice was taken as an example of the plant to be imaged, but wheat or other plants may be the subject to be imaged, and an object other than the plant may be the image to be captured. Further, the leaf color value has been taken as an example of the plant information, but plant information different from the leaf color value may be acquired.
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 The embodiments described above are merely representative examples, and various modifications and changes can be made to the embodiments when implementing the present invention.

1 撮像装置
2 パーソナルコンピュータ
1 Imaging device 2 Personal computer

Claims (10)

物体の撮像により生成された画像から前記物体のエッジ方向を示す第1の情報を取得する第1の情報取得手段と、
前記第1の情報を用いて、前記画像のうち前記物体が特定の状態にある第1の領域および前記物体が前記特定の状態にない第2の領域のうち少なくとも一方を特定する領域特定手段とを有することを特徴とする画像処理装置。
First information acquisition means for acquiring first information indicating an edge direction of the object from an image generated by imaging the object;
Area specifying means for specifying at least one of a first area in which the object is in a specific state and a second area in which the object is not in the specific state using the first information; An image processing apparatus comprising:
前記第1の情報取得手段は、
前記画像の各画素の輝度値を前記各画素を含む局所領域内の画素の平均輝度値で除算してエッジ強調画像を生成する処理と、
前記エッジ強調画像から二値化画像を生成する処理と、
前記二値化画像を少なくとも2方向に微分して微分画像を生成する処理と、
前記微分画像から前記エッジ方向を求める処理とを行うことにより、前記第1の情報を取得することを特徴とする請求項1に記載の画像処理装置。
The first information acquisition means is
A process of generating an edge-enhanced image by dividing a brightness value of each pixel of the image by an average brightness value of pixels in a local area including each pixel;
A process of generating a binarized image from the edge-enhanced image,
A process of differentiating the binarized image in at least two directions to generate a differential image;
The image processing apparatus according to claim 1, wherein the first information is acquired by performing a process of obtaining the edge direction from the differential image.
前記領域特定手段は、前記第1の情報と所定値とを比較して前記第1および第2の領域のうち少なくとも一方を特定することを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the area specifying unit specifies at least one of the first and second areas by comparing the first information with a predetermined value. .. 前記物体は植物であり、
前記特定の状態は、前記植物が風に靡いている状態および倒伏している状態のうち少なくとも一方であることを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。
The object is a plant,
The image processing apparatus according to claim 1, wherein the specific state is at least one of a state where the plant is swaying in the wind and a state where the plant is lying down.
前記第1または第2の領域において、前記物体の情報として前記第1の情報とは異なる第2の情報を取得する第2の情報取得手段を有することを特徴とする請求項1から4のいずれか一項に記載の画像処理装置。 5. The information processing apparatus according to claim 1, further comprising a second information acquisition unit that acquires second information different from the first information as the information of the object in the first or second area. The image processing device according to claim 1. 前記物体は植物であり、
前記第2の情報は、前記植物の葉色値であることを特徴とする請求項5に記載の画像処理装置。
The object is a plant,
The image processing apparatus according to claim 5, wherein the second information is a leaf color value of the plant.
前記第1または第2の領域の面積に応じて、前記画像から前記第2の情報を取得するか否かを判定する画像判定手段を有することを特徴とする請求項5または6のいずれか一項に記載の画像処理装置。 7. An image determination means for determining whether or not to acquire the second information from the image according to the area of the first or second region is included. The image processing device according to item. 互いに異なる時刻での前記物体の撮像により生成された複数の画像を用いて、それぞれの前記時刻において前記物体が前記特定の状態にあるか否かを判定する物体判定手段を有することを特徴とする請求項1から7のいずれか一項に記載の画像処理装置。 Using a plurality of images generated by imaging the object at different times, the object determining means determines whether or not the object is in the specific state at each of the times. The image processing device according to claim 1. 物体の撮像により生成された画像から前記物体のエッジ方向を示す第1の情報を取得するステップと、
前記第1の情報を用いて、前記画像のうち前記物体が特定の状態にある第1の領域および前記物体が前記特定の状態にない第2の領域のうち少なくとも一方を特定するステップとを有することを特徴とする画像処理方法。
Acquiring first information indicating an edge direction of the object from an image generated by imaging the object,
Identifying at least one of a first region in which the object is in a particular state and a second region in which the object is not in the particular state, using the first information. An image processing method characterized by the above.
コンピュータに、請求項9に記載の画像処理方法に従う処理を実行させることを特徴とするコンピュータプログラム。 A computer program for causing a computer to execute a process according to the image processing method according to claim 9.
JP2019013960A 2019-01-30 2019-01-30 Image processor and method for processing image Pending JP2020122692A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019013960A JP2020122692A (en) 2019-01-30 2019-01-30 Image processor and method for processing image
PCT/JP2019/051249 WO2020158286A1 (en) 2019-01-30 2019-12-26 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019013960A JP2020122692A (en) 2019-01-30 2019-01-30 Image processor and method for processing image

Publications (1)

Publication Number Publication Date
JP2020122692A true JP2020122692A (en) 2020-08-13

Family

ID=71840550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019013960A Pending JP2020122692A (en) 2019-01-30 2019-01-30 Image processor and method for processing image

Country Status (2)

Country Link
JP (1) JP2020122692A (en)
WO (1) WO2020158286A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4285640B2 (en) * 2002-07-30 2009-06-24 富士フイルム株式会社 Object identification method, apparatus and program
JP4333165B2 (en) * 2003-03-04 2009-09-16 トヨタ自動車株式会社 Soil condition judgment method
JP4712659B2 (en) * 2006-09-22 2011-06-29 富士フイルム株式会社 Image evaluation apparatus and program thereof
JP2014102805A (en) * 2012-11-22 2014-06-05 Canon Inc Information processing device, information processing method and program
CN108169138B (en) * 2017-12-18 2020-10-30 扬州大学 Rice lodging monitoring method utilizing thermal infrared image

Also Published As

Publication number Publication date
WO2020158286A1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
JP4772839B2 (en) Image identification method and imaging apparatus
US9251589B2 (en) Depth measurement apparatus, image pickup apparatus, and depth measurement program
JP4813517B2 (en) Image processing apparatus, image processing program, image processing method, and electronic apparatus
JP2019012426A5 (en)
JP6566768B2 (en) Information processing apparatus, information processing method, and program
TWI496105B (en) Image synthesis device and computer program for image synthesis
TW201131512A (en) Distance evaluation methods and apparatuses, and machine readable medium thereof
CN111220235B (en) Water level monitoring method and device
JP5779089B2 (en) Edge detection apparatus, edge detection program, and edge detection method
JP6598850B2 (en) Image processing apparatus, image processing method, and image processing program
JP5939962B2 (en) Image processing apparatus, image processing method, and computer program
TW201702600A (en) Measurement device and measurement method for rotation of round body and non-transitory information readable medium
JP2016526182A (en) Method and apparatus for immediate adjustment of lens mounting flatness
JP4831340B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2020122692A (en) Image processor and method for processing image
JP6603709B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009245200A (en) Smoke detection device
JP2021022028A (en) Image processing system, image processing method and image processing program
JP5644655B2 (en) Edible fruit inspection method, inspection apparatus and program
JP2020021314A (en) Image processing system and image processing method
JP2004134861A (en) Resolution evaluation method, resolution evaluation program, and optical apparatus
JP6556033B2 (en) Image processing apparatus, image processing method, and program
JP2008245063A (en) Image processing apparatus
JP5679312B2 (en) Discrimination method, discrimination device, discrimination system, and discrimination program for a vegetation area included in a color image
JP6955147B2 (en) Image processing device, image processing method, and image processing program