JP6443230B2 - Processing program, processing method, and processing apparatus - Google Patents
Processing program, processing method, and processing apparatus Download PDFInfo
- Publication number
- JP6443230B2 JP6443230B2 JP2015119240A JP2015119240A JP6443230B2 JP 6443230 B2 JP6443230 B2 JP 6443230B2 JP 2015119240 A JP2015119240 A JP 2015119240A JP 2015119240 A JP2015119240 A JP 2015119240A JP 6443230 B2 JP6443230 B2 JP 6443230B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- subject
- image
- color chart
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Spectrometry And Color Measurement (AREA)
Description
本発明は、処理プログラム、処理方法、及び処理装置に関する。 The present invention relates to a processing program, a processing method, and a processing apparatus.
従来、田畑等の圃場で栽培する農作物の生育状況は、人が圃場に出向いて農作物の生育状況を観察し、人の経験に基づいて判断されることが多かった。しかし、近年、農業分野へのICT(Information and Communications Technology)の導入が盛んに行われ、例えば農作物をカメラで撮像した画像、または農作物によって反射した光の波長を計測した結果を用いて農作物の生育状況を調べる技術が提案されている。 Conventionally, the growth status of crops cultivated in fields such as fields has often been judged based on human experience by a person visiting the field and observing the growth status of the crops. However, in recent years, ICT (Information and Communications Technology) has been actively introduced into the agricultural field. For example, the growth of crops using the image of crops taken with a camera or the result of measuring the wavelength of light reflected by the crops. Techniques for examining the situation have been proposed.
農作物を撮像した画像から農作物の生育状況を調べる場合は、画像に写る農作物の葉色等を参考にして農作物の生育状況を判断される。画像に写る農作物等の被写体の色を計測する手法としては、例えば、複数の色見本を含むカラーチャート(以降、色票という)に表示された基準色と、被写体の色と、を比較する技術が提案されている。 When examining the growth status of a crop from an image obtained by imaging the crop, the growth status of the crop is determined with reference to the leaf color of the crop in the image. As a method for measuring the color of a subject such as a crop in an image, for example, a technique for comparing a reference color displayed on a color chart (hereinafter referred to as a color chart) including a plurality of color samples with the color of the subject Has been proposed.
また、圃場は屋外に設けられていることが多いため、場合によっては、農作物の一部分を影が覆うことで、同じ農作物を撮像した画像内に明暗差が生じることがある。すなわち、同じ葉色であっても、明るい部分と暗い部分とが生じた場合、農作物の葉色から農作物の生育状況を正しく計測できないことがある。従って、撮像された画像の明暗差を利用して、画像から影の位置を判定する技術が提案されている。 In addition, since the farm field is often provided outdoors, in some cases, a shadow may cover a part of the crop, which may cause a light / dark difference in an image of the same crop. That is, even if the leaf color is the same, if a bright portion and a dark portion are generated, the growth state of the crop may not be correctly measured from the leaf color of the crop. Therefore, there has been proposed a technique for determining the position of a shadow from an image using the difference in brightness of the captured image.
すなわち、これまでは、屋外にある圃場の農作物をカメラで撮像した画像から、農作物の生育状況を判断するには、カメラの同じ撮像領域内に農作物と色票とが入るよう、農作物の傍に色票を配置する。そして、農作物の葉色と色票に表示される色見本の色とを比較して、農作物の葉色を計測するものであった。 In other words, until now, in order to determine the growth status of crops from images of crops in a field outside the field, the crops and color charts are placed next to the crops so that the crops and color charts are in the same imaging area of the camera. Place a color chart. Then, the leaf color of the crop is measured by comparing the leaf color of the crop with the color of the color sample displayed on the color chart.
この際、被写体の色が共に同じ色であっても、太陽光の反射状況が異なると異なる色に見える場合があるため、農作物の葉、及び色票の向きがカメラに対して同じ向きとなるように、農作物の葉、及び色票の配置角度を調整する必要がある。更に、農作物の葉、及び色票の向きをカメラに対して同じ向きに調整しても、農作物の葉、及び色票での反射光の光量が所定の光量を超えると、農作物の葉、及び色票が白っぽく見える「てかり」と呼ばれる状況が発生することがある。従って、カメラの位置から見て、農作物の葉及び色票でてかりが発生しないように、更に、カメラに対する農作物の葉、及び色票の配置角度を調整する必要がある。 At this time, even if the colors of the subjects are the same, the colors of the crops and the color chart may be the same with respect to the camera because the colors may look different if the sunlight reflection conditions are different. Thus, it is necessary to adjust the arrangement angle of the leaves of the crops and the color chart. Furthermore, even if the direction of the leaves of the crop and the color chart are adjusted to the same direction with respect to the camera, if the amount of reflected light on the leaves of the crop and the color chart exceeds a predetermined amount, the leaves of the crop and A situation called “tekari” where the color chart looks whitish may occur. Accordingly, it is necessary to further adjust the arrangement angles of the crop leaves and the color chart with respect to the camera so that no illusion occurs in the crop leaves and the color chart when viewed from the camera position.
しかも、農作物は日々成長するため、農作物の葉の向きが変化する。従って、農作物をカメラで撮像する都度、農作物の葉の向きを調整する必要がある。 Moreover, since the crops grow daily, the direction of the leaves of the crops changes. Therefore, it is necessary to adjust the direction of the leaves of the crop every time the crop is imaged with a camera.
すなわち、撮像位置及び撮像範囲を固定したカメラで農作物を撮像しても、農作物の葉の向きを調整することなく、カメラに対する農作物の葉、及び色票の向きが同じ向きになる状況は発生し難い。従って、この場合、カメラでの撮像毎に農作物の葉の向きを調整する場合と比較して、農作物の葉色を精度よく計測することは困難である。 In other words, even when crops are captured using a camera with a fixed imaging position and imaging range, there is a situation where the orientation of the crop leaves and color chart with respect to the camera is the same without adjusting the orientation of the crop leaves. hard. Therefore, in this case, it is difficult to accurately measure the leaf color of the crop as compared with the case where the orientation of the leaf of the crop is adjusted every time the image is captured by the camera.
一つの側面として、本発明は、被写体の向きと色票の向きが相違している場合にも、被写体の色を精度良く計測可能な画像を得ることを目的とする。 As one aspect, an object of the present invention is to obtain an image that can accurately measure the color of a subject even when the orientation of the subject and the direction of a color chart are different.
一つの態様では、処理プログラムは、コンピュータに、測色対象の被写体及び測色値が既知の色票が共に光源からの直接光が照射されていない状況か否かを判定させる。そして、処理プログラムは、コンピュータに、前記状況で被写体及び色票を撮像した画像を、当該画像中の色票に対応する領域の色及び色票の測色値に基づき、画像中の前記被写体に対応する領域の色から被写体の測色値を求める色補正を行う画像として取得させる。 In one aspect, the processing program causes the computer to determine whether the subject to be colorimetric and the color chart with a known colorimetric value are not irradiated with direct light from the light source. Then, the processing program causes the computer to capture an image of the subject and the color chart in the above situation on the subject in the image based on the color of the area corresponding to the color chart in the image and the colorimetric value of the color chart. The image is acquired as an image for color correction for obtaining a colorimetric value of the subject from the color of the corresponding region.
一つの側面として、本発明は、被写体の向きと色票の向きが相違している場合にも、被写体の色を精度良く計測可能な画像を得ることができる、という効果を有する。 As one aspect, the present invention has an effect that an image that can accurately measure the color of a subject can be obtained even when the orientation of the subject and the orientation of the color chart are different.
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。なお、同じ働きを担う構成要素または処理には、全図面を通して同じ符号を付与し、重複する説明を適宜省略する場合がある。 Hereinafter, an example of an embodiment of the disclosed technology will be described in detail with reference to the drawings. In addition, the same code | symbol may be provided to the component or process which bears the same function through all the drawings, and the overlapping description may be abbreviate | omitted suitably.
図1は、屋外の圃場58に照射される光の種類について説明する図である。図1に示すように、屋外の圃場には太陽50からの光、すなわち太陽光が照射されるが、圃場58に照射される太陽光は、直接光54及び天空光56の2種類の光に大別される。 FIG. 1 is a diagram for explaining the types of light emitted to the outdoor field 58. As shown in FIG. 1, the outdoor field is irradiated with light from the sun 50, that is, sunlight, but the sunlight irradiating the field 58 is divided into two types of light: direct light 54 and sky light 56. Broadly divided.
直接光54とは、太陽50から圃場58に直接照射される光のことである。従って、直接光54は、太陽50と圃場58とを結ぶ直線に沿った一方向から、圃場58を照射する。 The direct light 54 is light that is directly emitted from the sun 50 to the field 58. Therefore, the direct light 54 irradiates the field 58 from one direction along a straight line connecting the sun 50 and the field 58.
一方、天空光56とは、太陽50からの光が雲52及び図示しない塵等によってあらゆる方向に散乱した散乱光のうち、圃場58に到達した散乱光のことをいう。すなわち、天空光56は散乱光であるため、直接光54とは異なり、あらゆる方向から圃場58を照射する。 On the other hand, the sky light 56 refers to the scattered light that has reached the field 58 among the scattered light that is scattered in all directions by the cloud 52 and dust (not shown). That is, since the sky light 56 is scattered light, unlike the direct light 54, the field 58 is irradiated from all directions.
このように、直接光54は圃場58を一方向から照射するため、農作物の葉の向きによっては、農作物の葉による反射光の光量が所定の光量を越えやすくなり、てかりが発生することがある。一方、天空光56は圃場58をあらゆる方向から照射するため、天空光56が照射された場合の農作物の葉による反射光も分散し、直接光54に比べて、てかりが発生しにくい。 In this way, since the direct light 54 irradiates the field 58 from one direction, depending on the direction of the leaves of the crop, the amount of light reflected by the leaves of the crop easily exceeds a predetermined amount, and shining may occur. is there. On the other hand, since the sky light 56 irradiates the field 58 from all directions, the reflected light from the leaves of the crop when the sky light 56 is irradiated is also dispersed, and the light is less likely to occur than the direct light 54.
また、直接光54の色温度は天空光56の色温度に比べて低く、物体に直接光54が照射されると、物体は赤から黄色にかけての色味を帯びやすくなる。一方、物体に直接光54より高い色温度を有する天空光56が照射されると、物体は青い色味を帯びやすくなる。 Further, the color temperature of the direct light 54 is lower than the color temperature of the sky light 56, and when the object is directly irradiated with the light 54, the object tends to have a tint from red to yellow. On the other hand, when sky light 56 having a color temperature higher than that of the light 54 is directly irradiated on the object, the object tends to have a blue color.
農作物はその生育状況に応じて、農作物の葉色が緑から黄色にかけての範囲で変化する。すなわち、農作物の生育状況は、農作物の葉色の明るさ(明度)ではなく色相から判断できる。従って、農作物が直接光54及び天空光56の何れか一方の光で照射されていれば、各々の光の色温度が概ね分かっていることから、一方の光の色温度による色相への影響を農作物の画像から取り除くよう補正することで、実際の農作物の葉色を推定できる。 Agricultural crops change in the range of leaf color from green to yellow according to their growth conditions. That is, the state of growth of the crop can be determined not from the brightness (lightness) of the leaf color of the crop but from the hue. Therefore, if the crop is irradiated with one of the direct light 54 and the sky light 56, the color temperature of each light is generally known, so the influence of the color temperature of one light on the hue is affected. By correcting for removal from the crop image, the leaf color of the actual crop can be estimated.
しかし、農作物が、強調されやすい色相が異なる直接光54及び天空光56が混在した光で照射されると、各々の光の混在比に応じて葉色の色相に複雑な影響を与えてしまい、農作物を撮像した画像から、実際の農作物の葉色を正確に推定することが困難になる。 However, when the crop is irradiated with light in which direct light 54 and sky light 56 having different hues that are easily emphasized are mixed, the hue of the leaf color is complicatedly affected depending on the mixture ratio of the respective lights, and the crop is cropped. It is difficult to accurately estimate the leaf color of the actual crop from the image obtained by capturing the image.
そこで、発明者は上記内容に関して検討を行った結果、直接光54が遮られ、天空光56が農作物に照射されている状態で、農作物をカメラで撮像すればよいことを見出した。直接光54が遮られた状態で撮像することで、農作物の葉に生じるてかりを抑えることができる。しかも、直接光54は、太陽50と圃場58とを結ぶ直線に沿った方向からしか照射されないため、あらゆる方向から照射される天空光56と比較して、遮光物で遮光しやすいという特徴がある。換言すれば、天空光56に比べ遮光物で遮光されやすい直接光54は、撮像の際、農作物を照らす光源としては、安定した光源でないと言える。 Therefore, as a result of studying the above contents, the inventor has found that the crop can be imaged with a camera in a state where the direct light 54 is blocked and the sky light 56 is irradiated on the crop. By taking an image in a state where the direct light 54 is blocked, it is possible to suppress the occurrence of the illusion on the leaves of the crop. In addition, since the direct light 54 is irradiated only from the direction along the straight line connecting the sun 50 and the field 58, the direct light 54 is more easily shielded by a light blocking object than the sky light 56 irradiated from all directions. . In other words, it can be said that the direct light 54 that is more likely to be shielded by the light-shielding object than the sky light 56 is not a stable light source as a light source for illuminating the crops at the time of imaging.
当然のことながら、遮光物によって直接光54を遮光した領域は影に覆われる。この影に覆われる領域は、天空光56が照射された領域と見なすことができるため、影に覆われる農作物の画像から、天空光56の色温度による色相への影響を取り除くように補正することで、実際の農作物の葉色が推定できる。 As a matter of course, the area where the light 54 is directly shielded by the light shield is covered with a shadow. Since the area covered with the shadow can be regarded as an area irradiated with the skylight 56, correction is performed so as to remove the influence of the color temperature of the skylight 56 on the hue from the image of the crop covered with the shadow. Thus, the leaf color of actual crops can be estimated.
しかし、農作物は太陽光を浴びて成長することから、例えば圃場58全体に、遮光物の一例である屋根を設置して、農作物が常に影に覆われるようにすることはできない。更に言えば、圃場58の広さが例えば数ha以上あるような場合には、圃場58全体に屋根を設置することは現実的でない。従って、圃場58の一部分に屋根を設置し、圃場58の一部分を影で覆う方法が考えられる。 However, since the crop grows in the sunlight, it is not possible to install a roof, which is an example of a shade, over the entire field 58 so that the crop is always covered with a shadow. Furthermore, if the area of the farm 58 is, for example, several ha or more, it is not practical to install a roof over the entire farm 58. Therefore, a method is conceivable in which a roof is installed on a part of the field 58 and a part of the field 58 is covered with a shadow.
図2は、圃場58において農作物を撮像する際の状況の一例を模式的に示した図である。図2に示すように、圃場58の敷地の一部には、屋根60A及び色票66を取り付けた支柱68A、及び、屋根60Bを取り付けた支柱68Bが設置される。また、圃場58の周囲には、カメラ76を取り付けた支柱68Cが設置されると共に、カメラ76とケーブル74で接続された処理装置72が設置される。図2では、処理装置72は屋外に設置されているが、処理装置72を屋内に設置してもよいことは言うまでもない。 FIG. 2 is a diagram schematically illustrating an example of a situation when a farm crop is imaged in the field 58. As shown in FIG. 2, a column 68 </ b> A to which a roof 60 </ b> A and a color chart 66 are attached and a column 68 </ b> B to which a roof 60 </ b> B is attached are installed on a part of the site of the farm field 58. Around the field 58, a support column 68C to which a camera 76 is attached is installed, and a processing device 72 connected to the camera 76 by a cable 74 is installed. In FIG. 2, the processing apparatus 72 is installed outdoors, but it goes without saying that the processing apparatus 72 may be installed indoors.
屋根60Aにより、直接光54が所定の方向から入射される時間に、色票66全体を影で覆う影領域64Aが形成されると共に、屋根60Bにより、同じ時間に、圃場58で栽培される農作物の一部を影で覆う影領域64Bが形成される。なお、以降では、影領域64A及び影領域64Bを区別して説明する必要がない場合、影領域64Aと影領域64Bとをあわせた領域を影領域64と表す。 A shadow region 64A that covers the entire color chart 66 with shadow is formed by the roof 60A when the direct light 54 is incident from a predetermined direction, and the crop cultivated on the field 58 at the same time by the roof 60B. A shadow region 64B that covers a part of the image with a shadow is formed. Hereinafter, when it is not necessary to distinguish between the shadow area 64A and the shadow area 64B, the area including the shadow area 64A and the shadow area 64B is referred to as a shadow area 64.
カメラ76は、直接光54が所定の方向から入射される時間に、影領域64A内の色票66と、影領域64B内の農作物と、が共に撮像範囲内に入るように、取り付け位置及び取り付け方向が調整されている。 The camera 76 is mounted and mounted so that the color chart 66 in the shadow area 64A and the crop in the shadow area 64B are both within the imaging range at the time when the direct light 54 is incident from a predetermined direction. The direction is adjusted.
なお、支柱68Cの設置場所は圃場58の周囲に限られず、例えば圃場58の敷地の中であってもよい。また、ここでは農作物を撮像するカメラ76の台数を1台として説明するが、2台以上の複数のカメラ76を設置して、処理装置72に接続するようにしてもよい。また、カメラ76と処理装置72とをケーブル74ではなく、例えば無線方式の通信回線で接続してもよく、更に、カメラ76と処理装置72とを、インターネットを経由して接続するようにしてもよい。また、処理装置72とカメラ76とが1つの筐体に収められ、支柱68Cに取り付けられる形態であってもよい。更に、カメラ76はモータ等の駆動力により圃場58内を移動可能で、撮像方向が調整可能としてもよい。 In addition, the installation place of the support | pillar 68C is not restricted to the circumference | surroundings of the agricultural field 58, For example, you may be in the site of the agricultural field 58. In addition, here, the number of cameras 76 for imaging crops is described as one, but two or more cameras 76 may be installed and connected to the processing device 72. Further, the camera 76 and the processing device 72 may be connected not by the cable 74 but by a wireless communication line, for example, and the camera 76 and the processing device 72 may be connected via the Internet. Good. Further, the processing device 72 and the camera 76 may be housed in one housing and attached to the support column 68C. Further, the camera 76 may be moved in the field 58 by a driving force such as a motor, and the imaging direction may be adjustable.
色票66は、予め測色されて測色値が既知である複数の色の色見本を配置した票であり、色測定を行いたい対象物の色と、色票66の色見本の色と、を比較することで、対象物の測色値を推定することが可能である。用いる色票66の種類に特に制限はないが、例えば、圃場58等の自然界に存在する色を再現する24色の色見本を配置した「マクベスチャート」等が用いられる。なお、色票66は平面状のものに限らず、立体状であってもよい。 The color chart 66 is a chart in which color samples of a plurality of colors whose colorimetric values are known in advance are arranged, and the color of the object to be color-measured and the color sample color of the color chart 66 , Can be used to estimate the colorimetric value of the object. The type of color chart 66 to be used is not particularly limited. For example, a “Macbeth chart” in which color samples of 24 colors that reproduce colors existing in the natural world such as the farm 58 are arranged. The color chart 66 is not limited to a planar shape, and may be a three-dimensional shape.
各々の色見本の測色値は、赤(Red)、緑(Green)、及び青(Blue)の各色成分の濃度を、例えば0〜255の8ビットで表したRGB値によって表される。なお、RGB値のビット数は一例であり、8ビット以外のビット数でRGBの濃度を表すようにしてもよい。また、色見本の測色値はシアン(Cyan)、マゼンタ(Magenta)、黄色(Yellow)、及び黒(Black)の各色成分の濃度としても表すことができる。 The colorimetric value of each color sample is represented by an RGB value representing the density of each color component of red, green, and blue, for example, by 8 bits from 0 to 255. The number of bits of the RGB value is an example, and the RGB density may be expressed by a number of bits other than 8 bits. Further, the colorimetric value of the color sample can also be expressed as the density of each color component of cyan, magenta, yellow, and black.
図3は、カメラ76で撮像した画像の一例を示す図である。画像4は、例えばRGB値で表される画素値を有する画素の集合であり、画像4には、影領域64Aの影で覆われた色票66と、影領域64Bの影で覆われた農作物70と、が撮像されており、一部の農作物70は影領域64Bの影で覆われている。説明の便宜上、画像4のうち、農作物70の外郭で囲まれた領域を被写体領域6といい、色票66の外郭によって囲まれる領域を色票領域8という。ここで、被写体とは、色の計測対象となっている物体をいう。 FIG. 3 is a diagram illustrating an example of an image captured by the camera 76. The image 4 is a set of pixels having pixel values represented by RGB values, for example. The image 4 includes a color chart 66 covered with the shadow of the shadow region 64A and a crop covered with the shadow of the shadow region 64B. 70, and some of the crops 70 are covered with the shadow of the shadow region 64B. For convenience of explanation, an area surrounded by the outline of the crop 70 in the image 4 is called a subject area 6, and an area surrounded by the outline of the color chart 66 is called a color chart area 8. Here, the subject refers to an object that is a color measurement target.
屋根60Aによって形成される影領域64A、及び屋根60Bによって形成される影領域64Bの位置、形状、及び大きさは、日付及び時刻によって変化する。従って、色票66の全体、及び、生育状況の測定対象である農作物70が、共に影で覆われているとは限らない。 The position, shape, and size of the shadow region 64A formed by the roof 60A and the shadow region 64B formed by the roof 60B vary depending on the date and time. Accordingly, the entire color chart 66 and the crop 70 that is the measurement target of the growth status are not necessarily covered by the shadow.
従って、以下に示す第1実施形態では、色票66の全体及び農作物70が共に影で覆われているか否かを判定して、カメラ76で画像4を撮像する例について説明する。 Therefore, in the first embodiment described below, an example will be described in which it is determined whether the entire color chart 66 and the crop 70 are both covered with shadows, and the image 4 is captured by the camera 76.
(第1実施形態)
図4は、処理装置72の機能的な構成の一例を示す機能ブロック図である。処理装置72は、撮像部10、影判定部12、抽出部14、計測部16、出力部18、及び基準色情報28を含む。更に、抽出部14は、被写体領域抽出部20、色票領域抽出部22、被写体領域色情報抽出部24、及び色票領域色情報抽出部26を含む。なお、基準色情報28は、色票66の各色見本に測色を行うことで得られたRGB値(基準色)の情報を含んでいる。
(First embodiment)
FIG. 4 is a functional block diagram illustrating an example of a functional configuration of the processing device 72. The processing device 72 includes an imaging unit 10, a shadow determination unit 12, an extraction unit 14, a measurement unit 16, an output unit 18, and reference color information 28. Further, the extraction unit 14 includes a subject area extraction unit 20, a color chart area extraction section 22, a subject area color information extraction section 24, and a color chart area color information extraction section 26. The reference color information 28 includes information on RGB values (reference colors) obtained by performing color measurement on each color sample of the color chart 66.
撮像部10は、カメラ76に対して撮像を指示し、カメラ76で撮像した画像4を影判定部12に出力する。 The imaging unit 10 instructs the camera 76 to perform imaging, and outputs the image 4 captured by the camera 76 to the shadow determination unit 12.
影判定部12は、撮像部10から受け付けた画像4に含まれる影領域64の位置を判定する。また、影判定部12は、農作物70及び色票66が、共に影領域64に含まれているか否かを判定する。 The shadow determination unit 12 determines the position of the shadow region 64 included in the image 4 received from the imaging unit 10. In addition, the shadow determination unit 12 determines whether or not both the crop 70 and the color chart 66 are included in the shadow region 64.
抽出部14は、農作物70及び色票66が共に、影判定部12で判定された影領域64に含まれている場合に、農作物70の色情報、及び色票66の各色見本の色情報を画像4から抽出する。そして、抽出部14は、画像4から抽出した農作物70の色情報、及び色票66の各色見本の色情報を計測部16に出力する。ここで、色情報には、例えば対象物のRGB値が含まれる。 When both the crop 70 and the color chart 66 are included in the shadow area 64 determined by the shadow determination section 12, the extraction unit 14 obtains the color information of the crop 70 and the color information of each color sample of the color chart 66. Extract from image 4. Then, the extraction unit 14 outputs the color information of the crop 70 extracted from the image 4 and the color information of each color sample of the color chart 66 to the measurement unit 16. Here, the color information includes, for example, RGB values of the object.
具体的には、抽出部14に含まれる被写体領域抽出部20が、影領域64に含まれる農作物70、すなわち被写体領域6を画像4から抽出する。そして、被写体領域色情報抽出部24が、被写体領域6の色情報を被写体領域抽出部20によって抽出された被写体領域6から抽出し、抽出した被写体領域6の色情報を計測部16に出力する。また、抽出部14に含まれる色票領域抽出部22が、影領域64に含まれる色票66、すなわち色票領域8を画像4から抽出すると共に、色票領域8に含まれる各色見本の領域(色見本領域)を抽出する。そして、色票領域色情報抽出部26が、色票領域8に含まれる各色見本領域の色情報を色票領域抽出部22によって抽出された色票領域8から抽出し、抽出した各色見本領域の色情報を計測部16に出力する。 Specifically, the subject region extraction unit 20 included in the extraction unit 14 extracts the crop 70 included in the shadow region 64, that is, the subject region 6 from the image 4. Then, the subject region color information extraction unit 24 extracts the color information of the subject region 6 from the subject region 6 extracted by the subject region extraction unit 20, and outputs the extracted color information of the subject region 6 to the measurement unit 16. Further, the color chart area extraction section 22 included in the extraction section 14 extracts the color chart 66 included in the shadow area 64, that is, the color chart area 8 from the image 4, and each color sample area included in the color chart area 8. (Color sample area) is extracted. Then, the color chart area color information extraction unit 26 extracts the color information of each color sample area included in the color chart area 8 from the color chart area 8 extracted by the color chart area extraction unit 22, and extracts the color sample area of each color sample area. The color information is output to the measurement unit 16.
計測部16は、色見本領域毎に、抽出部14から受け付けた色票領域8に含まれる色見本領域の色情報と、基準色情報28に含まれる前記色見本領域に対応する色見本の基準色の色情報と、の差分から補正量を算出する。この補正量は、色票領域8に含まれる色見本の色情報を、対応する色見本の基準色へ補正できるように算出される。そして、計測部16は、抽出部14から受け付けた被写体領域6の色情報を、算出した補正量で補正することで、カメラ76の被写体である農作物70の実際の葉色を計測し、計測結果を出力部18に出力する。 For each color sample area, the measurement unit 16 receives the color information of the color sample area included in the color chart area 8 received from the extraction unit 14 and the color sample reference corresponding to the color sample area included in the reference color information 28. The correction amount is calculated from the difference between the color information and the color information. This correction amount is calculated so that the color information of the color sample included in the color chart area 8 can be corrected to the reference color of the corresponding color sample. Then, the measuring unit 16 corrects the color information of the subject region 6 received from the extracting unit 14 with the calculated correction amount, thereby measuring the actual leaf color of the crop 70 that is the subject of the camera 76 and obtaining the measurement result. Output to the output unit 18.
なお、各色見本の基準色に関する色情報は基準色情報28に含まれ、計測部16は、基準色情報28から基準色の色情報を取得することができる。 Note that the color information related to the reference color of each color sample is included in the reference color information 28, and the measurement unit 16 can acquire the color information of the reference color from the reference color information 28.
出力部18は、計測部16から受け付けた計測結果を、例えばディスプレイに表示する等により、画像4から推定される農作物70の実際の葉色に関する情報を、農作物70の生産者等に出力する。 The output unit 18 outputs information on the actual leaf color of the crop 70 estimated from the image 4 to the producer of the crop 70 by displaying the measurement result received from the measurement unit 16 on a display, for example.
次に、図5に、処理装置72をコンピュータで実現する場合の構成の一例を示す。 Next, FIG. 5 shows an example of a configuration when the processing device 72 is realized by a computer.
コンピュータ100は、CPU102、メモリ104、及び不揮発性の記憶部106を含む。CPU102、メモリ104、及び記憶部106は、バス108を介して互いに接続される。また、コンピュータ100は、入力装置112、出力装置114、及びカメラ76と、コンピュータ100と、を接続して、互いにデータを送受信するためのI/O(Input/Output)110を備え、I/O110はバス108に接続される。 The computer 100 includes a CPU 102, a memory 104, and a nonvolatile storage unit 106. The CPU 102, the memory 104, and the storage unit 106 are connected to each other via a bus 108. The computer 100 includes an input / output (I / O) 110 for connecting the input device 112, the output device 114, the camera 76, and the computer 100 to transmit / receive data to / from each other. Are connected to the bus 108.
入力装置112は、コンピュータ100の操作者がコンピュータ100に指示を与えるためのデバイス、例えばキーボード及びマウスを含む。また、入力装置112は、例えばCD−ROM又はフラッシュメモリ等といった記録媒体116に記録されるデータを読み取るための読取装置を含んでもよい。 The input device 112 includes devices for allowing an operator of the computer 100 to give instructions to the computer 100, such as a keyboard and a mouse. The input device 112 may include a reading device for reading data recorded on the recording medium 116 such as a CD-ROM or a flash memory.
出力装置114は、コンピュータ100での処理結果を出力するための装置、例えばディスプレイ等を含む。また、出力装置114は、記録媒体116にコンピュータ100での処理結果を書き込むための書込み装置を含んでもよい。 The output device 114 includes a device for outputting a processing result in the computer 100, such as a display. Further, the output device 114 may include a writing device for writing the processing result in the computer 100 to the recording medium 116.
なお、I/O110に接続される各種装置は一例であり、例えば、必ずしもI/O110に入力装置112が接続される必要はなく、また、図5に図示していない他の装置がI/O110に接続されてもよい。また、記憶部106は、HDD(Hard Disk Drive)又はフラッシュメモリ等によって実現できる。 Note that the various devices connected to the I / O 110 are merely examples. For example, the input device 112 is not necessarily connected to the I / O 110, and other devices not shown in FIG. May be connected. The storage unit 106 can be realized by an HDD (Hard Disk Drive), a flash memory, or the like.
記憶部106には、コンピュータ100を図4に示す処理装置72として機能させるための処理プログラム120が記憶される。記憶部106に記憶される処理プログラム120は、撮像プロセス122、影判定プロセス124、被写体領域抽出プロセス126、色票領域抽出プロセス128、被写体領域色情報抽出プロセス130、及び色票領域色情報抽出プロセス132を含む。更に、処理プログラム120は、計測プロセス134、及び出力プロセス136を含む。 The storage unit 106 stores a processing program 120 for causing the computer 100 to function as the processing device 72 shown in FIG. The processing program 120 stored in the storage unit 106 includes an imaging process 122, a shadow determination process 124, a subject area extraction process 126, a color chart area extraction process 128, a subject area color information extraction process 130, and a color chart area color information extraction process. 132. Further, the processing program 120 includes a measurement process 134 and an output process 136.
CPU102は、処理プログラム120を記憶部106から読み出してメモリ104に展開し、処理プログラム120に含まれる各プロセスを実行する。 The CPU 102 reads out the processing program 120 from the storage unit 106, expands it in the memory 104, and executes each process included in the processing program 120.
CPU102が、処理プログラム120を記憶部106から読み出してメモリ104に展開し、処理プログラム120を実行することで、コンピュータ100が図4に示す処理装置72として動作する。 The CPU 102 reads out the processing program 120 from the storage unit 106, loads it into the memory 104, and executes the processing program 120, whereby the computer 100 operates as the processing device 72 shown in FIG.
また、CPU102が撮像プロセス122を実行することで、コンピュータ100が図4に示す撮像部10として動作する。また、CPU102が影判定プロセス124を実行することで、コンピュータ100が図4に示す影判定部12として動作する。また、CPU102が被写体領域抽出プロセス126を実行することで、コンピュータ100が図4に示す被写体領域抽出部20として動作する。また、CPU102が色票領域抽出プロセス128を実行することで、コンピュータ100が図4に示す色票領域抽出部22として動作する。また、CPU102が被写体領域色情報抽出プロセス130を実行することで、コンピュータ100が図4に示す被写体領域色情報抽出部24として動作する。また、CPU102が色票領域色情報抽出プロセス132を実行することで、コンピュータ100が図4に示す色票領域色情報抽出部26として動作する。また、CPU102が計測プロセス134を実行することで、コンピュータ100が図4に示す計測部16として動作する。また、CPU102が出力プロセス136を実行することで、コンピュータ100が図4に示す出力部18として動作する。 Further, when the CPU 102 executes the imaging process 122, the computer 100 operates as the imaging unit 10 illustrated in FIG. Further, when the CPU 102 executes the shadow determination process 124, the computer 100 operates as the shadow determination unit 12 illustrated in FIG. Further, when the CPU 102 executes the subject region extraction process 126, the computer 100 operates as the subject region extraction unit 20 shown in FIG. Further, when the CPU 102 executes the color chart area extraction process 128, the computer 100 operates as the color chart area extraction unit 22 shown in FIG. Further, when the CPU 102 executes the subject region color information extraction process 130, the computer 100 operates as the subject region color information extraction unit 24 shown in FIG. Further, when the CPU 102 executes the color chart area color information extraction process 132, the computer 100 operates as the color chart area color information extraction unit 26 shown in FIG. Further, when the CPU 102 executes the measurement process 134, the computer 100 operates as the measurement unit 16 illustrated in FIG. Further, when the CPU 102 executes the output process 136, the computer 100 operates as the output unit 18 illustrated in FIG.
なお、CPU102が被写体領域抽出プロセス126、色票領域抽出プロセス128、被写体領域色情報抽出プロセス130、及び色票領域色情報抽出プロセス132を実行することで、コンピュータ100が図4に示す抽出部14として動作する。 The CPU 100 executes the subject region extraction process 126, the color chart region extraction process 128, the subject region color information extraction process 130, and the color chart region color information extraction process 132, so that the computer 100 performs the extraction unit 14 shown in FIG. Works as.
更に、CPU102が、基準色情報格納領域138に格納された基準色情報をメモリ104に展開することで、メモリ104に基準色情報28が記憶される。 Further, the CPU 102 develops the reference color information stored in the reference color information storage area 138 in the memory 104, whereby the reference color information 28 is stored in the memory 104.
なお、コンピュータ100は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。 The computer 100 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit) or the like.
次に、処理装置72の作用について説明する。処理装置72は、例えば農作物70の葉色の計測を開始する指示を入力装置112から受け付けることにより、計測処理を実行する。 Next, the operation of the processing device 72 will be described. For example, the processing device 72 receives the instruction for starting the measurement of the leaf color of the crop 70 from the input device 112 to execute the measurement processing.
図6は、処理装置72で実行する計測処理の流れの一例を示すフローチャートである。 FIG. 6 is a flowchart showing an example of the flow of measurement processing executed by the processing device 72.
まず、ステップS10において、撮像部10は、カメラ76に撮像指示を出力し、カメラ76で撮像した画像4を取得し、例えばメモリ104の予め定めた領域に記憶する。 First, in step S <b> 10, the imaging unit 10 outputs an imaging instruction to the camera 76, acquires the image 4 captured by the camera 76, and stores it in a predetermined area of the memory 104, for example.
ステップS20において、影判定部12は、メモリ104に記憶した画像4を複数のブロックに分割し、分割したブロック毎に明度を算出する明度算出処理を実行する。なお、明度算出処理の詳細については後ほど説明する。 In step S20, the shadow determination unit 12 divides the image 4 stored in the memory 104 into a plurality of blocks, and executes a brightness calculation process for calculating the brightness for each of the divided blocks. Details of the brightness calculation process will be described later.
ステップS30において、影判定部12は、ステップS20の処理で算出したブロック毎の明度に基づいて、ブロック毎に、ブロックにおける明度と、各ブロックの明度の平均値とを比較する。そして、影判定部12は、各ブロックの明度の平均値より低い明度となっているブロックの集合によって表される領域を影領域64と判定し、例えば影領域64に含まれると判定したブロックに、影領域64に含まれるブロックであることを示す識別子を対応付ける。なお、ステップS30における処理(影領域判定処理)の詳細については後ほど説明する。 In step S30, the shadow determination unit 12 compares the brightness of each block with the average value of the brightness of each block for each block based on the brightness of each block calculated in the process of step S20. Then, the shadow determination unit 12 determines the area represented by the set of blocks whose brightness is lower than the average value of the brightness of each block as the shadow area 64, for example, the block determined to be included in the shadow area 64 , An identifier indicating that the block is included in the shadow area 64 is associated. Details of the process (shadow region determination process) in step S30 will be described later.
なお、天候が晴天でなければ農作物70及び色票66に直接光54が照射される可能性は低い。従って、例えば、画像4のブロック毎の明度を平均した画像4の平均明度と、晴天時の画像4の明度を示す閾値と、を比較し、画像4の平均明度が閾値よりも高く、天候が晴天と判断できる場合に、ステップS30の処理を行うようにしてもよい。 If the weather is not sunny, there is a low possibility that the crops 70 and the color chart 66 are directly irradiated with the light 54. Therefore, for example, the average brightness of the image 4 obtained by averaging the brightness of each block of the image 4 is compared with a threshold value indicating the brightness of the image 4 in a fine weather, and the average brightness of the image 4 is higher than the threshold value, and the weather is When it can be determined that the sky is clear, the process of step S30 may be performed.
一方、画像の平均明度が閾値以下で、天候が晴天でないと判断できる場合には、ステップS30〜S50の処理を省略し、後述する影領域64から被写体領域6の抽出を行うステップS60以降の処理を行うようにしてもよい。また、画像4の平均明度と閾値とを比較して天候状況を判断することに代えて、例えば、晴天か否かを判断することができる天候状況に関する情報を、処理装置72の外部から取得するようにしてもよい。 On the other hand, if it is determined that the average brightness of the image is equal to or less than the threshold value and the weather is not clear, the processes in steps S30 to S50 are omitted, and the process after step S60 is performed to extract the subject area 6 from the shadow area 64 described later. May be performed. Further, instead of determining the weather condition by comparing the average brightness of the image 4 and the threshold value, for example, information regarding the weather condition that allows determination as to whether or not the weather is clear is acquired from the outside of the processing device 72. You may do it.
ステップS40において、影判定部12は、ステップS30の処理で判定した影領域64に被写体が含まれているか、すなわち影領域64に被写体領域6が含まれているか否かを判定する。影判定部12は、例えばsobelフィルタまたはハフ変換等の公知のエッジ抽出技術によって影領域64から抽出した物体の輪郭データと、メモリ104の予め定めた領域に予め記憶されている農作物70の外郭を示す輪郭データと、を比較する。そして、影判定部12は、影領域64から抽出した物体の輪郭データと、農作物70の外郭を示す輪郭データと、の類似度を算出し、算出した類似度が閾値より高い場合に、影領域64に被写体領域6が含まれていると判定する。なお、ステップS40における判定方法は一例であり、他の公知の画像認識手法によって影領域64に被写体領域6が含まれているか否かを判定してもよい。 In step S40, the shadow determination unit 12 determines whether or not the subject is included in the shadow region 64 determined in the process of step S30, that is, whether or not the subject region 6 is included in the shadow region 64. The shadow determination unit 12 uses, for example, contour data of an object extracted from the shadow area 64 by a known edge extraction technique such as a sobel filter or a Hough transform, and the outline of the crop 70 stored in advance in a predetermined area of the memory 104. The contour data shown is compared. Then, the shadow determination unit 12 calculates the similarity between the contour data of the object extracted from the shadow region 64 and the contour data indicating the outline of the crop 70, and when the calculated similarity is higher than the threshold, 64, it is determined that the subject area 6 is included. Note that the determination method in step S40 is an example, and it may be determined whether or not the subject region 6 is included in the shadow region 64 by another known image recognition method.
ステップS40の判定処理が否定判定、すなわち、影領域64に被写体領域6が含まれていない場合は、生育状況の測定対象である農作物70が影で覆われていないことを意味するため、図6に示す計測処理を終了する。一方、肯定判定の場合には、ステップS50に移行する。 If the determination process in step S40 is negative, that is, if the shadow area 64 does not include the subject area 6, it means that the crop 70, which is the measurement target of the growth status, is not covered with a shadow. The measurement process shown in FIG. On the other hand, if the determination is affirmative, the process proceeds to step S50.
ステップS50において、影判定部12は、ステップS30の処理で判定した影領域64に色票66が含まれているか、すなわち影領域64に色票領域8が含まれているか否かを判定する。 In step S50, the shadow determination unit 12 determines whether or not the color chart 66 is included in the shadow area 64 determined in the process of step S30, that is, whether or not the color chart area 8 is included in the shadow area 64.
影判定部12は、農作物70の外郭を示す輪郭データの替わりに、色票66の外郭を示す輪郭データを用いることで、ステップS40の判定処理と同様の手法によって、影領域64に色票領域8が含まれているか判定できる。なお、色票66の輪郭データは、例えばメモリ104の予め定めた領域に予め記憶しておけばよい。 The shadow determination unit 12 uses the contour data indicating the outline of the color chart 66 in place of the outline data indicating the outline of the crop 70, so that the color chart area is added to the shadow area 64 by the same method as the determination process in step S <b> 40. 8 can be determined. The outline data of the color chart 66 may be stored in advance in a predetermined area of the memory 104, for example.
ステップS50の判定処理が否定判定、すなわち、影領域64に色票領域8が含まれない場合は、色票66が影で覆われていないことを意味するため、図6に示す計測処理を終了する。一方、肯定判定の場合には、ステップS60に移行する。 If the determination process in step S50 is negative, that is, if the color chart area 8 is not included in the shadow area 64, it means that the color chart 66 is not covered with a shadow, so the measurement process shown in FIG. To do. On the other hand, if the determination is affirmative, the process proceeds to step S60.
ステップS60において、被写体領域抽出部20は、ステップS40の判定処理で影領域64から抽出した農作物70の輪郭データによって囲まれる領域を被写体領域6として、画像4から抽出する。具体的には、影領域64から抽出した農作物70の輪郭データによって囲まれる領域に含まれるブロックに、被写体領域6であることを示す識別子を対応付ける。 In step S <b> 60, the subject region extraction unit 20 extracts the region surrounded by the contour data of the crop 70 extracted from the shadow region 64 in the determination process in step S <b> 40 as the subject region 6 from the image 4. Specifically, an identifier indicating the subject area 6 is associated with a block included in the area surrounded by the contour data of the crop 70 extracted from the shadow area 64.
ステップS70において、色票領域抽出部22は、ステップS50の判定処理で影領域64から抽出した色票66の輪郭データによって囲まれる領域を色票領域8として、画像4から抽出する。具体的には、影領域64から抽出した色票66の輪郭データによって囲まれる領域に含まれるブロックに、色票領域8であることを示す識別子を対応付ける。 In step S <b> 70, the color chart area extraction unit 22 extracts the area surrounded by the outline data of the color chart 66 extracted from the shadow area 64 in the determination process of step S <b> 50 as the color chart area 8 from the image 4. Specifically, an identifier indicating the color chart area 8 is associated with a block included in an area surrounded by the outline data of the color chart 66 extracted from the shadow area 64.
ステップS80において、被写体領域色情報抽出部24は、被写体領域6のRGB値を算出する。被写体領域色情報抽出部24は、例えば、ステップS60の処理で画像4から抽出した被写体領域6に含まれる全ての画素の画素値であるRGB値を、赤(R)、緑(G)、及び青(B)毎に平均した平均RGB値を算出する。そして、被写体領域色情報抽出部24は、例えばこの平均RGB値を被写体領域6のRGB値として、メモリ104の予め定めた領域に記憶する。 In step S80, the subject region color information extraction unit 24 calculates the RGB value of the subject region 6. For example, the subject area color information extraction unit 24 converts the RGB values, which are the pixel values of all the pixels included in the subject area 6 extracted from the image 4 in the process of step S60, into red (R), green (G), and An average RGB value averaged for each blue (B) is calculated. Then, the subject area color information extraction unit 24 stores, for example, this average RGB value as a RGB value of the subject area 6 in a predetermined area of the memory 104.
なお、前述の例では、被写体領域6に含まれる全ての画素のRGB値の平均を被写体領域6のRGB値としたが、被写体領域6のRGB値の算出方法はこれに限られない。例えば、被写体領域6の重心点における画素のRGB値を被写体領域6のRGB値とする等、他の算出方法を用いてもよい。 In the above-described example, the average of the RGB values of all the pixels included in the subject area 6 is the RGB value of the subject area 6. However, the RGB value calculation method for the subject area 6 is not limited to this. For example, another calculation method may be used such that the RGB value of the pixel at the center of gravity of the subject region 6 is set as the RGB value of the subject region 6.
ステップS90において、色票領域抽出部22は、ステップS70の処理で画像4から抽出した色票領域8の中から、更に、個々の色見本に対応する色見本領域を各々抽出する。色見本領域の抽出方法は、農作物70の外郭を示す輪郭データの替わりに、色見本領域の外郭を示す輪郭データを用いることで、ステップS40の判定処理と同様の手法を用いることができる。 In step S90, the color chart area extracting unit 22 further extracts color sample areas corresponding to individual color samples from the color chart area 8 extracted from the image 4 in the process of step S70. The color sample area extraction method can use the same technique as the determination process in step S40 by using outline data indicating the outline of the color sample area instead of the outline data indicating the outline of the crop 70.
なお、色票66には、複数の色見本が含まれるため、ステップS90の処理によって複数の色見本領域が色票領域8から抽出される。この際、色票66における各色見本の配置場所は既知であるため、例えば色票66における各色見本の配置順を表す配置情報を、例えばメモリ104に予め記憶しておく。そして、メモリ104に記憶される色見本の配置情報に基づいて、色見本の色と、色票領域8から抽出した色見本領域と、を対応付けることによって、色票領域8から抽出した各色見本領域の色が判明する。 Since the color chart 66 includes a plurality of color samples, a plurality of color sample areas are extracted from the color chart area 8 by the process of step S90. At this time, since the arrangement location of each color sample in the color chart 66 is known, for example, arrangement information indicating the arrangement order of each color sample in the color chart 66 is stored in advance in the memory 104, for example. Each color sample area extracted from the color chart area 8 by associating the color sample color with the color sample area extracted from the color chart area 8 based on the arrangement information of the color samples stored in the memory 104. The color of becomes clear.
ステップS100において、色票領域色情報抽出部26は、ステップS90の処理で色票領域8から抽出した色見本領域毎に、色見本領域のRGB値を算出する。色票領域色情報抽出部26は、例えば、色見本領域毎に、色見本領域に含まれる全ての画素のRGB値を、R、G、及びB毎に平均した平均RGB値を算出する。そして、色票領域色情報抽出部26は、例えば算出した平均RGB値を該当する色見本領域のRGB値として、メモリ104の予め定めた領域に記憶する。 In step S100, the color chart area color information extraction unit 26 calculates the RGB value of the color sample area for each color sample area extracted from the color chart area 8 in the process of step S90. For example, for each color sample area, the color chart area color information extraction unit 26 calculates an average RGB value obtained by averaging the RGB values of all the pixels included in the color sample area for each of R, G, and B. Then, the color chart area color information extraction unit 26 stores the calculated average RGB value in a predetermined area of the memory 104 as the RGB value of the corresponding color sample area, for example.
なお、色見本領域のRGB値の算出方法はこれに限られない。例えば、色見本領域の重心点における画素のRGB値を当該色見本領域のRGB値とする等、他の算出方法を用いてもよい。 Note that the RGB value calculation method for the color sample area is not limited to this. For example, another calculation method may be used such that the RGB value of the pixel at the center of gravity of the color sample area is set as the RGB value of the color sample area.
ステップS110において、計測部16は、色票66に含まれる各色見本の基準色情報を基準色情報28から各々取得する。なお、基準色情報は、例えばRGB値で示されているものとする。 In step S <b> 110, the measurement unit 16 acquires the reference color information of each color sample included in the color chart 66 from the reference color information 28. The reference color information is assumed to be indicated by RGB values, for example.
画像4上の色見本領域の色は、例えば、カメラ76の撮像素子の特性、色票66を覆う影の影響を含む測色時との照明条件の相違によって、ステップS110で取得した基準色情報が表す基準色と異なっている。そして、色票66及び農作物70は、同じカメラ76によって共に影に覆われた状況で撮像されているため、色票66の色見本の色の変化量と同様に、画像4に含まれる農作物70の葉色の色も変化していると考えることができる。従って、色票66の色見本の色の変化分だけ被写体領域6の色を補正すれば、被写体領域6の色から農作物70の実際の葉色を推定することができる。 The color of the color sample area on the image 4 is the reference color information acquired in step S110 depending on, for example, the characteristics of the image sensor of the camera 76 and the illumination conditions different from those at the time of color measurement including the influence of the shadow covering the color chart 66. Is different from the reference color represented by Since the color chart 66 and the crop 70 are captured in a situation where they are covered with shadows by the same camera 76, the crop 70 included in the image 4 is the same as the color change amount of the color sample of the color chart 66. It can be considered that the color of the leaf color has also changed. Therefore, if the color of the subject area 6 is corrected by the change in the color sample color of the color chart 66, the actual leaf color of the crop 70 can be estimated from the color of the subject area 6.
そこで、ステップS120において、計測部16は、色見本領域毎に、ステップS100の処理で算出した色見本領域のRGB値と、ステップS110の処理で取得した、当該色見本領域の基準色情報のRGB値と、の差分を算出する。当該差分は、例えば(R,G、B)=(0、0、0)を原点とするRGB色空間上のベクトルとして表される。 Therefore, in step S120, the measurement unit 16 determines, for each color sample area, the RGB value of the color sample area calculated in the process of step S100 and the RGB of the reference color information of the color sample area acquired in the process of step S110. The difference between the value and the value is calculated. The difference is expressed as a vector in the RGB color space with the origin at (R, G, B) = (0, 0, 0), for example.
そして、計測部16は、例えば色見本領域毎に算出した差分ベクトルの平均に相当するベクトルを補正量(補正ベクトル)として求める。なお、補正量(補正ベクトル)の算出方法はこれに限られず、公知の手法を用いることができる。例えば、色見本領域毎に算出した差分ベクトルに重みをつけて平均化した結果を補正量(補正ベクトル)とする等、他の手法を用いてもよい。 Then, the measurement unit 16 obtains, for example, a vector corresponding to the average of the difference vectors calculated for each color sample area as a correction amount (correction vector). The calculation method of the correction amount (correction vector) is not limited to this, and a known method can be used. For example, another method may be used, such as a correction amount (correction vector) obtained by weighting and averaging the difference vector calculated for each color sample area.
計測部16は、ステップS80の処理で算出した被写体領域6のRGB値のRGB色空間上の位置を、算出した補正量(補正ベクトル)によって移動(補正)させることで得られたRGB値を、農作物70の推定される本来の葉色として推定する。 The measurement unit 16 moves the RGB value obtained by moving (correcting) the position of the RGB value of the subject area 6 calculated in step S80 in the RGB color space with the calculated correction amount (correction vector). The estimated leaf color of the crop 70 is estimated.
ステップS130において、出力部18は、ステップS120の処理で推定した、農作物70の葉色を示すRGB値が表す色を、例えば図5に示す出力装置114の一例であるディスプレイに表示する。この際、出力部18は、農作物70の葉色だけでなく、例えば葉色に対応するRGB値を更に表示するようにしてもよい。 In step S130, the output unit 18 displays the color represented by the RGB value indicating the leaf color of the crop 70 estimated in the process of step S120 on, for example, a display that is an example of the output device 114 illustrated in FIG. At this time, the output unit 18 may further display not only the leaf color of the crop 70 but also RGB values corresponding to the leaf color, for example.
また、出力部18は、例えばインターネットを経由して、農作物70の葉色を示すRGB値を、インターネットに接続されるコンピュータ等の他の電子機器に出力するようにしてもよい。この場合、例えば農作物70の生産者とは異なる、農作物70の栽培に関する専門家等に、農作物70の生育状況の判断を依頼したり、アドバイスを受けたりすることが可能である。 The output unit 18 may output the RGB value indicating the leaf color of the crop 70 to another electronic device such as a computer connected to the Internet via the Internet, for example. In this case, for example, it is possible to request an expert regarding the cultivation of the crop 70, which is different from the producer of the crop 70, to judge the growth status of the crop 70 or to receive advice.
次に、前述したステップS20における明度算出処理について説明する。図7は、処理装置72で実行する明度算出処理の流れの一例を示すフローチャートである。 Next, the lightness calculation process in step S20 described above will be described. FIG. 7 is a flowchart illustrating an example of the flow of brightness calculation processing executed by the processing device 72.
ステップS200において、影判定部12は、画像4を複数の領域、すなわちブロックに分割して、ブロック毎に明度を算出するため、まず、画像4の分割単位であるブロックの大きさを決定する。 In step S200, the shadow determination unit 12 divides the image 4 into a plurality of regions, that is, blocks, and calculates the lightness for each block. First, the shadow determination unit 12 determines the size of a block that is a division unit of the image 4.
後ほど説明するように、画像4における影領域64はブロック単位で判定する。従って、ブロックの大きさを、より大きく設定するに従い、実際には影で覆われていない領域を影領域64として画像4から抽出する状況が発生しやすくなるため、影領域64の判定精度が低くなる。しかし、ブロックの大きさを、より大きく設定するに従い、画像4を分割するブロック数が少なくなるため、ステップS20における明度算出処理、及びステップS30における影領域判定処理に要する処理時間は短くなる。従って、影領域64の判定精度、及び処理時間の兼ね合いに基づいて、ブロックの大きさを決定する。 As will be described later, the shadow area 64 in the image 4 is determined in units of blocks. Accordingly, as the size of the block is set larger, a situation in which an area that is not actually covered with a shadow is extracted as the shadow area 64 from the image 4 is likely to occur, so the determination accuracy of the shadow area 64 is low. Become. However, as the block size is set larger, the number of blocks into which the image 4 is divided decreases, so that the processing time required for the brightness calculation process in step S20 and the shadow area determination process in step S30 is shortened. Therefore, the block size is determined based on the determination accuracy of the shadow region 64 and the balance between the processing times.
ここでは、一例として、処理装置72の実機による実験、または処理装置72の設計仕様に基づくコンピュータシミュレーション等により、影領域64の判定精度、及び処理時間を予め検討して設定したブロックの大きさを使用する。なお、予め設定されたブロックの大きさは、例えばメモリ104の予め定めた領域に予め記憶しておけばよい。 Here, as an example, the size of the block set by examining the determination accuracy of the shadow region 64 and the processing time in advance by an experiment with an actual machine of the processing device 72 or a computer simulation based on the design specifications of the processing device 72 is used. use. The preset block size may be stored in advance in a predetermined area of the memory 104, for example.
ステップS210において、影判定部12は、図6のステップS10の処理で取得した画像4を、ステップS200の処理で決定した大きさのブロックに分割する。そして、影判定部12は、分割したブロックの各々に、ブロック番号を重複しないよう対応付ける。なお、ブロック番号には、例えば0から1ずつ増加する整数が用いられる。 In step S210, the shadow determination unit 12 divides the image 4 acquired in the process of step S10 in FIG. 6 into blocks having a size determined in the process of step S200. Then, the shadow determination unit 12 associates each of the divided blocks with a block number that does not overlap. For the block number, for example, an integer increasing from 0 to 1 is used.
ステップS220において、影判定部12は、選択ブロック番号Nを0に設定し、選択ブロック番号N(=0)をメモリ104の予め定めた領域に記憶する。 In step S <b> 220, the shadow determination unit 12 sets the selected block number N to 0, and stores the selected block number N (= 0) in a predetermined area of the memory 104.
ステップS230において、影判定部12は、ステップS210の処理でブロック番号を対応付けたブロックの中から、ブロック番号が選択ブロック番号Nに対応するブロック(注目ブロック)を取得する。そして、影判定部12は、注目ブロックにおける明度を算出する。 In step S230, the shadow determination unit 12 acquires a block (block of interest) whose block number corresponds to the selected block number N from the blocks associated with the block number in the process of step S210. Then, the shadow determination unit 12 calculates the lightness in the block of interest.
具体的には、影判定部12は、注目ブロックに含まれる全ての画素の平均RGB値を算出する。そして、影判定部12は、算出した平均RGB値を、RGB色空間からCIE(Commission Internationale de l'Eclairage)−L*A*B*色空間上の値に変換して、注目ブロックにおける明度を算出する。CIE−L*A*B*色空間では、明度を表す値L*、並びに、色度を表す値A*及び値B*によって色が表現される。従って、平均RGB値から値L*を算出することにより、注目ブロックにおける明度を算出することができる。 Specifically, the shadow determination unit 12 calculates an average RGB value of all pixels included in the block of interest. Then, the shadow determination unit 12 converts the calculated average RGB value from the RGB color space to a value on the CIE (Commission Internationale de l'Eclairage) -L * A * B * color space, and the lightness in the block of interest is converted. calculate. In the CIE-L * A * B * color space, a color is represented by a value L * representing brightness, and a value A * and a value B * representing chromaticity. Therefore, by calculating the value L * from the average RGB value, it is possible to calculate the brightness in the block of interest.
そのためには、平均RGB値を一旦CIE−XYZ色空間上の値(XYZ値)に変換し、XYZ値を更にCIE−L*A*B*色空間上の値に変換する。そこで、CIEが規定する標準光源D65を用いた場合での、RGB値をXYZ値に変換する変換式を(1)式に示す。 For this purpose, the average RGB value is once converted into a value (XYZ value) on the CIE-XYZ color space, and the XYZ value is further converted into a value on the CIE-L * A * B * color space. Therefore, a conversion formula for converting RGB values into XYZ values when the standard light source D65 defined by the CIE is used is shown in Formula (1).
ここで、Mは変換行列であり(2)式で表される。 Here, M is a transformation matrix, and is expressed by equation (2).
明度L*は、(1)式によって得られるXYZ値のうち、Yを用いて(3)式で算出される。 The lightness L * is calculated by the expression (3) using Y among the XYZ values obtained by the expression (1).
ここで、値Ynは、反射率が100%の反射面である完全拡散反射面における値Yを表し、Yn=1.0000が用いられる。 Here, the value Y n represents the value Y on a perfect diffuse reflection surface which is a reflection surface having a reflectance of 100%, and Y n = 1.0000 is used.
なお、ステップS230の処理では、画像4から影領域64を抽出するため、ブロックの明度を算出している。しかし、画像4から影領域64を抽出するにはブロックの明るさが分かればよいことから、ブロックの明るさを示す他の指標、例えば輝度を算出するようにしてもよい。 In the process of step S230, in order to extract the shadow area 64 from the image 4, the brightness of the block is calculated. However, in order to extract the shadow area 64 from the image 4, it is only necessary to know the brightness of the block. Therefore, another index indicating the brightness of the block, for example, luminance may be calculated.
従って、明度L*の替わりに、(4)式を用いて平均RGB値からブロックの輝度Lを算出するようにしてもよい。 Therefore, instead of the lightness L *, the block luminance L may be calculated from the average RGB value using equation (4).
なお、明度L*を算出したブロックには、算出した明度L*、及び、明度L*が算出済みであることを示す識別子を対応づけて、メモリ104の予め定めた領域に記憶する。 Note that the block of calculating the lightness L * is calculated lightness L *, and, in association with an identifier indicating that lightness L * has already been calculated and stored in a predetermined area of the memory 104.
ステップS240において、影判定部12は、ステップS210の処理で画像4から分割した全てのブロックに対して、ステップS230の処理でブロックの明度L*を算出したか否かを判定する。当該判定は、ブロックに明度L*が算出済みであることを示す識別子が対応付けられているか否かを参照することで実行される。そして、否定判定の場合には、ステップS250に移行する。 In step S240, the shadow determination unit 12 determines whether or not the lightness L * of the block has been calculated in the process of step S230 for all the blocks divided from the image 4 in the process of step S210. This determination is performed by referring to whether or not an identifier indicating that the lightness L * has been calculated is associated with the block. If the determination is negative, the process proceeds to step S250.
ステップS250において、影判定部12は、選択ブロック番号Nを1つ増加し、値を更新した選択ブロック番号Nをメモリ104の予め定めた領域に記憶する。そして、ステップS230〜S250の処理を繰り返すことにより、ステップS210の処理で画像4から分割した各々のブロックについて、ブロックの明度L*を算出することができる。 In step S250, the shadow determination unit 12 increments the selected block number N by one and stores the selected block number N whose value has been updated in a predetermined area of the memory 104. Then, by repeating the processing in steps S230 to S250, the lightness L * of the block can be calculated for each block divided from the image 4 in the processing in step S210.
一方、ステップS240の判定処理が肯定判定、すなわち、ステップS210の処理で画像4から分割した各々のブロックについて、ブロックの明度L*が算出済みである場合には、図7に示す明度算出処理を終了する。 On the other hand, the determination process is affirmative determination in step S240, i.e., the processing each of the blocks divided from the image 4 in the step S210, when the lightness L * of the block has already been calculated, the brightness calculation process shown in FIG. 7 finish.
次に、前述したステップS30における影領域判定処理について説明する。図8は、処理装置72で実行する影領域判定処理の流れの一例を示すフローチャートである。 Next, the shadow area determination process in step S30 described above will be described. FIG. 8 is a flowchart showing an example of the flow of the shadow area determination process executed by the processing device 72.
まず、ステップS300において、影判定部12は、画像4から分割した各々のブロックの明度L*をメモリ104から取得し、取得した各々のブロックの明度L*の平均値(平均明度)を算出する。 First, in step S300, the shadow determination unit 12 acquires the brightness L * of each block divided from the image 4 from the memory 104, and calculates an average value (average brightness) of the acquired brightness L * of each block. .
ステップS310において、影判定部12は、選択ブロック番号Nを0に設定し、選択ブロック番号N(=0)をメモリ104の予め定めた領域に記憶する。 In step S <b> 310, the shadow determination unit 12 sets the selected block number N to 0, and stores the selected block number N (= 0) in a predetermined area of the memory 104.
ステップS320において、影判定部12は、画像4から分割した各々のブロックの中から、ブロック番号が選択ブロック番号Nに対応するブロック、すなわち注目ブロックの明度L*を取得する。そして、影判定部12は、注目ブロックの明度L*が、ステップS300の処理で算出した平均明度より低いか否かを判定する。否定判定の場合には、ステップS330に移行する。 In step S320, the shadow determination unit 12 acquires the lightness L * of the block whose block number corresponds to the selected block number N, that is, the block of interest, from each of the blocks divided from the image 4. Then, the shadow determination unit 12 determines whether or not the lightness L * of the block of interest is lower than the average lightness calculated in the process of step S300. If the determination is negative, the process proceeds to step S330.
なお、影判定部12は、明度L*を平均明度と比較したブロックには、平均明度と比較済みであることを示す識別子を対応づけて、メモリ104の予め定めた領域に記憶する。 The shadow determination unit 12 associates an identifier indicating that the lightness L * has been compared with the average lightness with an identifier indicating that it has been compared with the average lightness, and stores them in a predetermined area of the memory 104.
ステップS330において、影判定部12は、選択ブロック番号Nを1つ増加し、値を更新した選択ブロック番号Nをメモリ104の予め定めた領域に記憶する。そして、ステップS320に移行し、更新した選択ブロック番号Nに対応する注目ブロックに対して、注目ブロックの明度L*と、平均明度と、を比較する処理を繰り返し実行する。 In step S330, the shadow determination unit 12 increments the selected block number N by one and stores the selected block number N whose value has been updated in a predetermined area of the memory 104. Then, the process proceeds to step S320, and the process of comparing the lightness L * of the block of interest with the average lightness is repeatedly executed for the block of interest corresponding to the updated selected block number N.
一方、ステップS320の判定処理が肯定判定の場合には、ステップS340に移行する。 On the other hand, if the determination process in step S320 is affirmative, the process proceeds to step S340.
ステップS340において、影判定部12は、注目ブロックの明度L*が平均明度より低いことから、当該注目ブロックは影で覆われた領域、すなわち影領域64に含まれるブロックであると認識する。従って、影判定部12は、注目ブロックに影領域64であることを示す識別子を対応付け、当該対応付けをメモリ104の予め定めた領域に記憶する。 In step S340, the shadow determination unit 12 recognizes that the block of interest is an area covered with shadow, that is, a block included in the shadow area 64, because the lightness L * of the block of interest is lower than the average lightness. Therefore, the shadow determination unit 12 associates an identifier indicating the shadow region 64 with the block of interest, and stores the association in a predetermined region of the memory 104.
ステップS350において、影判定部12は、画像4から分割した各々のブロックについて、ステップS320の処理で、ブロックの明度L*と平均明度とを比較したか否かを判定する。当該判定は、ブロックに平均明度と比較済みであることを示す識別子が対応付けられているか否かを参照することで実行される。そして、否定判定の場合には、ステップS330に移行する。 In step S350, the shadow determination unit 12 determines, for each block divided from the image 4, whether or not the lightness L * of the block is compared with the average lightness in the process of step S320. This determination is performed by referring to whether or not an identifier indicating that the block has been compared with the average brightness is associated with the block. If the determination is negative, the process proceeds to step S330.
既に説明したように、ステップS330の処理で、影判定部12は、選択ブロック番号Nを1つ増加しステップS320に移行する。従って、ステップS320〜S350の処理を繰り返すことで、影領域64に含まれる全てのブロックを判定することができる。 As already described, in the process of step S330, the shadow determination unit 12 increments the selected block number N by one and proceeds to step S320. Therefore, it is possible to determine all the blocks included in the shadow region 64 by repeating the processes of steps S320 to S350.
このように第1実施形態によれば、処理装置72は、農作物70及び色票66が共に影に覆われているかを画像4の明暗差から判定する。そして、処理装置72は、被写体領域6及び色票領域8を、農作物70及び色票66が共に影に覆われていると判定した画像4から抽出し、色票領域8に含まれる色見本領域の色と、色見本領域の基準色と、の差分に基づいて被写体領域6の色を補正する。 As described above, according to the first embodiment, the processing device 72 determines whether the crop 70 and the color chart 66 are both covered by the shadow from the contrast of the image 4. Then, the processing device 72 extracts the subject area 6 and the color chart area 8 from the image 4 determined that both the crop 70 and the color chart 66 are covered with shadows, and the color sample area included in the color chart area 8. The color of the subject region 6 is corrected based on the difference between the color of the subject color and the reference color of the color sample region.
従って、太陽50及びカメラ76に対する農作物70及び色票66の向きが異なっている場合であっても、共に影に覆われた農作物70及び色票66が含まれる画像4を用いることで、農作物70及び色票66に発生するてかりが抑制される。すなわち、農作物70及び色票66の少なくとも一方が影に覆われていない画像4を用いる場合に比べて、農作物70の葉色を精度よく計測することができる。 Therefore, even if the orientation of the crop 70 and the color chart 66 with respect to the sun 50 and the camera 76 is different, the crop 70 is obtained by using the image 4 including the crop 70 and the color chart 66 covered with shadows. In addition, the occurrence of light on the color chart 66 is suppressed. That is, the leaf color of the crop 70 can be measured with higher accuracy than when the image 4 in which at least one of the crop 70 and the color chart 66 is not covered with a shadow is used.
また、農作物70の実際の葉色を推定する際、農作物70及び色票66が共に影に覆われている際の画像4を用いることから、画像4には、直接光54及び天空光56が混在した光ではなく、天空光56で照らされた農作物70及び色票66が写っている。従って、直接光54及び天空光56が混在した光で照らされた農作物70及び色票66が写った画像4を用いる場合に比べて、農作物70の葉色を精度よく推定することができる。 Further, when the actual leaf color of the crop 70 is estimated, the image 4 when the crop 70 and the color chart 66 are both covered with shadows is used. Therefore, the direct light 54 and the sky light 56 are mixed in the image 4. The crop 70 and the color chart 66 illuminated by the sky light 56 are reflected instead of the reflected light. Therefore, the leaf color of the crop 70 can be accurately estimated as compared to the case where the crop 70 illuminated with light in which the direct light 54 and the sky light 56 are mixed and the image 4 showing the color chart 66 is used.
(第2実施形態)
第1実施形態に係る処理装置72では、影領域64を画像4から抽出し、被写体領域6及び色票領域8が共に影領域64に含まれていると判定した場合に、農作物70の葉色を計測する。しかし、農作物70及び色票66が共に影に覆われていることが明らかな画像4を農作物70の葉色の計測に用いる場合、影領域64を画像4から抽出し、被写体領域6及び色票領域8が共に影領域64に含まれているか判定する処理は不要となる。
(Second Embodiment)
In the processing device 72 according to the first embodiment, when the shadow region 64 is extracted from the image 4 and it is determined that both the subject region 6 and the color chart region 8 are included in the shadow region 64, the leaf color of the crop 70 is changed. measure. However, when the image 4 in which the crop 70 and the color chart 66 are clearly covered with shadows is used for measuring the leaf color of the crop 70, the shadow area 64 is extracted from the image 4, and the subject area 6 and the color chart area are extracted. The process of determining whether both are included in the shadow area 64 becomes unnecessary.
従って、第2実施形態では、農作物70及び色票66が存在する場所の位置情報から、予め農作物70及び色票66が共に影に覆われている時間帯を算出しておく。そして、当該時間帯に合わせてカメラ76で画像4を撮像することで、農作物70及び色票66が共に影に覆われている画像4を取得する。 Therefore, in the second embodiment, a time zone in which both the crop 70 and the color chart 66 are covered with shadows is calculated in advance from the position information of the place where the crop 70 and the color chart 66 exist. Then, by capturing the image 4 with the camera 76 in accordance with the time zone, the image 4 in which the crop 70 and the color chart 66 are both covered with shadows is acquired.
図9は、第2実施形態に係る処理装置72Aの機能的な構成の一例を示す機能ブロック図である。処理装置72Aが第1実施形態に係る処理装置72と異なる点は、影判定部12が影判定部12Aに置き換えられ、影入り情報30が新たに追加された点である。また、被写体領域抽出部20が被写体領域抽出部20Aに、色票領域抽出部22が色票領域抽出部22Aにそれぞれ置き換えられ、この置き換えに伴い、抽出部14が抽出部14Aに置き換えられる。 FIG. 9 is a functional block diagram illustrating an example of a functional configuration of the processing device 72A according to the second embodiment. The difference between the processing device 72A and the processing device 72 according to the first embodiment is that the shadow determination unit 12 is replaced with the shadow determination unit 12A, and the shadowed information 30 is newly added. In addition, the subject area extraction unit 20 is replaced with a subject area extraction unit 20A, and the color chart area extraction unit 22 is replaced with a color chart area extraction unit 22A, and along with this replacement, the extraction unit 14 is replaced with an extraction unit 14A.
影判定部12Aは、農作物70及び色票66が共に影に覆われている時間帯に関する情報を影入り情報30から取得し、当該時間帯に、撮像を開始する指示を撮像部10に出力し、カメラ76で撮像した画像4を撮像部10から受け付ける。そして、影判定部12は、撮像部10から受け付けた画像4に含まれる影領域64の位置を判定し、農作物70及び色票66が、共に影領域64に含まれているか否かを判定する。 The shadow determination unit 12A acquires information about the time zone in which both the crop 70 and the color chart 66 are covered with shadow from the shaded information 30, and outputs an instruction to start imaging to the imaging unit 10 in the time zone. The image 4 captured by the camera 76 is received from the imaging unit 10. Then, the shadow determination unit 12 determines the position of the shadow region 64 included in the image 4 received from the imaging unit 10, and determines whether the crop 70 and the color chart 66 are both included in the shadow region 64. .
被写体領域抽出部20Aは、被写体領域抽出部20と異なり、影領域64に被写体領域6が含まれているか否かを判定することなく、被写体領域6を画像4から抽出する。 Unlike the subject region extraction unit 20, the subject region extraction unit 20 </ b> A extracts the subject region 6 from the image 4 without determining whether or not the subject region 6 is included in the shadow region 64.
また、色票領域抽出部22Aも色票領域抽出部22と異なり、影領域64に色票領域8が含まれているか否かを判定することなく、色票領域8を画像4から抽出すると共に、色見本領域を色票領域8から抽出する。 Further, unlike the color chart area extraction section 22, the color chart area extraction unit 22A extracts the color chart area 8 from the image 4 without determining whether or not the shadow area 64 includes the color chart area 8. The color sample area is extracted from the color chart area 8.
次に、図10に、処理装置72Aをコンピュータで実現する場合の構成の一例を示す。図10に示すコンピュータ100Aの構成が、図5に示す第1実施形態に係るコンピュータ100の構成と異なる点は、影判定プロセス124が影判定プロセス124Aに置き換えられ、影入り情報格納領域140が新たに追加された点である。また、被写体領域抽出プロセス126が被写体領域抽出プロセス126Aに、色票領域抽出プロセス128が色票領域抽出プロセス128Aに、それぞれ置き換えられる。 Next, FIG. 10 shows an example of a configuration when the processing device 72A is realized by a computer. The configuration of the computer 100A illustrated in FIG. 10 is different from the configuration of the computer 100 according to the first embodiment illustrated in FIG. 5 in that the shadow determination process 124 is replaced with the shadow determination process 124A, and the shadowed information storage area 140 is newly added. It is a point added to. The subject area extraction process 126 is replaced with a subject area extraction process 126A, and the color chart area extraction process 128 is replaced with a color chart area extraction process 128A.
CPU102は、処理プログラム120Aを記憶部106から読み出してメモリ104に展開し、処理プログラム120Aに含まれる各プロセスを実行する。 The CPU 102 reads the processing program 120A from the storage unit 106, expands it in the memory 104, and executes each process included in the processing program 120A.
CPU102が、処理プログラム120Aを記憶部106から読み出してメモリ104に展開し、処理プログラム120Aを実行することで、コンピュータ100Aが図9に示す処理装置72Aとして動作する。 The CPU 102 reads out the processing program 120A from the storage unit 106, expands it in the memory 104, and executes the processing program 120A, whereby the computer 100A operates as the processing device 72A shown in FIG.
また、CPU102が影判定プロセス124Aを実行することで、コンピュータ100Aが図9に示す影判定部12Aとして動作する。また、CPU102が被写体領域抽出プロセス126Aを実行することで、コンピュータ100Aが図9に示す被写体領域抽出部20Aとして動作する。また、CPU102が色票領域抽出プロセス128Aを実行することで、コンピュータ100Aが図9に示す色票領域抽出部22Aとして動作する。 Further, when the CPU 102 executes the shadow determination process 124A, the computer 100A operates as the shadow determination unit 12A illustrated in FIG. Further, when the CPU 102 executes the subject region extraction process 126A, the computer 100A operates as the subject region extraction unit 20A shown in FIG. Further, when the CPU 102 executes the color chart area extraction process 128A, the computer 100A operates as the color chart area extraction unit 22A shown in FIG.
更に、CPU102が、影入り情報格納領域140に格納された影入り情報をメモリ104に展開することで、メモリ104に影入り情報30が記憶される。 Furthermore, the shadow information 30 is stored in the memory 104 by the CPU 102 expanding the shadow information stored in the shadow information storage area 140 in the memory 104.
なお、コンピュータ100Aは、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。 Note that the computer 100A can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC or the like.
次に、処理装置72Aの作用について説明する。処理装置72Aは、例えば処理装置72Aの電源がオンされて起動したことを契機として、計測処理を実行する。 Next, the operation of the processing device 72A will be described. For example, the processing device 72A executes measurement processing when the processing device 72A is turned on and started.
図11は、処理装置72Aで実行する計測処理の流れの一例を示すフローチャートである。図11に示す計測処理のフローチャートが、図6に示す第1実施形態に係る計測処理のフローチャートと異なる点は、ステップS2〜S8が追加され、替わりにステップS40及びS50の処理が削除された点である。従って、以下に、第1実施形態に係る計測処理のフローチャートと異なる点について説明する。 FIG. 11 is a flowchart illustrating an example of the flow of measurement processing executed by the processing device 72A. The flowchart of the measurement process shown in FIG. 11 is different from the flowchart of the measurement process according to the first embodiment shown in FIG. 6 in that steps S2 to S8 are added and the processes of steps S40 and S50 are deleted instead. It is. Therefore, differences from the flowchart of the measurement process according to the first embodiment will be described below.
まず、ステップS2において、影判定部12Aは、メモリ104の予め定めた領域に記憶される影入り情報30を取得する。 First, in step S <b> 2, the shadow determination unit 12 </ b> A acquires the shadowed information 30 stored in a predetermined area of the memory 104.
図12は、影入り情報30の一例を示す図である。図12に示すように、影入り情報30は、番号、日付、影入り時刻、及び影出時刻が行方向に対応付けられた情報である。番号は、影入り情報30の行方向に対応付けられた行データを一意に識別するための番号であり、日付は、年月日の情報を示す。また影入り時刻は、農作物70及び色票66が、図2に示す屋根60A及び屋根60Bによって、共に影に覆われる期間の開始時刻を示し、影出時刻は、農作物70及び色票66が、共に影で覆われる期間の終了時刻を示している。 FIG. 12 is a diagram illustrating an example of the shadowed information 30. As shown in FIG. 12, the shadow information 30 is information in which a number, date, shadow time, and shadow time are associated with each other in the row direction. The number is a number for uniquely identifying the row data associated with the row direction of the shaded information 30, and the date indicates date information. The shadowed time indicates the start time of a period in which the crop 70 and the color chart 66 are covered by the roof 60A and the roof 60B shown in FIG. 2, and the shadow time indicates the crop 70 and the color chart 66. Both show the end times of periods covered with shadows.
例えば、番号1で表される行データの場合、2000年1月1日の12時30分から13時00分まで、農作物70及び色票66が共に影で覆われていることを示している。このような日付毎の影入り時刻及び影出時刻は、屋根60A及び60Bの大きさと設置高さ、太陽の軌道、並びに、農作物70及び色票66が存在する経度と緯度から予め算出することが可能であり、算出結果が影入り情報30としてメモリ104に記憶されている。 For example, the row data represented by the number 1 indicates that the crop 70 and the color chart 66 are both covered with shadows from 12:30 to 13:00 on January 1, 2000. Such shadowing time and shadowing time for each date can be calculated in advance from the size and installation height of the roofs 60A and 60B, the orbit of the sun, and the longitude and latitude where the crop 70 and the color chart 66 exist. The calculation result is stored in the memory 104 as the shaded information 30.
影判定部12Aは、例えばCPU102に内蔵されるカレンダ機能を利用して、現在の日付を取得する。そして、影判定部12Aは、現在の日付と一致する影入り情報30の行データを、メモリ104から取得する。 The shadow determination unit 12A acquires the current date by using a calendar function built in the CPU 102, for example. Then, the shadow determination unit 12A acquires from the memory 104 the row data of the shadowed information 30 that matches the current date.
ステップS4において、影判定部12Aは、例えばCPU102に内蔵されるカレンダ機能を利用して、現在の時刻(現在時刻)を取得する。そして、影判定部12Aは、取得した現在時刻が、ステップS2の処理で取得した行データに含まれる影入り時刻より後であるか否かを判定する。否定判定の場合、すなわち、現在時刻が影入り時刻以前であれば、農作物70及び色票66は、共に影で覆われていないとみなし、ステップS8に移行する。 In step S4, the shadow determination unit 12A obtains the current time (current time) using, for example, a calendar function built in the CPU 102. Then, the shadow determination unit 12A determines whether or not the acquired current time is after the shadow insertion time included in the row data acquired in the process of step S2. In the case of negative determination, that is, if the current time is before the shadowing time, it is considered that the crop 70 and the color chart 66 are not covered by the shadow, and the process proceeds to step S8.
そして、ステップS8において、影判定部12Aは、所定時間(例えば1分)が経過するまで待機し、再びステップS4の処理を実行する。一方、ステップS4の判定処理が肯定判定の場合、ステップS6に移行する。 In step S8, the shadow determination unit 12A waits until a predetermined time (for example, 1 minute) elapses, and executes the process of step S4 again. On the other hand, if the determination process in step S4 is affirmative, the process proceeds to step S6.
ステップS6において、影判定部12Aは、ステップS4の処理で取得した現在時刻が、ステップS2の処理で取得した行データに含まれる影出時刻より前であるか否かを判定する。否定判定の場合、すなわち、現在時刻が影出時刻以降であれば、農作物70及び色票66は、共に影で覆われていないとみなし、ステップS8に移行し、所定時間待機する。 In step S6, the shadow determination unit 12A determines whether or not the current time acquired in the process of step S4 is earlier than the shadow time included in the row data acquired in the process of step S2. In the case of a negative determination, that is, if the current time is after the shadowing time, it is considered that the crop 70 and the color chart 66 are not covered with shadows, and the process proceeds to step S8 and waits for a predetermined time.
一方、ステップS6の判定処理が肯定判定の場合、現在時刻が、始期を影入り時刻、及び終期を影出時刻とする時間帯に含まれるため、ステップS10に移行する。そして、ステップS10において、影判定部12Aは、撮像を開始する指示を撮像部10に出力し、カメラ76で撮像した画像4を撮像部10から受け付け、例えばメモリ104の予め定めた領域に記憶する。 On the other hand, when the determination process in step S6 is affirmative, the current time is included in the time zone in which the start time is the shadowing time and the last time is the shadowing time, and the process proceeds to step S10. In step S <b> 10, the shadow determination unit 12 </ b> A outputs an instruction to start imaging to the imaging unit 10, receives the image 4 captured by the camera 76 from the imaging unit 10, and stores the image 4 in a predetermined area of the memory 104, for example. .
撮像した画像4は、影入り時刻から影出時刻までの時間帯に撮像した画像4であることから、農作物70及び色票66が共に影で覆われていることは明らかである。従って、図6での、影領域64に被写体領域6が含まれているか否かを判定するステップS40の処理、及び、影領域64に色票領域8が含まれているか否かを判定するステップS50の処理は、図11に示すフローチャートから削除される。 Since the captured image 4 is the image 4 captured in the time zone from the shadowing time to the shadowing time, it is clear that both the crop 70 and the color chart 66 are covered with shadows. Therefore, the process of step S40 for determining whether or not the subject area 6 is included in the shadow area 64 and the step of determining whether or not the color chart area 8 is included in the shadow area 64 in FIG. The process of S50 is deleted from the flowchart shown in FIG.
以降、処理装置72Aは、既に第1実施形態において説明したステップS20、S30、及びS60〜S130の各処理を実行することで、農作物70の葉色を計測することができる。なお、図11に示す計測処理が終了した場合、ステップS2から再び実行することで、翌日以降の農作物70の葉色を計測することができる。 Thereafter, the processing device 72A can measure the leaf color of the crop 70 by executing the processes of steps S20, S30, and S60 to S130 already described in the first embodiment. In addition, when the measurement process shown in FIG. 11 is complete | finished, the leaf color of the crops 70 after the next day can be measured by performing again from step S2.
なお、現在の日付及び時刻は、例えば入力装置112の一例としてI/O110に接続される時計等の装置から取得するようにしてもよい。 The current date and time may be acquired from a device such as a clock connected to the I / O 110 as an example of the input device 112.
このように第2実施形態によれば、処理装置72Aは、予め農作物70及び色票66が共に影で覆われている時間帯に撮像した画像4に基づいて、農作物70の葉色を計測する。この場合、第1実施形態に示したように、画像4の影領域64に農作物70及び色票66が含まれるか判定する処理が不要になり、第1実施形態に係る計測処理と比較して、計測処理の高速化が期待できる。 As described above, according to the second embodiment, the processing device 72A measures the leaf color of the crop 70 based on the image 4 captured in advance in a time zone in which both the crop 70 and the color chart 66 are covered with shadows. In this case, as shown in the first embodiment, a process for determining whether the crop area 70 and the color chart 66 are included in the shadow area 64 of the image 4 is unnecessary, and compared with the measurement process according to the first embodiment. Acceleration of measurement processing can be expected.
なお、第1実施形態に係る処理装置72、及び第2実施形態に係る処理装置72Aは、カメラ76に撮像指示を出力して画像4を撮像したが、画像4の取得方法はこれに限られない。例えば既に撮像済みの画像4のデータを、I/O110を経由して取得してメモリ104に記憶し、図6及び図11のステップS20以降の処理を実行するようにしてもよい。この際、第2実施形態に係る処理装置72Aでは、農作物70及び色票66が共に影で覆われている撮像済みの画像4を、I/O110を経由して取得するようにすればよい。また、カメラ76で定期的に撮像を行い、第1実施形態に係る処理装置72は、撮像された複数の画像4の中から農作物70の葉色の推定に用いる画像4を選択する態様に適用することも可能である。 Note that the processing device 72 according to the first embodiment and the processing device 72A according to the second embodiment output the imaging instruction to the camera 76 to capture the image 4, but the acquisition method of the image 4 is limited to this. Absent. For example, the data of the image 4 that has already been captured may be acquired via the I / O 110 and stored in the memory 104, and the processing after step S20 in FIGS. 6 and 11 may be executed. At this time, in the processing device 72A according to the second embodiment, the captured image 4 in which the crop 70 and the color chart 66 are both covered with shadows may be acquired via the I / O 110. In addition, the image is periodically captured by the camera 76, and the processing device 72 according to the first embodiment is applied to a mode in which the image 4 used for estimating the leaf color of the crop 70 is selected from the plurality of captured images 4. It is also possible.
また、第1実施形態及び第2実施形態では農作物70の葉色を計測する例を説明したが、処理装置72及び処理装置72Aによる色の計測対象は農作物70に限られないことは言うまでもない。開示の技術は、屋外にある物体、例えば建物の壁等の色計測にも適用可能である。計測した建物の壁を色と、新築時の壁の色と比較することで、壁の補修時期を判断する際の参考資料として利用することができる。 Moreover, although the example which measures the leaf color of the crop 70 was demonstrated in 1st Embodiment and 2nd Embodiment, it cannot be overemphasized that the measuring object of the color by the processing apparatus 72 and the processing apparatus 72A is not restricted to the crop 70. The disclosed technology can also be applied to color measurement of an outdoor object, such as a building wall. By comparing the color of the measured wall of the building with the color of the wall at the time of new construction, it can be used as reference data when judging the repair time of the wall.
以上、各実施形態を用いて開示の技術を説明したが、開示の技術は各実施形態に記載の範囲には限定されない。開示の技術の要旨を逸脱しない範囲で各実施形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も開示の技術の技術的範囲に含まれる。例えば、開示の技術の要旨を逸脱しない範囲で処理の順序を変更してもよい。 As described above, the disclosed technology has been described using each embodiment, but the disclosed technology is not limited to the scope described in each embodiment. Various modifications or improvements can be added to each embodiment without departing from the spirit of the disclosed technology, and forms to which the modifications or improvements are added are also included in the technical scope of the disclosed technology. For example, the processing order may be changed without departing from the scope of the disclosed technology.
以上の第1実施形態及び第2実施形態を含む実施形態に関し、更に以下の付記を開示する。 The following additional notes are further disclosed regarding the embodiment including the first embodiment and the second embodiment.
(付記1)
コンピュータに、
測色対象の被写体及び測色値が既知の色票が共に光源からの直接光が照射されていない状況か否かを判定し、
前記状況で前記被写体及び前記色票を撮像した画像を、当該画像中の前記色票に対応する領域の色及び前記色票の測色値に基づき、前記画像中の前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行うための画像として取得する
ことを含む処理を実行させるための処理プログラム。
(Appendix 1)
On the computer,
It is determined whether the subject to be colorimetric and the color chart whose colorimetric value is known are in a situation where direct light from the light source is not irradiated,
Based on the color of the area corresponding to the color chart in the image and the colorimetric value of the color chart, an image of the subject and the color chart in the situation is captured. A processing program for executing processing including obtaining an image for performing color correction for obtaining a colorimetric value of the subject from color.
(付記2)
前記コンピュータに、
取得した前記画像から、前記画像中の前記色票に対応する領域及び前記被写体に対応する領域を各々抽出し、前記色票に対応する領域の色及び前記被写体に対応する領域の色を各々求め、
前記色票に対応する領域の色及び前記色票の測色値に基づき、前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行う
ことを含む処理を更に実行させる付記1記載の処理プログラム。
(Appendix 2)
In the computer,
From the acquired image, an area corresponding to the color chart and an area corresponding to the subject in the image are extracted, and a color of the area corresponding to the color chart and a color of the area corresponding to the subject are obtained. ,
Additional processing for further executing a process including: performing color correction to obtain a colorimetric value of the subject from a color of the region corresponding to the subject based on a color of the region corresponding to the color sample and a colorimetric value of the color sample The processing program according to 1.
(付記3)
前記被写体及び前記色票を撮像した前記画像から明度が閾値未満の低明度領域を抽出し、前記画像中の前記色票に対応する領域及び前記被写体に対応する領域が前記低明度領域に含まれるか否かに基づいて、前記被写体及び前記色票が共に前記光源からの直接光が照射されていない状況か否かを判定する
付記1又は付記2記載の処理プログラム。
(Appendix 3)
A low brightness area with a brightness less than a threshold value is extracted from the image obtained by capturing the subject and the color chart, and an area corresponding to the color chart and an area corresponding to the subject in the image are included in the low brightness area. The processing program according to Supplementary Note 1 or Supplementary Note 2, wherein it is determined whether or not the subject and the color chart are both in a state where direct light from the light source is not irradiated.
(付記4)
前記光源から前記被写体及び前記色票への直接光が遮光物によって遮られる期間を予め記憶しておき、
日時が前記期間に含まれるか否かに基づいて、前記被写体及び前記色票が共に前記光源からの直接光が照射されていない状況か否かを判定する
付記1又は付記2記載の処理プログラム。
(Appendix 4)
A period in which direct light from the light source to the subject and the color chart is blocked by a light blocking object is stored in advance.
The processing program according to Supplementary Note 1 or Supplementary Note 2, wherein it is determined whether or not the subject and the color chart are not irradiated with direct light from the light source based on whether or not a date and time is included in the period.
(付記5)
コンピュータに、
測色対象の被写体及び測色値が既知の色票が共に光源からの直接光が照射されていない状況か否かを判定し、
前記状況で前記被写体及び前記色票を撮像した画像を、当該画像中の前記色票に対応する領域の色及び前記色票の測色値に基づき、前記画像中の前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行うための画像として取得する
ことを含む処理を実行させる処理方法。
(Appendix 5)
On the computer,
It is determined whether the subject to be colorimetric and the color chart whose colorimetric value is known are in a situation where direct light from the light source is not irradiated,
Based on the color of the area corresponding to the color chart in the image and the colorimetric value of the color chart, an image of the subject and the color chart in the situation is captured. A processing method for executing processing including obtaining an image for performing color correction for obtaining a colorimetric value of the subject from color.
(付記6)
前記コンピュータに、
取得した前記画像から、前記画像中の前記色票に対応する領域及び前記被写体に対応する領域を各々抽出し、前記色票に対応する領域の色及び前記被写体に対応する領域の色を各々求め、
前記色票に対応する領域の色及び前記色票の測色値に基づき、前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行う
ことを含む処理を更に実行させる付記5記載の処理方法。
(Appendix 6)
In the computer,
From the acquired image, an area corresponding to the color chart and an area corresponding to the subject in the image are extracted, and a color of the area corresponding to the color chart and a color of the area corresponding to the subject are obtained. ,
Additional processing for further executing a process including: performing color correction to obtain a colorimetric value of the subject from a color of the region corresponding to the subject based on a color of the region corresponding to the color sample and a colorimetric value of the color sample 5. The processing method according to 5.
(付記7)
前記被写体及び前記色票を撮像した前記画像から明度が閾値未満の低明度領域を抽出し、前記画像中の前記色票に対応する領域及び前記被写体に対応する領域が前記低明度領域に含まれるか否かに基づいて、前記被写体及び前記色票が共に前記光源からの直接光が照射されていない状況か否かを判定する
付記5又は付記6記載の処理方法。
(Appendix 7)
A low brightness area with a brightness less than a threshold value is extracted from the image obtained by capturing the subject and the color chart, and an area corresponding to the color chart and an area corresponding to the subject in the image are included in the low brightness area. The processing method according to appendix 5 or appendix 6, wherein it is determined whether or not both the subject and the color chart are not irradiated with direct light from the light source.
(付記8)
前記光源から前記被写体及び前記色票への直接光が遮光物によって遮られる期間を予め記憶しておき、
日時が前記期間に含まれるか否かに基づいて、前記被写体及び前記色票が共に前記光源からの直接光が照射されていない状況か否かを判定する
付記5又は付記6記載の処理方法。
(Appendix 8)
A period in which direct light from the light source to the subject and the color chart is blocked by a light blocking object is stored in advance.
The processing method according to appendix 5 or appendix 6, wherein whether or not the subject and the color chart are not irradiated with direct light from the light source is determined based on whether the date and time is included in the period.
(付記9)
測色対象の被写体及び測色値が既知の色票が共に光源からの直接光が照射されていない状況か否かを判定する影判定部と、
前記状況で前記被写体及び前記色票を撮像した画像を、当該画像中の前記色票に対応する領域の色及び前記色票の測色値に基づき、前記画像中の前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行うための画像として取得する撮像部と、
を含む処理装置。
(Appendix 9)
A shadow determination unit that determines whether or not a colorimetric object and a color chart having a known colorimetric value are not irradiated with direct light from a light source;
Based on the color of the area corresponding to the color chart in the image and the colorimetric value of the color chart, an image of the subject and the color chart in the situation is captured. An imaging unit that acquires an image for performing color correction to obtain a colorimetric value of the subject from colors;
Processing equipment.
(付記10)
取得した前記画像から、前記画像中の前記色票に対応する領域及び前記被写体に対応する領域を各々抽出し、前記色票に対応する領域の色及び前記被写体に対応する領域の色を各々求める抽出部と、
前記色票に対応する領域の色及び前記色票の測色値に基づき、前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行う計測部と、
を更に含む付記9記載の処理装置。
(Appendix 10)
From the acquired image, an area corresponding to the color chart and an area corresponding to the subject in the image are extracted, and a color of the area corresponding to the color chart and a color of the area corresponding to the subject are obtained. An extractor;
A measurement unit that performs color correction to obtain a colorimetric value of the subject from the color of the region corresponding to the subject based on the color of the region corresponding to the color sample and the colorimetric value of the color sample;
The processing apparatus according to appendix 9, further comprising:
(付記11)
前記影判定部は、前記被写体及び前記色票を撮像した前記画像から明度が閾値未満の低明度領域を抽出し、前記画像中の前記色票に対応する領域及び前記被写体に対応する領域が前記低明度領域に含まれるか否かに基づいて、前記被写体及び前記色票が共に前記光源からの直接光が照射されていない状況か否かを判定する
付記9又は付記10記載の処理装置。
(Appendix 11)
The shadow determination unit extracts a low brightness area whose brightness is less than a threshold from the image obtained by capturing the subject and the color chart, and an area corresponding to the color chart and an area corresponding to the subject in the image are the The processing apparatus according to appendix 9 or appendix 10, wherein it is determined whether or not both the subject and the color chart are not irradiated with direct light from the light source based on whether or not they are included in a low brightness area.
(付記12)
前記光源から前記被写体及び前記色票への直接光が遮光物によって遮られる期間を予め記憶しておき、
前記影判定部は、日時が前記期間に含まれるか否かに基づいて、前記被写体及び前記色票が共に前記光源からの直接光が照射されていない状況か否かを判定する
付記9又は付記10記載の処理装置。
(Appendix 12)
A period in which direct light from the light source to the subject and the color chart is blocked by a light blocking object is stored in advance.
The shadow determining unit determines whether or not the subject and the color chart are not irradiated with direct light from the light source based on whether the date and time is included in the period. The processing apparatus according to 10.
(付記13)
コンピュータに、
測色対象の被写体及び測色値が既知の色票が共に光源からの直接光が照射されていない状況か否かを判定し、
前記状況で前記被写体及び前記色票を撮像した画像を、当該画像中の前記色票に対応する領域の色及び前記色票の測色値に基づき、前記画像中の前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行うための画像として取得する
ことを含む処理を実行させるための処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 13)
On the computer,
It is determined whether the subject to be colorimetric and the color chart whose colorimetric value is known are in a situation where direct light from the light source is not irradiated,
Based on the color of the area corresponding to the color chart in the image and the colorimetric value of the color chart, an image of the subject and the color chart in the situation is captured. A computer-readable recording medium storing a processing program for executing processing including obtaining an image for performing color correction for obtaining a colorimetric value of the subject from color.
4・・・画像、6・・・被写体領域、8・・・色票領域、10(10A)・・・撮像部、12・・・影判定部、14(14A)・・・抽出部、16・・・計測部、18・・・出力部、20(20A)・・・被写体領域抽出部、22(22A)・・・色票領域抽出部、24・・・被写体領域色情報抽出部、26・・・色票領域色情報抽出部、28・・・基準色情報、30・・・影入り情報、50・・・太陽、52・・・雲、54・・・直接光、56・・・天空光、58・・・圃場、60A(60B)・・・屋根、64(64A,64B)・・・影領域、66・・・色票、70・・・農作物、72(72A)・・・処理装置、76・・・カメラ、100(100A)・・・コンピュータ、102・・・CPU、104・・・メモリ、106・・・記憶部、108・・・バス、112・・・入力装置、114・・・出力装置、116・・・記録媒体、120(120A)・・・処理プログラム 4 ... Image, 6 ... Subject area, 8 ... Color chart area, 10 (10A) ... Imaging unit, 12 ... Shadow determination unit, 14 (14A) ... Extracting unit, 16 ... Measurement unit, 18 ... Output unit, 20 (20A) ... Subject region extraction unit, 22 (22A) ... Color chart region extraction unit, 24 ... Subject region color information extraction unit, 26 ... color chart area color information extraction unit, 28 ... reference color information, 30 ... shaded information, 50 ... sun, 52 ... clouds, 54 ... direct light, 56 ... Sky light, 58 ... farm field, 60A (60B) ... roof, 64 (64A, 64B) ... shadow area, 66 ... color chart, 70 ... crop, 72 (72A) ... Processing unit, 76 ... camera, 100 (100A) ... computer, 102 ... CPU, 104 ... memory, 106 ...憶部, 108 ... bus, 112 ... input device, 114 ... output device, 116 ... recording medium, 120 (120A) ... program
Claims (6)
測色対象の被写体及び測色値が既知の色票が共に光源からの直接光が照射されていない状況か否かを判定し、
前記状況で前記被写体及び前記色票を撮像した画像を、当該画像中の前記色票に対応する領域の色及び前記色票の測色値に基づき、前記画像中の前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行うための画像として取得する
ことを含む処理を実行させるための処理プログラム。 On the computer,
It is determined whether the subject to be colorimetric and the color chart whose colorimetric value is known are in a situation where direct light from the light source is not irradiated,
Based on the color of the area corresponding to the color chart in the image and the colorimetric value of the color chart, an image of the subject and the color chart in the situation is captured. A processing program for executing processing including obtaining an image for performing color correction for obtaining a colorimetric value of the subject from color.
取得した前記画像から、前記画像中の前記色票に対応する領域及び前記被写体に対応する領域を各々抽出し、前記色票に対応する領域の色及び前記被写体に対応する領域の色を各々求め、
前記色票に対応する領域の色及び前記色票の測色値に基づき、前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行う
ことを含む処理を更に実行させる請求項1記載の処理プログラム。 In the computer,
From the acquired image, an area corresponding to the color chart and an area corresponding to the subject in the image are extracted, and a color of the area corresponding to the color chart and a color of the area corresponding to the subject are obtained. ,
And further performing a process including: performing color correction to obtain a colorimetric value of the subject from a color of the region corresponding to the subject based on a color of the region corresponding to the color sample and a colorimetric value of the color sample. Item 1. A processing program according to item 1.
請求項1又は請求項2記載の処理プログラム。 A low brightness area with a brightness less than a threshold value is extracted from the image obtained by capturing the subject and the color chart, and an area corresponding to the color chart and an area corresponding to the subject in the image are included in the low brightness area. The processing program according to claim 1, wherein it is determined whether or not the subject and the color chart are both in a state where direct light from the light source is not irradiated.
日時が前記期間に含まれるか否かに基づいて、前記被写体及び前記色票が共に前記光源からの直接光が照射されていない状況か否かを判定する
請求項1又は請求項2記載の処理プログラム。 A period in which direct light from the light source to the subject and the color chart is blocked by a light blocking object is stored in advance.
The process according to claim 1 or 2, wherein it is determined whether or not the subject and the color chart are not irradiated with direct light from the light source based on whether or not date and time is included in the period. program.
測色対象の被写体及び測色値が既知の色票が共に光源からの直接光が照射されていない状況か否かを判定し、
前記状況で前記被写体及び前記色票を撮像した画像を、当該画像中の前記色票に対応する領域の色及び前記色票の測色値に基づき、前記画像中の前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行うための画像として取得する
ことを含む処理を実行させる処理方法。 On the computer,
It is determined whether the subject to be colorimetric and the color chart whose colorimetric value is known are in a situation where direct light from the light source is not irradiated,
Based on the color of the area corresponding to the color chart in the image and the colorimetric value of the color chart, an image of the subject and the color chart in the situation is captured. A processing method for executing processing including obtaining an image for performing color correction for obtaining a colorimetric value of the subject from color.
前記状況で前記被写体及び前記色票を撮像した画像を、当該画像中の前記色票に対応する領域の色及び前記色票の測色値に基づき、前記画像中の前記被写体に対応する領域の色から前記被写体の測色値を求める色補正を行うための画像として取得する撮像部と、
を含む処理装置。 A shadow determination unit that determines whether or not a colorimetric object and a color chart having a known colorimetric value are not irradiated with direct light from a light source;
Based on the color of the area corresponding to the color chart in the image and the colorimetric value of the color chart, an image of the subject and the color chart in the situation is captured. An imaging unit that acquires an image for performing color correction to obtain a colorimetric value of the subject from colors;
Processing equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015119240A JP6443230B2 (en) | 2015-06-12 | 2015-06-12 | Processing program, processing method, and processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015119240A JP6443230B2 (en) | 2015-06-12 | 2015-06-12 | Processing program, processing method, and processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017003491A JP2017003491A (en) | 2017-01-05 |
JP6443230B2 true JP6443230B2 (en) | 2018-12-26 |
Family
ID=57754095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015119240A Expired - Fee Related JP6443230B2 (en) | 2015-06-12 | 2015-06-12 | Processing program, processing method, and processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6443230B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6713628B2 (en) * | 2017-03-24 | 2020-06-24 | ヤンマーパワーテクノロジー株式会社 | Head-mounted display device for color diagnosis |
KR102130453B1 (en) * | 2020-01-20 | 2020-07-08 | (주)엘앤피 | Smart lighting apparatus and method for planting |
JP7025476B2 (en) * | 2020-05-08 | 2022-02-24 | ヤンマーパワーテクノロジー株式会社 | Display device for color diagnosis |
CN114739918B (en) * | 2022-04-13 | 2022-11-01 | 云南省农业科学院质量标准与检测技术研究所 | Plant color measuring method, device, system and storage medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5159185A (en) * | 1991-10-01 | 1992-10-27 | Armstrong World Industries, Inc. | Precise color analysis apparatus using color standard |
JPH11178445A (en) * | 1997-12-19 | 1999-07-06 | Bio Oriented Technol Res Advancement Inst | Paddy rice growth monitor |
JP3568892B2 (en) * | 1999-12-21 | 2004-09-22 | 株式会社巴コーポレーション | Method for detecting and judging corrosion of a member having a curved surface |
JP2003050996A (en) * | 2001-08-08 | 2003-02-21 | Hitachi Ltd | Image acquisition device for gene function analysis |
JP2006337181A (en) * | 2005-06-02 | 2006-12-14 | Iwate Industrial Research Center | Color calibration technique and chart for color calibration |
WO2015006675A2 (en) * | 2013-07-11 | 2015-01-15 | Blue River Technology, Inc. | Method for automatic phenotype measurement and selection |
-
2015
- 2015-06-12 JP JP2015119240A patent/JP6443230B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017003491A (en) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10231600B2 (en) | Image processing apparatus | |
JP6443230B2 (en) | Processing program, processing method, and processing apparatus | |
US6594384B1 (en) | Apparatus and method for estimating and converting illuminant chromaticity using perceived illumination and highlight | |
KR100304663B1 (en) | Color illumination color temperature detecting device and method thereof | |
EP3263011A1 (en) | Image processing device | |
US20140071310A1 (en) | Image processing apparatus, method, and program | |
US11475550B2 (en) | Information processing apparatus, information processing method, program, and information processing system | |
US9418414B2 (en) | Image measurement apparatus, image measurement method and image measurement system | |
JP6872137B2 (en) | Signal processing equipment, signal processing methods, and programs | |
JP2008042617A (en) | Digital camera | |
JP5092524B2 (en) | Image processing method, image processing program, image processing apparatus, camera | |
JP2022044639A (en) | Endoscope system, method of operating control device, and control device | |
JP2008028814A (en) | Color imaging apparatus for microscope, color imaging program for microscope, and color imaging method for microscope | |
WO2013114803A1 (en) | Image processing device, image processing method therefor, computer program, and image processing system | |
JP2009300831A (en) | Imaging system for microscope, exposure adjustment program, and exposure adjustment method | |
JP2010272097A (en) | Device, method and program for measuring green coverage rate | |
US8854501B2 (en) | Image processing apparatus and image processing method for processing spectral image data | |
CN107529726A (en) | Check device, inspection method and program | |
Schwalbe et al. | Hemispheric image modeling and analysis techniques for solar radiation determination in forest ecosystems | |
KR20160061251A (en) | Image processing apparatus and method | |
US20180152649A1 (en) | Image processing apparatus, image pickup apparatus, image processing method, and storage medium | |
US9041815B2 (en) | Digital camera imaging evaluation module | |
JP3981744B2 (en) | Image correction method and image correction apparatus | |
WO2013114802A1 (en) | Image processing device, image processing method therefor, computer program, and image processing system | |
JP2006030014A (en) | Color estimation system and color estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6443230 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |