WO2024095766A1 - 穀粒判別システム - Google Patents

穀粒判別システム Download PDF

Info

Publication number
WO2024095766A1
WO2024095766A1 PCT/JP2023/037593 JP2023037593W WO2024095766A1 WO 2024095766 A1 WO2024095766 A1 WO 2024095766A1 JP 2023037593 W JP2023037593 W JP 2023037593W WO 2024095766 A1 WO2024095766 A1 WO 2024095766A1
Authority
WO
WIPO (PCT)
Prior art keywords
discrimination
imaging means
grains
grain
kernel
Prior art date
Application number
PCT/JP2023/037593
Other languages
English (en)
French (fr)
Inventor
恵久 中田
宏明 竹内
Original Assignee
株式会社サタケ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社サタケ filed Critical 株式会社サタケ
Publication of WO2024095766A1 publication Critical patent/WO2024095766A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/85Investigating moving fluids or granular solids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/05Agriculture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/20Analytics; Diagnosis

Definitions

  • the present invention relates to a grain identification system that uses a terminal and a server.
  • a grain inspection system such as that disclosed in Patent Document 1 has been known for the purpose of inexpensively identifying grains.
  • This grain inspection system is composed of a mobile terminal such as a smartphone equipped with a camera, a display unit, and a communication means, and a management device connected to the mobile terminal via the Internet, and the management device is operated on the cloud.
  • the grain sample is photographed using a camera mounted on a mobile terminal, and the captured grain sample image is sent to a management device.
  • the grain sample image sent to the management device is processed by the management device, and the quality of the grain is determined using a discrimination method using AI.
  • the obtained discrimination result is sent from the management device to the mobile terminal and displayed on a display unit mounted on the mobile terminal.
  • the user may set their own discrimination criteria. For example, the user may set numerical values such as the length, width or thickness of the grain as discrimination criteria for each type of grain. Therefore, a discrimination method using a simple algorithm that sets a discrimination threshold has the advantage that the settings can be easily changed.
  • the present invention aims to provide a grain classification system that can determine the quality of grains more accurately and efficiently than conventional systems.
  • an embodiment of the present invention provides a grain discrimination system that includes an imaging means capable of capturing images of grains placed on a tray, a server capable of communicating with the imaging means and receiving captured images of the grains from the imaging means to discriminate the quality of the grains, and a terminal capable of communicating with the server and controlling the imaging of the imaging means via the server, and displaying and outputting the discrimination results of the grains received from the server.
  • the server is equipped with a discrimination means for discriminating the quality of the grains, and the discrimination means has a first discrimination method for discriminating the quality of the grains by artificial intelligence using a learning model, and a second discrimination method for discriminating the quality of the grains by using a simple algorithm, and is capable of selecting at least one of the first discrimination method and the second discrimination method.
  • the first discrimination method targets a first discrimination item that allows easy discrimination of the kernel
  • the second discrimination method is directed to a second discrimination item in which it is difficult to discriminate the kernels.
  • the first discrimination items include at least one of the following: cracked grains, green immature grains, broken grains, dead green rice, fully colored grains, and brown rice
  • the second discrimination items include at least one of the following: milky white grains, base immature grains, dorsal and ventral white grains, dead white rice, partially colored grains, regular grains, deformed grains, germinated grains, rotten grains, and immature grains that are difficult to distinguish from the green immature and base immature grains.
  • the discrimination means includes a measurement value calculation means for calculating a predetermined measurement value from the captured image of the kernel, and a discrimination score value calculation means for calculating a discrimination score value by artificial intelligence using the learning model.
  • a measurement value calculation means for calculating a predetermined measurement value from the captured image of the kernel
  • a discrimination score value calculation means for calculating a discrimination score value by artificial intelligence using the learning model.
  • the imaging means has unique identification information specific to each imaging means, and the terminal is capable of inputting the unique identification information and linking it to the imaging means to control the imaging means.
  • a grain discrimination system is configured with an imaging means capable of capturing images of grains, a server capable of determining the quality of the grains based on the captured images of the grains, and a terminal capable of controlling the imaging of the imaging means via the server and displaying and outputting the results of grain discrimination.
  • the user can control everything from the imaging means to displaying the results of kernel classification on the terminal, making it possible to determine the quality of kernels more accurately and efficiently than ever before.
  • the embodiment of the invention related to (2) above there is a first discrimination method that discriminates the quality of grains by artificial intelligence using a learning model, and a second discrimination method that discriminates the quality of grains by using a simple algorithm, and at least one of the discrimination methods can be selected, so that it is possible to discriminate the quality of grains with high accuracy and efficiency according to the discrimination items of the grains.
  • the first discrimination item by the first discrimination method includes at least one of the following: cracked grains, green immature grains, broken grains, dead green rice, fully colored grains, and brown rice
  • the second discrimination item by the second discrimination method includes at least one of the following: milky white grains, base immature grains, dorsal and ventral white grains, dead white rice, partially colored grains, regular grains, deformed grains, germinated grains, rotten grains, and immature grains that are difficult to distinguish other than the green immature and base immature grains. This makes it possible to discriminate the quality of grains more accurately and efficiently than before, depending on the difficulty of discrimination for each discrimination item.
  • the terminal is linked to the imaging means by inputting the unique identification information of the imaging means, and is able to control the imaging means. Therefore, it becomes possible for a user to appropriately connect to and control any imaging means using their own terminal (e.g., a smartphone), making it possible to accurately and efficiently determine the quality of grains with an inexpensive system configuration.
  • their own terminal e.g., a smartphone
  • FIG. 1 is a schematic configuration diagram of a grain discrimination system according to an embodiment of the present invention.
  • FIG. 2 is a cross-sectional view of an imaging unit in the present embodiment.
  • FIG. 2 is a schematic block diagram of a management unit of the cloud server in the present embodiment.
  • FIG. 4 is a flow diagram illustrating a kernel discrimination mode in the present embodiment.
  • FIG. 4 is a flow diagram illustrating an example of an imaging mode of the imaging means in the present embodiment.
  • FIG. 4 is an explanatory diagram showing discrimination items for each discrimination method in the embodiment.
  • FIG. 4 is a flow diagram illustrating a kernel discrimination mode in the present embodiment.
  • FIG. 1 shows a schematic diagram of a grain discrimination system 100 in this embodiment.
  • the grain discrimination system 100 is composed of at least an imaging means 1 capable of capturing images of grains 2 placed on a tray 50, a cloud server 70 capable of communicating with the imaging means 1 and receiving captured images of the grains 2 from the imaging means 1 to discriminate the quality of the grains 2, and a terminal 60 capable of communicating with the cloud server 70 and controlling the imaging of the imaging means 1 via the cloud server 70 and displaying and outputting the discrimination results of the grains 2 received from the cloud server 70.
  • the tray 50 in this embodiment uses a grain discrimination plate as described in JP 2014-109567 A. This grain discrimination plate has a transparent bottom. A grain discrimination plate called a carton can also be used for the tray 50.
  • a user's own smartphone can be used as the terminal 60, and the quality of the kernels 2 can be determined using a web application that has been downloaded to the terminal 60 in advance.
  • the terminal 60 is not limited to a smartphone, but may be a PDA, tablet terminal, notebook PC, desktop PC, etc. In particular, a terminal with excellent portability is preferably used.
  • the user Before judging the quality of the grain 2 sample, the user links the imaging means 1 to be used with the terminal 60. That is, the imaging means 1 has unique identification information specific to each imaging means, and the imaging means 1 is linked by inputting the unique identification information to the terminal 60. This makes it possible to control the imaging means 1 with the terminal 60.
  • a two-dimensional code displayed on the imaging means 1 may be read by a camera mounted on the terminal 60, or an ID individually assigned to the imaging means 1 may be keyed into the terminal 60. Also, a selection may be made from a number of imaging means 1 registered in advance and displayed on the terminal 60.
  • the user uses the web application of the terminal 60 to input the type, variety, sample information, etc. of the grain 2 to be identified, and issues an instruction to start imaging by the imaging means 1.
  • the instruction to start imaging is sent to the imaging means 1 via the cloud server 70.
  • the image captured by the imaging means 1 is sent to the cloud server 70, where the quality determination described below is performed.
  • the determination results of the grain 2 are then sent to the terminal 60.
  • the grain 2 may be imaged first, and the type, variety, and sample information of the grain 2 may be input to the image obtained by imaging.
  • the cloud server 70 is used in this embodiment, the use of cloud computing technology is not necessarily limited to this type, and it is also possible to use, for example, a normal server installed in the business premises where the terminal 60 is used or in a related company.
  • FIG. 2 shows a cross-sectional view of the imaging means 1 in this embodiment.
  • the imaging means 1 is capable of irradiating light onto a grain 2 and capturing images of the grain 2 from above and below.
  • the imaging means 1 can be used to determine the quality of grains such as rice, wheat, beans, and corn.
  • the grain discrimination system 100 in this embodiment discriminates granular objects such as rice, wheat, beans, and corn.
  • the imaging means 1 is mainly composed of an upper housing 12 and a lower housing 13.
  • the kernels 2 to be identified are placed in a dish-shaped transparent tray 50, which is placed on an open circular mounting section 14.
  • An upper camera 3a capable of capturing images of the kernels 2 from above is attached inside the upper housing 12.
  • a lower camera 3b capable of capturing images of the kernels 2 from below is attached inside the lower housing 13.
  • a lower opening 15 is formed above the lower camera 3b.
  • an upper light source 30 is provided diagonally above the tray 50, and multiple white LEDs are provided as light-emitting units.
  • a first lower light source 40 and a second lower light source 20 are provided diagonally below the tray 50.
  • the first lower light source 40 has multiple white LEDs as light-emitting units facing downward.
  • the second downward light source 20 has a number of white LEDs 21 as light-emitting elements that are arranged facing a cylindrical lens 22. More specifically, the white LEDs 21 and the cylindrical lens 22 are arranged inside a reflector with a U-shaped cross section. Direct light from the white LEDs 21 is then irradiated onto the bottom surface of the tray 50 via the cylindrical lens 22 at the angle shown in FIG. 2. With this configuration, light can be irradiated obliquely from below onto the kernels 2 placed on the bottom surface of the tray 50, making it particularly effective for detecting cracks in the kernels.
  • the upper light source 30, the first lower light source 40, and the second lower light source 20 are not necessarily limited to white LEDs, but may be a combination of single-color LEDs of R (red), G (green), and B (blue).
  • FIG. 3 shows a schematic block diagram of the management means in the cloud server 70 in this embodiment.
  • the management means is equipped with at least an image processing unit 71 capable of image processing of the captured image received from the imaging means 1, a quality discrimination unit 72 capable of calculating various measurement values from the processed image of the kernels 2 image-processed by the image processing unit 71 and discriminating the quality of the kernels 2, a control unit 73 capable of controlling various devices constituting the kernel discrimination system 100, and an input/output port 74 that is connected to a communication line and through which various signals are input and output from the imaging means 1 and the terminal 60.
  • a storage unit (not shown) for storing necessary data may also be provided.
  • the imaging means 1 is connected to the cloud server 70 after being started by the user and undergoing a predetermined setting operation.
  • the imaging means 1 is connected to the cloud server 70 using a web application on the terminal 60 after being started by the user and undergoing a predetermined setting operation.
  • the imaging means 1 used from the web application is linked to the terminal 60. This linking process is performed by inputting the unique identification information of the imaging means 1 into the terminal 60 as described above (step S100).
  • step S110 using the web application on the terminal 60, the type and variety of the grains 2 to be identified, sample information, etc. are input, and an instruction to start imaging by the imaging means 1 is given (step S110). Then, upon receiving the instruction to start imaging, the imaging means 1 performs imaging of the grains 2 placed on the tray 50 by the user (step S120).
  • the upper light source 30 of the imaging means 1 is turned on and the surface reflection image is captured by the upper camera 3a (step S121).
  • the captured image is used to distinguish between immature grains, broken grains, colored grains, etc.
  • the four second lower light sources 20 of the imaging means 1 are turned on in sequence at 90° intervals, and four images of the broken kernels are captured by the upper camera 3a (step S122). The captured images are used to identify the broken kernels.
  • step S123 all four second lower light sources 20 of the imaging means 1 are turned on simultaneously, and a surface transmission image is captured by the upper camera 3a (step S123).
  • the captured image is used to distinguish between immature grains and dead grains, together with the surface reflection image described above (step S121).
  • step S124 all four second lower light sources 20 of the imaging means 1 are turned on simultaneously, and the lower camera 3b captures a back-reflected image (step S124).
  • the captured image is used to identify colored grains on the back side of the kernel 2.
  • the imaging means 1 performs color correction and distortion correction on each captured image, and the four cut-out images are synthesized at that time.
  • Each captured image is sent to the cloud server 70 as data such as an image file or an Ini file (step S130). Note that the color correction, distortion correction, and synthesis of the cut-out images may be performed on the cloud server 70 side.
  • Each captured image sent from the imaging means 1 is subjected to discrimination processing in the cloud server 70.
  • the four captured images namely the front reflection image (step S121), the body split image (step S122), the front transmission image (step S123), and the back reflection image (step S124), (1) identification of the kernel 2 (recognition of the image of each kernel) and class classification, (2) matching of each kernel 2, (3) kernel determination in a class with a higher priority than the discrimination result of each kernel 2, and (4) calculation of the length, width, area, whiteness, etc. of each kernel 2 from the segmentation data, etc. are performed. Note that the above (2) is to match the image of each kernel 2 in any one of the four captured images with the image of the kernel 2 in the remaining three captured images.
  • the cloud server 70 is capable of tallying up the total kernels, weight ratios and kernel count ratios for each class, and the number of kernels by category based on each calculated data. It is also capable of calculating histograms of length, width, area, whiteness, etc., as well as calculating average values and standard deviations. These are configured to be stored in a database constructed in a storage unit (not shown).
  • step S140 the determination result including each of the above-mentioned calculated data etc. is transmitted to the terminal 60 (step S140), and the determination result is displayed via the web application of the terminal 60 in response to the user's operation (step S150).
  • the quality discrimination unit 72 of the cloud server 70 of this embodiment is capable of automatically discriminating the quality of the kernels 2 by using a first discrimination method that discriminates the quality of the kernels 2 by artificial intelligence using a learning model, and a second discrimination method that discriminates the quality of the kernels 2 by using a simple algorithm.
  • the first discrimination method is targeted at the first discrimination item that allows easy discrimination of the kernel 2, and is capable of discriminating at least one of the following: cracked kernels, green immature kernels, broken kernels, dead green rice, fully colored kernels, and brown rice.
  • it is a method of discrimination by a simple algorithm that uses information such as the length, width, thickness, and color of the kernel 2.
  • the second discrimination method is targeted at the second discrimination item for which discrimination of the grains 2 is difficult, and is capable of discriminating at least any of the following: milky white grains, base immature grains, dorsal and ventral white grains, white dead rice, partially colored grains, regular grains, deformed grains, germinated grains, rotten grains, and grains other than the green immature and base immature grains mentioned above.
  • each discrimination item in the first and second discrimination methods described above is merely one example of classification, and it is possible to freely set whether to discriminate using the first or second discrimination method for each discrimination item.
  • the quality discrimination unit 72 of the cloud server 70 also includes a measurement value calculation means for calculating a predetermined measurement value from the captured image of the kernel 2, and a discrimination score value calculation means for calculating a discrimination score value by artificial intelligence using a learning model.
  • the quality of the predetermined measurement value calculated by the measurement value calculation means is judged based on whether it falls between a lower limit and an upper limit of the measurement value, which are preset discrimination thresholds. Also, the quality of the discrimination score value calculated by the discrimination score value calculation means is judged based on whether it falls between a lower limit and an upper limit of the discrimination score value, which are preset discrimination thresholds.
  • FIG. 7 shows a flow diagram of an example of the discrimination process in the cloud server 70.
  • the four captured images transmitted from the imaging means 1, namely the front reflection image (step S121), the torso split image (step S122), the front transmission image (step S123), and the back reflection image (step S124) are subjected to image processing required for the discrimination process in the image processing unit 71 of the management means (step S141).
  • step S142 various measurement values and discrimination score values are calculated based on the various processed images and in accordance with the discrimination items described above. Then, it is determined whether the calculated various measurement values and discrimination score values are within a discrimination threshold range that has been set in advance as an appropriate range (for example, set lower limit ⁇ measurement value (discrimination score value) ⁇ set upper limit) (step S143).
  • a discrimination threshold range for example, set lower limit ⁇ measurement value (discrimination score value) ⁇ set upper limit
  • the quality discrimination unit 72 of the management means performs automatic discrimination of the kernel 2 (step S144). After that, various discrimination results of the kernel 2 are output (step S145).
  • the user can select whether or not to perform automatic discrimination depending on the degree of deviation of the measurement value or discrimination score value from the discrimination threshold value (step S146). If automatic discrimination is not performed, the user discriminates (manually) by, for example, visually checking the kernels 2 (step S147). Then, as a result of this discrimination (manual), the user considers whether or not it is necessary to change the lower and upper set limits of the discrimination threshold value (step S148), and if necessary, can change the lower and upper set limits of the discrimination threshold value used for automatic discrimination via the terminal 60 for the quality discrimination unit 72 (step S149).
  • step S146 if the specified measurement value or the discrimination score value generated by the artificial intelligence is near the upper or lower limit of the discrimination threshold and/or if a specified percentage or more deviates from the upper or lower limit of the discrimination threshold, an image of the kernel 2 is displayed on the terminal 60, allowing the user to visually or manually discriminate.
  • This configuration allows the user to visually confirm and discriminate difficult-to-distinguish kernels 2, making it possible to discriminate the quality of the kernels with high accuracy and efficiency.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Mining & Mineral Resources (AREA)
  • Development Economics (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Accounting & Taxation (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

トレー50に載置された穀粒2を撮像可能な撮像手段1と、前記撮像手段1と通信可能であるとともに、該撮像手段1から前記穀粒2の撮影画像を受信して該穀粒2の品位を判別可能なサーバと、前記サーバと通信可能であるとともに、該サーバを介して前記撮像手段1に対する撮像制御、及び、該サーバから受信した前記穀粒2の判別結果を表示出力することが可能な端末60と、を有する。

Description

穀粒判別システム
 本発明は、端末及びサーバを利用した穀粒判別システムに関する。
 従来、安価に穀粒を判別することを目的に、特許文献1に開示されているような穀粒検査システムが知られている。当該穀粒検査システムは、カメラ、表示部、及び通信手段を搭載したスマートフォンなどの携帯端末と、当該携帯端末とインターネットを介して接続される管理装置とから構成され、管理装置はクラウド上で運用される。
 上記穀粒検査システムで穀粒サンプルの品位を判別する際は、携帯端末に搭載されたカメラで穀粒サンプルを撮像し、撮像して得られた穀粒サンプル画像を管理装置に送信する。管理装置に送信された穀粒サンプル画像は管理装置で処理され、AIを用いた判別手法で穀粒の品位が判別される。得られた判別結果は管理装置から携帯端末に送信されて、携帯端末に搭載される表示部に表示される。
 したがって、ユーザは、スマートフォンなどの汎用の携帯端末を所有していればそれ以外の装置を導入する必要がなく、安価に穀粒の品位判別を行うことができる。
特開2022-018322号公報
 ところで、装置を用いた穀粒の判別において、ユーザが独自の判別基準を設定することがある。例えば、穀粒の長さ、幅又は厚みといった数値を、判別基準としてユーザが品種別に設定することがある。したがって、判別閾値を設ける単純アルゴリズムによる判別方法は、設定変更が容易であるという利点がある。
 しかしながら、上記特許文献1の穀粒検査システムのように、学習モデルを用いたAIによる判別方法においては、上記のような設定変更をユーザが容易に行うことが困難であるという問題がある。
 加えて、スマートフォンなどの携帯端末に搭載されるカメラは、スマートフォンのメーカ、型式、機種によって解像度や画像の色味などの仕様が異なる。そのため、それらのカメラによって撮像された穀粒の画像から、一定精度の判別結果を得ることは難しい。
 本発明は上記問題点に鑑み、従来よりも高精度かつ効率的に穀粒の品位判別を行うことが可能な穀粒判別システムを提供することを目的とする。
(1)上記課題を解決するため、本発明の実施形態は、トレーに載置された穀粒を撮像可能な撮像手段と、前記撮像手段と通信可能であるとともに、該撮像手段から前記穀粒の撮影画像を受信して該穀粒の品位を判別可能なサーバと、前記サーバと通信可能であるとともに、該サーバを介して前記撮像手段に対する撮像制御、及び、該サーバから受信した前記穀粒の判別結果を表示出力することが可能な端末と、を有することを特徴とする穀粒判別システムの構成とした。
(2)前記サーバは、前記穀粒の品位を判別する判別手段を備え、前記判別手段は、学習モデルを用いた人工知能によって前記穀粒の品位を判別する第1判別方法と、単純アルゴリズムを用いて前記穀粒の品位を判別する第2判別方法とを有し、少なくとも前記第1判別方法と前記第2判別方法とのうち、少なくともいずれかの判別方法を選択可能である。
(3)前記第1判別方法は、前記穀粒の判別が容易である第1判別項目を対象とし、
 前記第2判別方法は、前記穀粒の判別が困難である第2判別項目を対象とするものである。
(4)前記第1判別項目は、胴割粒、青未熟、砕粒、青死米、全面着色粒、茶米のうちの少なくともいずれかを含み、前記第2判別項目は、乳白粒、基部未熟粒、背腹白粒、白死米、部分着色粒、整粒、奇形粒、発芽粒、芽くされ粒、前記青未熟及び前記基部未熟粒以外の判別が困難な未熟粒のうちの少なくともいずれかを含む。
(5)前記判別手段は、前記穀粒の撮影画像から所定の測定値を算出する測定値算出手段と、前記学習モデルを用いた人工知能によって判別スコア値を算出する判別スコア値算出手段と、を備え、前記所定の測定値又は前記判別スコア値が、判別閾値の近傍にある場合、及び/又は、所定の割合以上判別閾値を逸脱する場合に、前記端末に前記穀粒の画像を表示してユーザによる判別が可能である。
(6)前記撮像手段は、個々の撮像手段固有の固有識別情報を有し、前記端末は、前記固有識別情報を入力可能であるとともに、前記撮像手段と紐付けて該撮像手段を制御することが可能である。
 上記(1)に係る発明の実施形態によれば、穀粒を撮像可能な撮像手段と、穀粒の撮影画像に基づいて当該穀粒の品位を判別可能なサーバと、当該サーバを介して前記撮像手段に対する撮像制御や、穀粒の判別結果を表示出力することが可能な端末とによって穀粒判別システムが構成されている。これにより、従来のスマートフォン搭載のカメラによる画像に比べ、同一仕様の撮像手段で穀粒を撮像することができるので、均一な画像品質を有する穀粒の画像を得ることが可能となる。
 また、端末において、撮像手段に対する撮像制御から穀粒の判別結果の表示出力までユーザの手元で行うことが可能であるため、従来に比べて高精度かつ効率的に穀粒の品位判別を行うことが可能となる。
 上記(2)に係る発明の実施形態によれば、学習モデルを用いた人工知能によって穀粒の品位を判別する第1判別方法と、単純アルゴリズムを用いて穀粒の品位を判別する第2判別方法とを有して、少なくともいずれかの判別方法を選択可能に構成したので、穀粒の判別項目に応じて高精度かつ効率的に穀粒の品位判別を行うことが可能となる。
 上記(3)に係る発明の実施形態によれば、判別項目ごとの判別の難易度に応じて、上記第1判別方法又は上記第2判別方法を選択することが可能である。これにより、穀粒の判別項目に応じて、従来よりも高精度かつ効率的に穀粒の品位判別を行うことが可能となる。
 上記(4)に係る発明の実施形態によれば、上記第1判別方法による第1判別項目は、胴割粒、青未熟、砕粒、青死米、全面着色粒、茶米のうちの少なくともいずれかを含み、上記第2判別方法による第2判別項目は、乳白粒、基部未熟粒、背腹白粒、白死米、部分着色粒、整粒、奇形粒、発芽粒、芽くされ粒、上記青未熟及び上記基部未熟粒以外の判別が困難な未熟粒のうちの少なくともいずれかを含むように構成したので、判別項目ごとの判別の難易度に応じて、従来よりも高精度かつ効率的に穀粒の品位判別を行うことが可能となる。
 上記(5)に係る発明の実施形態によれば、穀粒の撮影画像から算出された所定の測定値又は学習モデルを用いた人工知能によって算出された判別スコア値が、判別閾値の近傍にある場合、及び/又は、所定の割合以上判別閾値を逸脱する場合に、端末に穀粒の画像を表示してユーザによる判別を可能にしている。このような構成により、判別が困難な穀粒に対して、ユーザが目視確認して判別することが可能となり、高精度かつ効率的に穀粒の品位判別を行うことが可能となる。
 上記(6)に係る発明の実施形態によれば、端末は、撮像手段の固有識別情報が入力されることで、上記撮像手段との紐付けが行われ、当該撮像手段を制御することが可能となる。したがって、ユーザが個々に所有する端末(例えば、スマートフォン)で、任意の撮像手段と適宜接続して制御することが可能となり、安価なシステム構成で高精度かつ効率的に穀粒の品位判別を行うことが可能となる。
本実施形態における穀粒判別システムの概略構成図である。 本実施形態における撮像手段の断面図である。 本実施形態におけるクラウドサーバの管理手段の概略ブロック図である。 本実施形態における穀粒の判別態様を説明するフロー図である。 本実施形態における撮像手段の撮像態様の一例を説明するフロー図である。 実施形態における判別方法別の判別項目を示した説明図である。 本実施形態における穀粒の判別態様を説明するフロー図である。
 以下、本発明の穀粒判別システムの一実施形態について、図面を用いて説明する。
 図1には、本実施形態における穀粒判別システム100の概略構成図が示されている。図示されるように、穀粒判別システム100は、トレー50に載置された穀粒2を撮像可能な撮像手段1と、撮像手段1と通信可能であるとともに、当該撮像手段1から穀粒2の撮影画像を受信して当該穀粒2の品位を判別可能なクラウドサーバ70と、クラウドサーバ70と通信可能であるとともに、当該クラウドサーバ70を介して撮像手段1に対する撮像制御と、クラウドサーバ70から受信した穀粒2の判別結果を表示出力することが可能な端末60とから少なくとも構成されている。なお、本実施形態におけるトレー50は、特開2014-109567号に記載されているような穀物鑑定皿を使用している。この穀物鑑定皿は透明な底面を有するものである。また、トレー50に、カルトンと呼ばれる穀粒鑑定皿を使用することもできる。
 より詳細に説明すると、ユーザが所有するスマートフォンを端末60として利用することが可能であり、予め端末60にダウンロードしたwebアプリケーションによって穀粒2の品位判別を行うことが可能である。
 なお、端末60はスマートフォンに限定されるものではなく、PDAやタブレット端末、ノート型PC、デスクトップPCなどを利用することが可能である。特に可搬性に優れたものが好適に利用可能である。
 ユーザは穀粒2のサンプルの品位判別に先立って、使用する撮像手段1と端末60との紐付けを行う。すなわち、撮像手段1は、個々の撮像手段固有の固有識別情報を有しており、端末60に固有識別情報を入力することによって、撮像手段1との紐付けが行われる。これにより、端末60によって撮像手段1を制御することが可能となる。
 なお、端末60への固有識別情報の入力方法としては、端末60に搭載されたカメラによって、撮像手段1に表示された二次元コードを読み取るようにしてもよいし、撮像手段1に個別に付与されたIDを端末60にキー入力するようにしてもよい。また、端末60に表示される予め登録されている複数の撮像手段1から、選択操作するようにしてもよい。
 続いて、ユーザは端末60のwebアプリケーションを利用して判別対象の穀粒2の種類や品種、サンプル情報などを入力して、撮像手段1による撮像開始の指示等を行う。撮像開始の指示等は、クラウドサーバ70を介して撮像手段1に送信される。撮像手段1で撮像した撮影画像は、クラウドサーバ70へ送信され、後述する品位判別が行われる。その後、穀粒2の判別結果等は端末60へ送信される。なお、先に穀粒2を撮像し、撮像して得た画像に穀粒2の種類や品種、サンプル情報を入力するように構成してもよい。また、本実施形態ではクラウドサーバ70を利用しているが、必ずしも、このようなクラウドコンピューティング技術の利用に限定されるものではなく、例えば、端末60を使用する事業所内や、関係企業内に設置された通常のサーバを利用することも可能である。
 図2には、本実施形態における撮像手段1の断面図が示されている。撮像手段1は、穀粒2に光を照射し、当該穀粒2を上方及び下方から撮像することが可能である。撮像手段1は、米、麦、豆類、コーンなどの穀粒の品質を判別するために使用することができる。なお、本実施形態における穀粒判別システム100は、米、麦、豆類、コーンなどの粒状物を判別するものである。
 撮像手段1は、図示されるように、上部筐体12と、下部筐体13とから主に構成されている。判別対象となる穀粒2は、皿形状の透明なトレー50に入れられ、当該トレー50は開口する円形載置部14に載置される。そして、上部筐体12の内部には、穀粒2を上方から撮像可能な上方カメラ3aが取り付けられている。下部筐体13の内部には、穀粒2を下方から撮像可能な下方カメラ3bが取り付けられている。さらに、下方カメラ3bの上方には下部開口15が形成されている。
 また、トレー50の斜め上方には、上方光源30が設けられ、発光部としての複数の白色LEDが設けられている。トレー50の斜め下方には、第1下方光源40と第2下方光源20が設けられている。第1下方光源40は、発光部としての複数の白色LEDが下方に向けて設けられている。
 上記第2下方光源20は、発光部としての複数の白色LED21がシリンドリカルレンズ22に向けて設けられている。より詳細に説明すると、断面がU型のリフレクタ内に、白色LED21とシリンドリカルレンズ22が設けられている。そして、図2に示される角度で、白色LED21からの直接光がシリンドリカルレンズ22を介してトレー50の底面に照射される。このように構成することで、トレー50の底面に載置された穀粒2に対して斜め下方から光を照射することができ、特に米粒の胴割れの検出を効果的に行うことができる。
 なお、上方光源30、第1下方光源40及び第2下方光源20は必ずしも白色LEDに限定されるものではなく、R(赤色)、G(緑色)、B(青色)の単色LEDを組み合わせたものとすることが可能である。
 続いて、図3には本実施形態におけるクラウドサーバ70における管理手段の概略ブロック図が図示されている。管理手段は、撮像手段1から受信した撮影画像を画像処理することが可能な画像処理部71と、画像処理部71で画像処理された穀粒2の処理画像から、種々の測定値を算出するとともに、当該穀粒2の品位を判別することが可能な品位判別部72と、穀粒判別システム100を構成する各種デバイスを制御することが可能な制御部73と、通信回線と接続されるとともに、撮像手段1及び端末60から各種信号が入出力する入出力ポート74とが、少なくとも備えられている。なお、必要なデータを保存する不図示の記憶部を備えるようにしてもよい。
 続いて、図4のフロー図に基づいて、穀粒判別システム100による処理フローを説明する。まず、撮像手段1は、ユーザによる起動から所定の設定操作を経てクラウドサーバ70に接続される。併せて、ユーザによる起動から所定の設定操作を経て端末60のwebアプリケーションを利用して、クラウドサーバ70と接続される。その後、webアプリケーションから使用する撮像手段1と端末60との紐付けを行う。当該紐付け処理は、前述したように端末60に撮像手段1の固有識別情報を入力することによって行う(ステップS100)。
 続いて、端末60のwebアプリケーションを利用して、判別対象の穀粒2の種類や品種、サンプル情報などを入力して、撮像手段1による撮像開始の指示等を行う(ステップS110)。そして、撮像開始の指示を受けた撮像手段1は、ユーザによってトレー50に載置された穀粒2の撮像を実行する(ステップS120)。
 図5のフロー図に示されるように、本実施形態では、まず撮像手段1の上方光源30を点灯して上方カメラ3aによる表反射画像の撮像を行う(ステップS121)。撮像された撮影画像は、未熟粒、砕粒、着色粒等の判別に利用される。
 次に、撮像手段1の4つの第2下方光源20を90度毎順次点灯させて、上方カメラ3aによる4枚の胴割画像の撮像を行う(ステップS122)。撮像された撮影画像は、胴割粒の判別に利用される。
 次に、撮像手段1の4つの第2下方光源20を全て同時に点灯させて、上方カメラ3aによる表透過画像の撮像を行う(ステップS123)。撮像された撮影画像は、前述の表反射画像(ステップS121)と合わせて、未熟粒と死米の判別に利用される。
 次に、撮像手段1の4つの第2下方光源20を全て同時に点灯させて、下方カメラ3bによる裏反射画像の撮像を行う(ステップS124)。撮像された撮影画像は穀粒2の裏面にある着色粒の判別に利用される。
 続いて、図4に示されるように、撮像手段1では撮像された各撮影画像において色補正や歪補正が行われ、その際に4枚の胴割画像は合成される。これらの各撮影画像は画像ファイルやIniファイルなどのデータとしてクラウドサーバ70へ送信される(ステップS130)。なお、上記色補正、歪補正、及び胴割画像の合成は、クラウドサーバ70側で行うようにしてもよい。
 撮像手段1から送信された各撮影画像は、クラウドサーバ70で判別処理が行われる。本実施形態では、表反射画像(ステップS121)、胴割画像(ステップS122)、表透過画像(ステップS123)及び裏反射画像(ステップS124)の4つの撮影画像から、(1)穀粒2の特定(各穀粒の画像の認識)とクラス分類、(2)各穀粒2のマッチング、(3)各穀粒2の判別結果より優先順位の高いクラスでの粒判定、(4)セグメンテーションデータから各穀粒2の長さ・幅・面積・白度などの算出等が行われる。なお、上記(2)は、前記4つの撮影画像において、いずれか一つの撮影画像における各穀粒2の画像を、残りの3つの撮影画像の穀粒2の画像と適合させることである。具体的には、ある穀粒Aの画像を、4つの撮影画像でそれぞれ認識させることである。また、本実施形態では、一つの穀粒2について、前記4つの撮影画像毎にクラス分類を行う。このため、一つの穀粒2が、それぞれの撮影画像で異なるクラスに分類される可能性がある。この様な場合のために、上記(3)において、各クラスに優先順位を設け、優先順位の高いクラスの判別結果を優先するようにしている。
 また、クラウドサーバ70では、各算出データに基づいて、全粒、クラスごとの重量比や粒数比、カテゴリ別の粒数を集計することが可能となっている。さらに、長さ・幅・面積・白度などのヒストグラム算出や、平均値と標準偏差の算出も可能となっている。そしてこれらは、不図示の記憶部に構築したデータベースに格納されるように構成されている。
 そして、上記した各算出データ等を含む判別結果は、端末60へ送信され(ステップS140)、ユーザの操作に応じて、端末60のwebアプリケーションを介して判別結果が表示出力される(ステップS150)。
 続いて、本実施形態における自動判別方法について説明する。
 本実施形態のクラウドサーバ70の品位判別部72は、穀粒2の品位を判別する方法として、学習モデルを用いた人工知能によって穀粒2の品位を判別する第1判別方法と、単純アルゴリズムを用いて穀粒2の品位を判別する第2判別方法とを併用して穀粒2を自動判別することが可能となっている。
 すなわち、図6に示されるよう、単純アルゴリズムによる自動判別と、AIにより自動判別のハイブリッド自動判別が可能となっている。そして、自動判別する判別項目に応じて、これら二つの方法のうち、いずれかの判別方法を選択することが可能である。
 より詳細に説明すると、上記第1判別方法は、穀粒2の判別が容易である第1判別項目を対象としており、例えば、胴割粒、青未熟、砕粒、青死米、全面着色粒、茶米のうちの少なくともいずれかを判別することが可能である。すなわち、穀粒2の長さ、幅、厚み、色情報等を用いた単純アルゴリズムによって判別する方法である。
 一方、上記第2判別方法は、穀粒2の判別が困難である第2判別項目を対象としており、例えば、乳白粒、基部未熟粒、背腹白粒、白死米、部分着色粒、整粒、奇形粒、発芽粒、芽くされ粒、上記した青未熟及び基部未熟粒以外のうちの少なくともいずれかを判別することが可能である。このような構成により、判別項目ごとの判別の難易度に応じて、従来よりも高精度かつ効率的に穀粒2の品位判別を行うことが可能となっている。なお、上記した第1判別方法及び第2判別方法における各判別項目は、あくまでも項目分けの一例であり、それぞれの判別項目ごとに、第1判別方法と第2判別方法のどちらで判別するのかを自由に設定することが可能である。
 また、クラウドサーバ70の品位判別部72は、穀粒2の撮影画像から所定の測定値を算出する測定値算出手段と、学習モデルを用いた人工知能によって判別スコア値を算出する判別スコア値算出手段とを備えている。
 そして、上記測定値算出手段によって算出された所定の測定値は、予め設定された判別閾値である測定値の設定下限及び設定上限の間に入るか否かによって品位の判別が行われる。また、上記判別スコア値算出手段によって算出された判別スコア値は、予め設定された判別閾値である判別スコア値の設定下限及び設定上限の間に入るか否かによって品位の判別が行われる。
 続いて図7には、クラウドサーバ70における判別処理の一例がフロー図で示されている。図示されるように、撮像手段1から送信された表反射画像(ステップS121)、胴割画像(ステップS122)、表透過画像(ステップS123)及び裏反射画像(ステップS124)の4つの撮影画像は、管理手段の画像処理部71で判別処理に必要な画像処理が行われる(ステップS141)。
 続いて、各種処理画像に基づいて、前述した判別項目に応じて、各種の測定値や判別スコア値が算出される(ステップS142)。そして、算出された各種測定値や判別スコア値は、予め適正範囲として設定された判別閾値の範囲内(例えば、設定下限<測定値(判別スコア値)<設定上限)であるか否かが判定される(ステップS143)。
 測定値や判別スコア値が設定された判別閾値の範囲内である場合は、管理手段の品位判別部72で穀粒2の自動判別が実行される(ステップS144)。その後、穀粒2の各種判別結果が出力される(ステップS145)。
 一方、ステップS143において、測定値や判別スコア値が設定された上記判別閾値の範囲外である場合は、ユーザが測定値や判別スコア値の判別閾値に対する逸脱の程度に応じて、自動判別するか否かが選択可能となっている(ステップS146)。自動判別をしない場合は、ユーザが穀粒2を目視確認するなどして判別(手動)する(ステップS147)。そして、当該判別(手動)の結果、ユーザは判別閾値の設定下限及び設定上限の変更要否を検討し(ステップS148)、必要があれば、端末60を介して、品位判別部72に対し、自動判別する際の判別閾値の設定下限及び設定上限を変更(ステップS149)することが可能となっている。
 より詳細に説明すると、上記ステップS146においては、所定の上記測定値、又は、人工知能による上記判別スコア値が、判別閾値の設定上限や、設定下限の近傍にある場合、及び/又は、所定の割合以上が判別閾値の設定上限や設定下限を逸脱する場合に、端末60に穀粒2の画像を表示して、ユーザの目視等による判別(手動)が可能となっている。このような構成により、判別が困難な穀粒2に対して、ユーザが目視確認して判別することが可能となり、高精度かつ効率的に穀粒の品位判別を行うことが可能となる。
 以上、本発明のいくつかの実施形態について説明したが、上記した発明の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得るとともに、本発明にはその均等物が含まれる。また、上述した課題の少なくとも一部を解決できる範囲、または、効果の少なくとも一部を奏する範囲において、請求の範囲および明細書に記載された各構成要素の組み合わせ、又は、省略が可能である。
 1    撮像手段
 2    穀粒
 3a   上方カメラ
 3b   下方カメラ
 11   トレー配置筐体
 12   上部筐体
 13   下部筐体
 14   円形載置部
 15   下部開口
 16   上部開口
 17   周囲開口
 20   第2下方光源
 21   白色LED
 22   シリンドリカルレンズ
 30   上方光源
 40   第1下方光源
 50   トレー
 60   端末
 70   クラウドサーバ
 71   画像処理部
 72   品位判別部
 73   制御部
 74   入出力ポート
 100  穀粒判別システム

Claims (6)

  1.  トレーに載置された穀粒を撮像可能な撮像手段と、
     前記撮像手段と通信可能であるとともに、該撮像手段から前記穀粒の撮影画像を受信して該穀粒の品位を判別可能なサーバと、
     前記サーバと通信可能であるとともに、該サーバを介して前記撮像手段に対する撮像制御、及び、該サーバから受信した前記穀粒の判別結果を表示出力することが可能な端末と、を有する
     ことを特徴とする穀粒判別システム。
  2.  前記サーバは、前記穀粒の品位を判別する判別手段を備え、
     前記判別手段は、
     学習モデルを用いた人工知能によって前記穀粒の品位を判別する第1判別方法と、単純アルゴリズムを用いて前記穀粒の品位を判別する第2判別方法とを有し、少なくとも前記第1判別方法と前記第2判別方法とのうち、少なくともいずれかの判別方法を選択可能である
     ことを特徴とする請求項1に記載の穀粒判別システム。
  3.  前記第1判別方法は、前記穀粒の判別が容易である第1判別項目を対象とし、
     前記第2判別方法は、前記穀粒の判別が困難である第2判別項目を対象とするものである
     ことを特徴とする請求項2に記載の穀粒判別システム。
  4.  前記判別手段は、
     前記穀粒の撮影画像から所定の測定値を算出する測定値算出手段と、
     前記学習モデルを用いた人工知能によって判別スコア値を算出する判別スコア値算出手段と、を備え、
     前記所定の測定値又は前記判別スコア値が、判別閾値の近傍にある場合、及び/又は、所定の割合以上判別閾値を逸脱する場合に、前記端末に前記穀粒の画像を表示してユーザによる判別が可能である
     ことを特徴とする請求項1乃至3のうちいずれか1項に記載の穀粒判別システム。
  5.  前記撮像手段は、個々の撮像手段固有の固有識別情報を有し、
     前記端末は、前記固有識別情報を入力可能であるとともに、前記撮像手段と紐付けて該撮像手段を制御することが可能である
     ことを特徴とする請求項1乃至3のうちいずれか1項に記載の穀粒判別システム。
  6.  前記撮像手段は、個々の撮像手段固有の固有識別情報を有し、
     前記端末は、前記固有識別情報を入力可能であるとともに、前記撮像手段と紐付けて該撮像手段を制御することが可能である
     ことを特徴とする請求項4に記載の穀粒判別システム。
PCT/JP2023/037593 2022-10-31 2023-10-17 穀粒判別システム WO2024095766A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022174939A JP7347629B1 (ja) 2022-10-31 2022-10-31 穀粒判別システム
JP2022-174939 2022-10-31

Publications (1)

Publication Number Publication Date
WO2024095766A1 true WO2024095766A1 (ja) 2024-05-10

Family

ID=88021693

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/037593 WO2024095766A1 (ja) 2022-10-31 2023-10-17 穀粒判別システム

Country Status (2)

Country Link
JP (1) JP7347629B1 (ja)
WO (1) WO2024095766A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006245822A (ja) * 2005-03-01 2006-09-14 Konica Minolta Holdings Inc 画像配信システム
JP2015007607A (ja) * 2013-05-27 2015-01-15 株式会社ケット科学研究所 穀粒判別に用いる撮像装置・操作パネル式情報端末、該撮像装置と操作パネル式情報端末とを組み合わせた穀粒判別システム、該穀粒判別システムのアプリケーションプログラム及び記憶媒体
JP2018169991A (ja) * 2017-03-30 2018-11-01 電通アイソバー株式会社 食料評価装置、食料評価プログラム、食料評価方法、植物評価装置、植物評価プログラム、植物評価方法
JP2021062315A (ja) * 2019-10-10 2021-04-22 株式会社サタケ 穀物検査装置及び該装置を利用した栽培管理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006245822A (ja) * 2005-03-01 2006-09-14 Konica Minolta Holdings Inc 画像配信システム
JP2015007607A (ja) * 2013-05-27 2015-01-15 株式会社ケット科学研究所 穀粒判別に用いる撮像装置・操作パネル式情報端末、該撮像装置と操作パネル式情報端末とを組み合わせた穀粒判別システム、該穀粒判別システムのアプリケーションプログラム及び記憶媒体
JP2018169991A (ja) * 2017-03-30 2018-11-01 電通アイソバー株式会社 食料評価装置、食料評価プログラム、食料評価方法、植物評価装置、植物評価プログラム、植物評価方法
JP2021062315A (ja) * 2019-10-10 2021-04-22 株式会社サタケ 穀物検査装置及び該装置を利用した栽培管理システム

Also Published As

Publication number Publication date
JP2024065866A (ja) 2024-05-15
JP7347629B1 (ja) 2023-09-20

Similar Documents

Publication Publication Date Title
CA2681817C (en) Lumber inspection method, device and program
CN110726724A (zh) 缺陷检测方法、系统和装置
CN110987938B (zh) 一种显示屏幕的自动视觉检测方法及装置
WO2019151393A1 (ja) 食品検査システム、食品検査プログラム、食品検査方法および食品生産方法
CN106996916B (zh) 一种物质鉴别方法
US20200090314A1 (en) System and method for determining a condition of an object
JP6490365B2 (ja) 微生物検査装置の検証方法、微生物検査装置における検証装置及びプログラム
JP7037438B2 (ja) コロニー検出装置、コロニー検出方法、及びコロニー検出プログラム
KR102382399B1 (ko) 입상물 외관 품위 판별 장치에 있어서의 품위 판별 기준의 작성 방법
CN111712769A (zh) 用于设定照明条件的方法、装置、系统及程序以及存储介质
TW201719146A (zh) 作物之生理表徵檢測方法、可攜式檢測裝置與檢測系統
TW202242390A (zh) 缺陷檢查裝置、缺陷檢查方法以及製造方法
JP2006201130A (ja) 生籾被害粒の非破壊判定方法及びその装置
WO2024095766A1 (ja) 穀粒判別システム
JP2000180369A (ja) 穀粒品位測定方法及びその装置
JP2019192169A (ja) 判定装置、判定方法、および対象物判定プログラム
TW202134652A (zh) 確定體液中分析物濃度之方法
JP2009264876A (ja) 製品品質の検査システム及びその方法
WO2023034441A1 (en) Imaging test strips
CN112802018B (zh) 分段圆形工件的完整性检测方法、装置、设备及存储介质
CN111537447A (zh) 光谱重建方法、印刷质量的评估方法、系统及电子设备
Dehesa‐González et al. Lighting source classification applied in color images to contrast enhancement
CN109975299B (zh) 发光源检测系统与方法
CN108335283A (zh) 一种自动检测分类玻璃缺陷的方法
TWI447382B (zh) Wood inspection methods and apparatus and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23885528

Country of ref document: EP

Kind code of ref document: A1