JP7324271B2 - Multi-view imaging system and method for non-invasive inspection in food processing - Google Patents

Multi-view imaging system and method for non-invasive inspection in food processing Download PDF

Info

Publication number
JP7324271B2
JP7324271B2 JP2021507475A JP2021507475A JP7324271B2 JP 7324271 B2 JP7324271 B2 JP 7324271B2 JP 2021507475 A JP2021507475 A JP 2021507475A JP 2021507475 A JP2021507475 A JP 2021507475A JP 7324271 B2 JP7324271 B2 JP 7324271B2
Authority
JP
Japan
Prior art keywords
imaging
image data
light
support ring
conveyor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021507475A
Other languages
Japanese (ja)
Other versions
JP2021535367A (en
Inventor
メローファー,ステファン
Original Assignee
タイ ユニオン グループ パブリック カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タイ ユニオン グループ パブリック カンパニー リミテッド filed Critical タイ ユニオン グループ パブリック カンパニー リミテッド
Publication of JP2021535367A publication Critical patent/JP2021535367A/en
Application granted granted Critical
Publication of JP7324271B2 publication Critical patent/JP7324271B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/94Investigating contamination, e.g. dust
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/02Food
    • G01N33/12Meat; fish
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products

Description

本開示は、食品加工における非侵襲的検査(non-invasive inspection)に関し、より具体的には、食品の画像データを処理して内部物体の3次元モデルを決定することによって食品内の内部物体を検出するための撮像システム及び関連方法に関する。 TECHNICAL FIELD This disclosure relates to non-invasive inspection in food processing, and more particularly, to identifying internal objects within food by processing image data of the food to determine a three-dimensional model of the internal objects. Imaging systems and related methods for detection.

食品産業は、狭い利益幅で運営し、品質制御基準の向上の対象である。そのため、食品加工産業は、より高い品質制御基準を満たしつつ加工性能を向上させるように自動化システムに移行している。食品加工の態様は、とりわけ、製品への付加価値を増加させるために、二次製品からの一次製品の分離と、異物の除去とを含む。しかしながら、これらの態様では、一次及び二次製品と異物の境界が現行のシステムで識別するのは困難であることから自動化は困難である。 The food industry operates on narrow profit margins and is subject to improved quality control standards. As such, the food processing industry is moving to automated systems to improve processing performance while meeting higher quality control standards. Aspects of food processing include, among other things, the separation of the primary product from the secondary product and the removal of foreign matter in order to increase the added value to the product. However, these aspects are difficult to automate because the boundaries between primary and secondary products and foreign matter are difficult to discern in current systems.

固体-液体界面のように食品材料間に性質上の境界がある例では、二次製品からの一次製品の分離は、単純であることが多く物理的労力をあまり必要としない。食品材料が相互結合し、すなわち、固体-固体界面がある例では、切断などの能動的な物理的介入が通常は必要とされる。そのような動作を誘導及び実行するために、固体-固体界面間の正確な又は可能な最良の境界を識別することは効果的であり、それは自動化環境において、視覚によるシステムを通じて実現されることが多い。材料間の分離が必要でない場合であっても、特定の不良又は望ましくない物体の程度と同様にその存在を検出する能力は、食品の検査又は仕分け処理に大きな利点をもたらし得る。 In instances where there is a physical boundary between food ingredients, such as a solid-liquid interface, separation of the primary product from the secondary product is often simple and requires little physical effort. In instances where the food material is interconnected, ie there is a solid-solid interface, active physical intervention such as cutting is usually required. To guide and perform such actions, it is advantageous to identify the exact or best possible boundaries between solid-solid interfaces, which can be accomplished through visual systems in an automated environment. many. Even where separation between materials is not required, the ability to detect the presence as well as the extent of certain faulty or undesirable objects can provide significant advantages in food inspection or sorting processes.

例えば、米国特許第5352153号、米国特許第6563904号、米国特許第9551615号、米国特許第6587575号、米国特許第9095147号、国際公開第WO2017/093539A1号及び国際公開第WO2008/016309A1号に開示されるように、いくつかのシステムが、魚、肉、家禽、果実、野菜及び穀物を含む種々の産業のために開発されている。従来のシステムは、一般に、加工に関する情報を取得するために食品材料の迅速なスクリーニングに対して従来の撮像を適用する。しかしながら、そのようなアプローチを通じて派生する情報は、一般に、材料の視覚的な表面のみに限定される。 For example, disclosed in US Pat. No. 5,352,153, US Pat. No. 6,563,904, US Pat. No. 9,551,615, US Pat. As such, several systems have been developed for various industries including fish, meat, poultry, fruit, vegetables and grains. Conventional systems generally apply conventional imaging for rapid screening of food ingredients to obtain information regarding processing. However, information derived through such approaches is generally limited to only the visual surface of the material.

代替的技術は、物体の内部の詳細を提供するように提案されている。データが物体の表面又は内部から取り込まれたか否かに関わらず、情報は、一般に2次元フォーマットで提供される。これは、深度の認識はとりわけ関連性がないことから、又は物体の幾何学形状が一貫するため特定の想定を行うことが可能であることから、ある用途に対しては十分となり得る。ただし、3番目の次元の追加情報がとりわけ重要であるシナリオもある。例えば、3番目の次元の情報は、不規則な形状の物体の正確な分離又は除去を可能とするために、物体の配置について正確な情報を導出し又は不規則な形状の物体の幾何学形状依存性の処理をするのに有用である。 Alternative techniques have been proposed to provide details of the interior of the object. Information is generally provided in a two-dimensional format, regardless of whether the data is captured from the surface or interior of the object. This may be sufficient for some applications, either because depth perception is particularly irrelevant, or because the geometry of the object is so consistent that certain assumptions can be made. However, there are scenarios in which additional information in the third dimension is particularly important. For example, information in the third dimension can be used to derive accurate information about the placement of objects or the geometry of irregularly shaped objects to enable accurate separation or removal of irregularly shaped objects. Useful for handling dependencies.

3次元(「3D」)表面データの復元に向けて適合された解決策は、外部プロファイルの詳しい説明に限定されるものがある。他のものは、コンピュータ断層撮影法(「CT」)又は磁気共鳴画像法(「MRI」)などの容積撮像技術に基づいており、スキャンされた物体の内部構成に関するデータを提供するが、そのような技術的解決策には複数の制限がある。例えば、容積撮像技術はスピードに欠け、それは食品加工産業の狭い利益幅を考慮すると、特に大きな制限である。制限の中でもとりわけスピードの欠如は、現行のシステムを自動化された食品の加工及び仕分けのためのインライン解決策としてではなく、不規則な品質の制御検査ツールとしてより適切なものにする。 Some of the adapted solutions towards recovery of three-dimensional (“3D”) surface data are limited to detailed description of the external profile. Others are based on volumetric imaging techniques, such as computed tomography (“CT”) or magnetic resonance imaging (“MRI”), which provide data regarding the internal composition of the scanned object, although such technical solutions have several limitations. For example, volumetric imaging techniques lack speed, which is a particularly significant limitation given the narrow profit margins of the food processing industry. The lack of speed, among other limitations, makes the current system more suitable as an irregular quality control inspection tool rather than as an in-line solution for automated food processing and sorting.

本開示は、食品材料内部成分の幾何学的詳細の取込みを可能とするインライン産業用の食品加工用途のための迅速なデータ取得及び再構成を対象とする。そのようなシステムは、容積撮像技術によって提供されるものなどの内部構造の完全表示は不必要であり、むしろ粗い内部プロファイルの復元及びスピードが不可欠である用途に特に有用である。特に、ここで開示されるシステム及び方法は、2つの異なる材料の表面-表面の組合せを対象とし、第1の材料は任意の光スペクトルの部分浸透を可能とする外層を形成し、とりわけ対象のものである第2の材料すなわち内側物体は、外層に少なくとも部分的に取り囲まれ、任意の光スペクトルによる異なる範囲の浸透又は吸収を可能とする。一般に、本開示の例示的な実施形態は、光源及び画像データを取り込む撮像デバイスを含む撮像システムの使用と、内側物体の境界を決定するようにデータを再構成するための演算ステップとを含む。 The present disclosure is directed to rapid data acquisition and reconstruction for in-line industrial food processing applications that enable capture of geometric details of food material internal components. Such systems are particularly useful in applications where complete representation of internal structures is not necessary, such as those provided by volumetric imaging techniques, but rather coarse internal profile reconstruction and speed are essential. In particular, the systems and methods disclosed herein are directed to surface-to-surface combinations of two different materials, the first material forming an outer layer that allows partial penetration of any light spectrum, and in particular the A second material, the inner body, which is the object, is at least partially surrounded by the outer layer, allowing different ranges of penetration or absorption by any light spectrum. In general, exemplary embodiments of the present disclosure involve use of an imaging system that includes a light source and an imaging device that captures image data, and computational steps for reconstructing the data to determine boundaries of inner objects.

物体の内部分の境界を決定するように物体の画像データを取り込み及び処理するためのシステムの例示的な実施形態は、第1のコンベアと、ギャップによって第1のコンベアとは分離した第2のコンベアと、そのギャップに位置決めされ、第1のコンベア及び第2のコンベアの少なくとも一方に結合された透明プレートと、そのギャップに少なくとも部分的に位置決めされ、第1のコンベア及び第2のコンベアの少なくとも一方に結合された支持リングであって、支持リングに結合された少なくとも1つのカメラを含む支持リングと、支持リングに結合された第1の光源であって、動作中に透明プレートに向けて方向付けられた光を放射する第1の光源とを含む。 An exemplary embodiment of a system for capturing and processing image data of an object to determine the boundaries of interior portions of the object comprises a first conveyor and a second conveyor separated from the first conveyor by a gap. a conveyor, a transparent plate positioned in the gap and coupled to at least one of the first conveyor and the second conveyor, and a transparent plate positioned at least partially in the gap and at least the first conveyor and the second conveyor a support ring coupled to one side, the support ring including at least one camera coupled to the support ring; and a first light source coupled to the support ring, directed toward the transparent plate during operation. and a first light source that emits attached light.

実施形態は、透明プレート上に位置決めされた物体であって、動作中に第1の光源から物体を通過する光をカメラが受光し、物体はマグロの切り身であり、第1の光源は約1260ナノメートル、約805ナノメートル又は約770ナノメートルのうちの1つに等しい波長の光を放射する、物体と、カメラと電子通信する制御部であって、カメラが物体を通過する光を取り込み、取り込まれた光から画像データに対応する信号を制御部に送信し、画像データは透過率画像データ、インタラクタンス画像データ又は反射率画像データのうちの1つであり、制御部はプロセッサを含み、プロセッサはカメラから受信された画像データに基づいて物体の第1の部分と第1の部分内の物体の第2の部分との間の境界を検出するために機械学習を使用する、制御部とをさらに含み得る。 An embodiment is an object positioned on a transparent plate, the camera receiving light passing through the object from a first light source during operation, the object being a fillet of tuna, and the first light source being about 1260 a controller in electronic communication with an object that emits light at a wavelength equal to one of nanometers, about 805 nanometers, or about 770 nanometers, the camera capturing light passing through the object; sending a signal corresponding to image data from the captured light to a controller, the image data being one of transmittance image data, interactance image data or reflectance image data, the controller including a processor; a controller using machine learning to detect a boundary between a first portion of the object and a second portion of the object within the first portion based on image data received from the camera; can further include

実施形態は、プロセッサが深層畳込みニューラルネットワークを通じて画像データをパスし、深層畳込みニューラルネットワークは、画像データを受信し、物体の第2の部分に対応する画像データに基づいて複数シルエットを出力し、プロセッサは、シルエットを複数のプロジェクションに投影し、複数のプロジェクション間の共通部分を解析して物体の第2の部分の3次元形状を決定し、支持リングは支持リングに結合された複数のカメラを含み、複数のカメラの各々は透過率、インタラクタンス又は反射率の撮像データのうちの1つを第1の光源から取り込み、支持リングは支持リングに結合された第2の光源を含み、第2の光源は動作中に透明プレートに方向付けられる光を放射することをさらに含み得る。 Embodiments include a processor passing image data through a deep convolutional neural network, the deep convolutional neural network receiving the image data and outputting a plurality of silhouettes based on the image data corresponding to the second portion of the object. , a processor projects the silhouette into a plurality of projections, analyzes intersections between the plurality of projections to determine a three-dimensional shape of a second portion of the object, and a support ring comprises a plurality of cameras coupled to the support ring. each of the plurality of cameras captures one of transmittance, interactance or reflectance imaging data from a first light source; the support ring includes a second light source coupled to the support ring; The two light sources may further include emitting light directed to the transparent plate during operation.

物体の内部分の境界を決定するように物体の画像データを取り込み及び処理するためのデバイスの代替の例示的な実施形態は、コンベアの第1の部分と第2の部分の間に空間を有するコンベアと、空間に位置決めされ、コンベアに結合されたプレートと、空間に少なくとも部分的に位置決めされ、コンベアに結合された支持リングであって、動作中に少なくとも第1の位置と第2の位置の間で回転する支持リングと、支持リングに結合された少なくとも1つの光源であって、動作中にプレート上の物体に向けて方向付けられた光を放射する少なくとも1つの光源と、支持リングに結合された撮像デバイスであって、光が物体を通過した後に、少なくとも1つの光源から光を受光する撮像デバイスと、撮像デバイスと電子通信するプロセッサであって、撮像デバイスから支持リングが第1の位置にある場合の第1のセットの画像データ、及び撮像デバイスから支持リングが第2の位置にある場合の第2のセットの画像データを受信し、動作中に第1のセットの画像データ及び第2のセットの画像データから、物体の内部分の3次元モデルを出力するプロセッサとを含む。 An alternative exemplary embodiment of a device for capturing and processing image data of an object to determine the boundaries of interior portions of the object has a space between the first portion and the second portion of the conveyor. a conveyor, a plate positioned in the space and coupled to the conveyor, and a support ring positioned at least partially in the space and coupled to the conveyor, wherein during operation, at least a first position and a second position; a support ring rotating between and at least one light source coupled to the support ring for emitting light directed toward an object on the plate during operation and coupled to the support ring and a processor in electronic communication with the imaging device, wherein the support ring extends from the imaging device to the first position. receiving a first set of image data when the support ring is in the second position and a second set of image data when the support ring is in the second position from the imaging device; a processor that outputs a three-dimensional model of the interior portion of the object from the two sets of image data.

実施形態は、プロセッサが機械学習を利用して、第1のセットの画像データ及び第2のセットの画像データを複数のシルエットに処理し、複数のシルエットを複数のプロジェクションに投影し、3次元モデルは複数のプロジェクションの各々の間の共通部分に基づいており、支持リングに結合された第2の光源をさらに含んでもよく、撮像デバイスは、第2の光源から支持リングが第1又は第2の位置にある場合の第3のセットの画像データを取り込み、プロセッサは第3のセットの画像データを利用して、3次元モデルの境界を明瞭化し、撮像デバイスはスペクトルグラフを備え、少なくとも1つの光源は約1260ナノメートル、約805ナノメートル又は約770ナノメートルのものから選択される波長の光を放射する。 Embodiments include a processor utilizing machine learning to process a first set of image data and a second set of image data into a plurality of silhouettes, project the plurality of silhouettes onto a plurality of projections, and generate a three-dimensional model. is based on the intersection between each of the plurality of projections and may further include a second light source coupled to the support ring, wherein the imaging device is configured to move the support ring from the second light source to the first or second projections. capturing a third set of image data when in position, the processor utilizing the third set of image data to demarcate the three-dimensional model, the imaging device comprising a spectrograph, and at least one light source; emits light at a wavelength selected from about 1260 nanometers, about 805 nanometers or about 770 nanometers.

物体の内部分の境界を決定するように物体の画像データを取り込み及び処理するための方法の例示的な実施形態は、光源から光を放射するステップであって、放射するステップが、第1の部分及び第2の部分を有する物体を通じて光を方向付けることを含み、第2の部分は第1の部分内に取り囲まれた、ステップと、光が物体を通過した後に、撮像デバイスにより光源から光を取り込むステップであって、取り込まれた光が撮像デバイスによって受光された第1の部分及び第2の部分の画像データに対応している、ステップと、画像データをプロセッサに送信するステップと、第1の部分と第2の部分の間の境界を検出するようにプロセッサにより画像データを解析するステップであって、解析するステップは第2の部分の3次元表示を生成するように機械学習を利用することを含むステップとを含む。 An exemplary embodiment of a method for capturing and processing image data of an object to determine boundaries of interior portions of the object comprises emitting light from a light source, the step of emitting light from a first directing light through an object having a portion and a second portion, the second portion enclosed within the first portion; and directing light from a light source by an imaging device after the light passes through the object. wherein the captured light corresponds to image data of the first and second portions received by the imaging device; transmitting the image data to a processor; analyzing the image data by a processor to detect a boundary between the first portion and the second portion, the analyzing step utilizing machine learning to generate a three-dimensional representation of the second portion; and a step comprising:

実施形態は、光源から光を放射するステップが、約1260ナノメートル、805ナノメートル又は770ナノメートルのものから選択される波長の光を放射することを含み、第2の部分の3次元表示を生成するように機械学習を利用するステップが、機械学習が画像データを処理するために深層畳込みニューラルネットワークを利用することを含み、プロセッサにより画像データを解析するステップが、第2の部分の画像データに対応する複数の2次元シルエットを出力するように機械学習を利用することを含み、プロセッサにより画像データを解析するステップが、複数のプロジェクションを作成するように機械学習を利用することを含み、各プロジェクションは複数の2次元シルエットのそれぞれ1つに対応し、解析するステップが、3次元表示を生成するように機械学習を利用することを含み、物体の第2の部分の3次元表示を出力するように複数のプロジェクションの各々の間の共通部分を解析することをさらに含むことをさらに含み得る。 Embodiments include emitting light from the light source at a wavelength selected from about 1260 nanometers, 805 nanometers, or 770 nanometers, wherein the three-dimensional representation of the second portion is The step of utilizing machine learning to generate includes the machine learning utilizing a deep convolutional neural network to process the image data, and the step of analyzing the image data with a processor comprises: utilizing machine learning to output a plurality of two-dimensional silhouettes corresponding to the data, wherein analyzing the image data with a processor comprises utilizing machine learning to create a plurality of projections; Each projection corresponds to a respective one of the plurality of two-dimensional silhouettes, the analyzing step including utilizing machine learning to generate a three-dimensional representation, and outputting a three-dimensional representation of the second portion of the object. The method may further include analyzing intersections between each of the plurality of projections to do so.

実施形態のより深い理解のために、ここで例としてのみ添付の図面に対して参照がなされる。図面において、同一の符号は同様の要素又は動作を特定する。図面におけるサイズ及び相対的な位置は、必ずしも縮尺通りに描写されない。例えば、種々の要素の形状及び角度は必ずしも縮尺通りに描写されず、これらの要素には図面の判読性を高めるように拡大及び位置決めされ得るものがある。さらに、図示する要素の特定の形状は、特定の要素の実際の形状に関する情報を必ずしも伝える意図はなく、図面の認識を容易にするために単に選択されることがある。 For a better understanding of the embodiments, reference is now made, by way of example only, to the accompanying drawings. In the drawings, identical numbers identify similar elements or acts. Sizes and relative positions in the drawings are not necessarily drawn to scale. For example, the shapes of various elements and angles are not necessarily drawn to scale, and some of these elements may be enlarged and positioned to improve drawing legibility. Additionally, the particular shapes of the elements shown are not necessarily intended to convey information regarding the actual shape of the particular elements, and may be chosen merely for ease of understanding the drawings.

図1は、システムの第1のコンベアと第2のコンベアの間にギャップを有する本開示によるコンベアベルトシステムの例示的な実施形態の斜視図である。1 is a perspective view of an exemplary embodiment of a conveyor belt system according to the present disclosure having a gap between a first conveyor and a second conveyor of the system; FIG. 図2は、透過率撮像モードを示す本開示による撮像システムの例示的な実施形態の概略表示である。図3は、インタラクタンス撮像モードを示す本開示による撮像システムの例示的な実施形態の概略表示である。FIG. 2 is a schematic representation of an exemplary embodiment of an imaging system according to the present disclosure showing a transmission imaging mode; FIG. 3 is a schematic representation of an exemplary embodiment of an imaging system according to the present disclosure showing an interactance imaging mode; 図4は、支持リング並びに支持リングに結合された複数の撮像デバイス及び光源を有する本開示による撮像システムの例示的な実施形態の斜視図である。FIG. 4 is a perspective view of an exemplary embodiment of an imaging system according to the present disclosure having a support ring and multiple imaging devices and light sources coupled to the support ring; 図5は、図4の撮像システムの制御部の概略表示である。5 is a schematic representation of the controls of the imaging system of FIG. 4; FIG. 図6は、支持リング並びに支持リングに結合された1つの撮像デバイス及び光源を有する本開示による撮像システムの代替の例示的な実施形態の斜視図であり、支持リングは少なくとも第1の位置と第2の位置の間で回転する。FIG. 6 is a perspective view of an alternative exemplary embodiment of an imaging system according to the present disclosure having a support ring and one imaging device and light source coupled to the support ring, the support ring in at least a first position and a first position; Rotate between two positions. 図7は、外ハウジング内の撮像システムへの環境光を低減させるための本開示による外ハウジングの例示的な実施形態の斜視図である。FIG. 7 is a perspective view of an exemplary embodiment of an outer housing according to the present disclosure for reducing ambient light to an imaging system within the outer housing; 図8は、本開示による投影されたシルエットからの3次元モデルの再構成の例示的な実施形態の概略表示である。FIG. 8 is a schematic representation of an exemplary embodiment of reconstruction of a three-dimensional model from projected silhouettes according to the present disclosure; 図9は、物体の内部分の境界を決定するように物体の画像データを取り込み及び処理するための本開示による方法の例示的な実施形態のフロー図である。FIG. 9 is a flow diagram of an exemplary embodiment of a method according to the present disclosure for capturing and processing image data of an object to determine boundaries of interior portions of the object. 図10は、物体の内部分の境界を決定するように物体の画像データを取り込み及び処理するための本開示による方法の代替の例示的な実施形態のフロー図である。FIG. 10 is a flow diagram of an alternative exemplary embodiment of a method according to the present disclosure for capturing and processing image data of an object to determine boundaries of interior portions of the object.

以下の説明において、種々の開示される実施形態の完全な理解を提供するためにいくつかの具体的な詳細を記載する。ただし、当業者であれば、これら具体的な詳細の1以上がなくても、又は他の方法、構成要素、材料などであっても実施形態が実施され得ることを認識するはずである。他の例では、撮像システム、食品加工における非侵襲的検査、機械学習及びニューラルネットワークに関連した公知の構造は、実施形態の説明を不必要に不明瞭にするのを回避するように詳細には図示も説明もされていない。 In the following description, certain specific details are set forth in order to provide a thorough understanding of the various disclosed embodiments. One skilled in the art will recognize, however, that the embodiments can be practiced without one or more of these specific details, or with other methods, components, materials, and so on. In other instances, well-known structures associated with imaging systems, non-invasive inspection in food processing, machine learning and neural networks have been described in detail in order to avoid unnecessarily obscuring the description of the embodiments. It is neither shown nor described.

文脈が要求しない限り、以下に続く明細書及び特許請求の範囲は全体を通じて、単語「comprise」並びに「comprises」及び「comprising」などのその変形は、開かれた包括的な意味で、すなわち「含むがそれに限定されない」として解釈されるべきである。さらに、配列についての用語「第1」、「第2」及び同様の指標は、文脈が明示しない限り、区別ないものとして解釈されるべきである。 Unless the context requires otherwise, throughout the specification and claims that follow, the word "comprise" and variations thereof such as "comprises" and "comprising" are used in an open and inclusive sense, i.e., "including shall be construed as "not limited to Furthermore, the terms "first", "second" and similar designations for sequences should be interpreted as indistinguishable unless the context clearly indicates otherwise.

本明細書全体を通じて「1つの実施形態」又は「実施形態」の言及は、実施形態に関連して説明する特定の構成、構造又は特徴が少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書全体を通じてところどころにある語句「1つの実施形態では(において)」又は「実施形態では(において)」は、必ずしもすべて同じ実施形態を言及するものではない。さらにまた、特定の構成、構造又は特徴は、1以上の実施形態において任意に適切に組み合わされてもよい。 References to "one embodiment" or "an embodiment" throughout this specification mean that at least one embodiment includes the particular configuration, structure, or feature described in connection with the embodiment. Thus, the appearances of the phrases "in (in) one embodiment" or "in (in) an embodiment" in various places throughout this specification are not necessarily all referring to the same embodiment. Furthermore, the specific configurations, structures or features may be combined in any suitable combination in one or more embodiments.

本明細書及び添付の特許請求の範囲で使用されるように、単数形「a」、「an」及び「the」は、文脈が明示しない限り複数の言及を含む。なお、用語「又は」は、一般に広義に用いられ、すなわち、文脈が明示しない限り「及び/又は」の意味で用いられることにも留意すべきである。 As used in this specification and the appended claims, the singular forms "a," "an," and "the" include plural references unless the context clearly dictates otherwise. It should also be noted that the term "or" is generally used broadly, ie, in the sense of "and/or" unless the context clearly indicates otherwise.

関連の用語「約」及び「実質的に」は、値、量、定量又は寸法を説明するのに使用される場合には、文脈が明示しない限り、記述する値、量、定量又は寸法のプラス/マイナス3%内にある値、量、定量又は寸法を一般に示す。さらに、ここで提供される構成要素の具体的な任意の寸法は、ここで説明する例示的な実施形態を参照して図示のみを目的としていると理解されるべきであり、その結果として本開示は、文脈が明示しない限り、記述する寸法以上又は未満の量を含む。 The related terms “about” and “substantially”, when used to describe a value, quantity, quantity or dimension, unless the context clearly indicates Generally indicates a value, amount, quantity or dimension that is within /minus 3%. Further, it should be understood that any specific dimensions of components provided herein are for illustration purposes only, with reference to the exemplary embodiments described herein, and as a result of the present disclosure. includes amounts greater than or less than the stated dimension, unless the context clearly dictates otherwise.

本開示は、加工及び検査のために食品材料の視覚的データを取得可能な高速かつ非侵襲的な撮像システムのための解決手段を提供する。特に、本開示の実施形態は、材料が異なる層に取り囲まれた任意形状の物体の3次元幾何学形状を取り込む。例えば、分析対象の物体が魚の切り身である実施形態では、ここで開示される撮像システム及び方法は、ホワイトミートの外層内に含まれるダークミートの部分(例えば、材料が異なる層)の3次元幾何学形状を取り込み、ダークミートは連続する切り身の間で変化する任意の3次元形状を有する。 The present disclosure provides a solution for a fast, non-invasive imaging system capable of acquiring visual data of food ingredients for processing and inspection. In particular, embodiments of the present disclosure capture the three-dimensional geometry of arbitrarily shaped objects surrounded by different layers of material. For example, in embodiments in which the object to be analyzed is a fish fillet, the imaging systems and methods disclosed herein provide a three-dimensional geometry of portions of dark meat (e.g., layers of different materials) contained within outer layers of white meat. Dark meat has an arbitrary three-dimensional shape that changes between successive fillets.

本開示の実施形態は、異なる混濁材料及びスペクトル帯域によって異なる吸収、反射、透過及び散乱の光学特性を活用可能な種々のシステム、デバイス及び関連方法を含む。各出現の相対的比率及び量は、材料の化学的組成及び物理的パラメータに依存し得る。光が物質と相互作用する場合には、光子の特定部分は、鏡面性、拡散又は後方散乱のいずれかを通じて反射される。最初の2つの鏡面性及び拡散は表面の粗さに依存し、一方、光の散乱又は後方散乱は、材料内部の相変化又は異なる界面における複数の屈折の結果もたらされる。散乱はまた、材料の全体を通じてランダムに分布した孔隙又は細管、並びに異なる粒子のサイズ、形状及び微細構造などの不均質性に起因して出現し得る。 Embodiments of the present disclosure include various systems, devices and related methods that can exploit the different optical properties of absorption, reflection, transmission and scattering of different turbid materials and spectral bands. The relative proportions and amounts of each occurrence may depend on the chemical composition and physical parameters of the material. When light interacts with matter, a certain portion of the photons are reflected either through specularity, diffusion or backscattering. The first two, specularity and diffusion, depend on surface roughness, while scattering or backscattering of light is the result of phase changes within the material or multiple refractions at different interfaces. Scattering can also appear due to inhomogeneities such as randomly distributed pores or capillaries throughout the material, and different particle sizes, shapes and microstructures.

反射されない残りの光子は、材料を通じて吸収又は透過のいずれかとなる。吸収係数が低いほど、光は光子が吸収されていく前に材料に、より深く浸透し得るので、光が材料の反対側から出る確率がより高くなる。したがって、ここで説明するシステム、デバイス及び関連方法の種々の実施形態による非侵襲的な撮像に対して、散乱される光及び材料を通過する光の双方は、内部特性の有用な情報を提供することができる。そのような情報、例えば、散乱される光及び材料を通過する光はインタラクタンスの撮像又は透過率の撮像を通じてそれぞれ取り込まれ、一方、反射率の撮像は、例示的な実施形態を参照してここで説明するように、表面から直接反射される光に主に注目する。 The remaining photons that are not reflected are either absorbed or transmitted through the material. The lower the absorption coefficient, the deeper the light can penetrate into the material before the photons are absorbed, and the more likely the light will exit the opposite side of the material. Thus, for non-invasive imaging by various embodiments of the systems, devices and related methods described herein, both scattered light and light passing through materials provide useful information of internal properties. be able to. Such information, e.g., scattered light and light passing through materials, is captured through interaction imaging or transmission imaging, respectively, while reflectance imaging is described herein with reference to exemplary embodiments. We are primarily interested in the light reflected directly from the surface, as described in .

光学特性及び混濁材料との相互作用による結果は、光の各波長によって異なる。波長は直ちに吸収されるものもあるが、材料に深く浸透可能であり、厚さに応じて完全又は部分的に透過可能なものもある。以下でより詳細に説明するように、システム、デバイス及び関連方法の実施形態の一部は、紫外(UV)、可視及び近赤外(NIR)の光スペクトルの異なる波長に関して光学特性の現象を調査するマルチ又はハイパースペクトル撮像ツールを含み得る。 Each wavelength of light results in different optical properties and interaction with turbid materials. Some wavelengths are readily absorbed, while others can penetrate deeply into the material and depending on thickness can be completely or partially transmitted. As described in more detail below, some of the embodiments of systems, devices and related methods investigate the phenomenon of optical properties for different wavelengths of the ultraviolet (UV), visible and near-infrared (NIR) light spectrum. may include multi- or hyperspectral imaging tools for

さらに、ここで説明するある実施形態は回折格子を含み又は利用してもよく、ここで光は分散され、各波長の強度は、ここで説明するセンサの種々の実施形態によって取り込まれる。またさらに、ここで説明するシステム、デバイス及び関連方法の実施形態は、2次元で記憶された空間データ及び3番目の次元で記憶されたスペクトルデータを有する3次元キューブを含み又は備え得る関連データを取得することができる。適切な波長の個々の又は組合せの選択は、加工された食品材料に応じて変更可能であり、予め決定され得る。例えば、適切な波長の選択は、スキャン対象の特定の食品についての透過率及び反射率の情報を含むデータベース並びに光のある波長のスペクトル特性を有するデータベースに基づいて選択されてもよく、又は加工処理前に、システムは、スキャン対象の特定の物体又は食品に基づいて適切な撮像データを取り込むことに対応する波長を決定するように較正されてもよい。 Additionally, certain embodiments described herein may include or utilize diffraction gratings, where the light is dispersed and the intensity of each wavelength is captured by various embodiments of the sensors described herein. Still further, embodiments of the systems, devices and related methods described herein may include or comprise a three-dimensional cube having spatial data stored in two dimensions and spectral data stored in a third dimension. can be obtained. The selection of suitable wavelengths individually or in combination can vary depending on the processed food material and can be predetermined. For example, the selection of appropriate wavelengths may be selected based on a database containing transmittance and reflectance information for the particular food item to be scanned and a database having spectral characteristics of certain wavelengths of light, or may be processed. Previously, the system may be calibrated to determine the wavelengths corresponding to capturing the appropriate imaging data based on the particular object or food being scanned.

ここで説明するシステム、デバイス及び方法の種々の実施形態において、目的の内側物体(例えば、マグロの新鮮な切り身のホワイトミート及びダークミートそれぞれ)とは区別しつつ、低い吸収係数及び最小散乱の材料の外層を通じた良好な浸透能を有するある波長が選択される。さらに、ここで説明するシステム、デバイス及び関連方法の種々の実施形態において、食品材料検査に適した適切な波長を選択することに加えて、適切な照明源もシステム設計変数として選択され得る。例えば、光源は、具体的なスペクトルに対して発光強度が異なり得る。したがって、用途に適した波長の光源が、最適な結果を実現させるために選択され得る。特定の波長のハロゲン、LED及びレーザ光源を含むいくつかのタイプの照明源がここで開示される。 In various embodiments of the systems, devices and methods described herein, materials of low absorption coefficient and minimal scattering while distinguishing from the inner object of interest (e.g., white meat and dark meat of fresh tuna fillets, respectively) A wavelength is selected that has good penetration through the outer layer of the . Further, in various embodiments of the systems, devices and related methods described herein, in addition to selecting appropriate wavelengths suitable for food material inspection, an appropriate illumination source may also be selected as a system design variable. For example, light sources may differ in emission intensity for a particular spectrum. Therefore, a light source of suitable wavelength for the application can be selected to achieve optimum results. Several types of illumination sources are disclosed herein including wavelength specific halogen, LED and laser sources.

検査された食品材料の高品質画像データの取得は、本開示の一態様である。上記のように、加工されている材料は3次元状であるが、従来の撮像センサはシーンの深度を把握する手段がない傾向があり、それによって、実世界の物体の複雑性を知覚する能力が限られる。物体の3次元表示を構築するために、ここで説明するシステム、デバイス及び関連方法の種々の実施形態は、複数のビューから情報を伝達する画像の集合体を取り込むことができる。容積撮像技術を通じて得られるフル3D表示とは異なり、従来の撮像システムの3D表面再構成技術は、物体の表面に位置する個々の点、又はこの場合は物体の2つの材料間の境界の3D座標のみ取り込む傾向がある。したがって、そのような方法は、表面測定、レンジセンシング、デプスマッピング又は表面スキャニングといわれることが多く、それは文脈が明示しない限りここでは区別なく用いられ得る。 Obtaining high quality image data of inspected food ingredients is one aspect of the present disclosure. As noted above, although the materials being processed are three-dimensional, conventional imaging sensors tend to have no means of capturing the depth of the scene, thereby increasing their ability to perceive the complexity of real-world objects. is limited. To construct a three-dimensional representation of an object, various embodiments of the systems, devices and related methods described herein can capture a collection of images that convey information from multiple views. Unlike full 3D representations obtained through volumetric imaging techniques, 3D surface reconstruction techniques of conventional imaging systems rely on the 3D coordinates of individual points located on the surface of an object, or in this case the boundary between two materials of the object. tend to incorporate only Accordingly, such methods are often referred to as surface measurements, range sensing, depth mapping or surface scanning, which may be used interchangeably herein unless the context clearly indicates otherwise.

3D表面再構成を対象とする従来の技術の1つは多視点ステレオ(「MVS」)であり、それはビューの間で十分な重複が与えられた画像において対応する特徴点と一致するものである。結果は、表面が整合され得る3Dポイントクラウドである。そのようなアプローチは、一般に特徴が豊富なテクスチャを必要とし、テクスチャはあるタイプの食品では利用できず存在もしないことがある。さらに、MVSは、そこに関与する薄利に起因して、食品加工産業におけるある用途に対して有効性に欠ける。 One conventional technique directed to 3D surface reconstruction is multi-view stereo ("MVS"), which matches corresponding feature points in images given sufficient overlap between views. . The result is a 3D point cloud to which surfaces can be matched. Such approaches generally require feature-rich textures, which may not be available or present in certain types of foods. Additionally, MVS lacks effectiveness for certain applications in the food processing industry due to the low margins involved.

ストラクチャードライト3D表面再構成技術は、3次元情報を取得するための他の技術である。ストラクチャードライト方法は、物体に投影される空間変更用の1D又は2Dの構造化照明を使用する。平坦なシーンでは、照明パターンは表面に同じく投影されるが、非平坦なシーンでは、カメラで見えるようなパターンが歪められてしまう。3D情報は歪んだパターンの特徴から抽出され、それは通常、表面の境界における光の直接反射から取得される。 Structured light 3D surface reconstruction techniques are another technique for obtaining three-dimensional information. Structured light methods use spatially-modifying 1D or 2D structured lighting that is projected onto the object. In a flat scene the illumination pattern is projected onto the surface as well, but in a non-flat scene the pattern as seen by the camera is distorted. 3D information is extracted from distorted pattern features, which are usually obtained from the direct reflection of light at surface boundaries.

双方のアプローチは3D表面の詳細説明を提供可能であるが、それらのいずれもインタラクタンスモード又は透過率モードのいずれかを通じて取り込まれた非侵襲的撮像データに対して実用的でない。一方、シルエットによる形状は物体の輪郭に依存し、それにより3次元表示が復元され得る。以下でより詳細に説明するように、システム、デバイス及び関連方法の種々の実施形態は、各カメラによって見られるシルエットを3次元のシーンにバック投影して、それらの共通部分から3D形状を抽出するように動作可能である。凹部形状は、一般に、シルエットでは視認できないので無視されるため、再構成はビジュアルハルとして一般的に公知の真の3D幾何学形状の近似でしかない。しかしながら、ここで説明する種々の実施形態によると、透過率撮像とともにインタラクタンス撮像を使用して、物体の正確な3D形状が凹部形状を考慮することによって抽出され得る。 Both approaches can provide detailed descriptions of 3D surfaces, but neither of them are practical for non-invasive imaging data acquired through either interactance or transmittance modes. On the other hand, the shape by silhouette depends on the contour of the object, so that the three-dimensional representation can be reconstructed. As described in more detail below, various embodiments of the systems, devices and associated methods backproject the silhouettes seen by each camera into a three-dimensional scene and extract 3D shapes from their intersection. can operate as Concave shapes are generally ignored as they are not visible in silhouette, so the reconstruction is only an approximation of the true 3D geometry commonly known as a visual hull. However, according to various embodiments described herein, using interaction imaging in conjunction with transmission imaging, the exact 3D shape of the object can be extracted by considering the concave shape.

以下でより詳細に説明するように、3D形状再構成及び多視点画像データの取得の文脈における態様は、カメラの位置決めである。シルエットをシーンにバック投影するために、どこにカメラが位置決めされ、画面平面にシーンがどのように元々投影されていたかを判断することが重要である。ここで説明する種々のシステム、デバイス及び関連方法は、カメラ較正によりこの情報を受信及び/又は処理するように動作可能である。そのような情報は内部パラメータを含み得るものであり、それらは、実世界におけるカメラの位置を示す外部パラメータと同様に、レンズを通じて撮像センサに光が投影されている様子、及びこの処理を通じて生じる任意の歪みに関連する。ここで説明するシステム、デバイス及び関連方法は、システムの多視点画像データの取得に寄与する各カメラ及び位置に対する上記の内部パラメータを含む較正処理を実施可能であり、バイナリ基準マーカの使用によって効果的に実施可能である。 As described in more detail below, an aspect in the context of 3D shape reconstruction and acquisition of multi-view image data is camera positioning. In order to project the silhouette back into the scene, it is important to determine where the camera was positioned and how the scene was originally projected onto the screen plane. Various systems, devices and related methods described herein are operable to receive and/or process this information through camera calibration. Such information can include intrinsic parameters, which describe how light is projected through the lens onto the imaging sensor, as well as extrinsic parameters that describe the position of the camera in the real world, and any parameters that occur during this process. related to the distortion of The systems, devices and associated methods described herein are capable of performing a calibration process including the above intrinsic parameters for each camera and position that contributes to the system's multi-view image data acquisition, effectively through the use of binary fiducial markers. can be implemented in

ある実施形態では、画像データを取得する場合に、対象物体のシルエットは、3次元モデルが生成される前に決定され得る。例えば、本開示の態様は、画像データにおいて何が食品材料を示しているか認識して、外層及び内層を形成する異なる成分の間を区別することを含み得る。例えば、物体が魚の切り身である実施形態では、外層すなわち第1の部分が第1のタイプの身に対応し、内層すなわち第2の部分が、通常第1のタイプの身の内部に取り囲まれた第2のタイプの身に対応する。ある態様では、機械学習、より具体的には、人工ニューラルネットワークは、そのようなタスクを実行する際に実現され得る。 In some embodiments, when acquiring image data, the silhouette of the target object may be determined before the three-dimensional model is generated. For example, aspects of the present disclosure may include recognizing what indicates food ingredients in the image data and distinguishing between different components forming the outer and inner layers. For example, in embodiments in which the object is a fish fillet, the outer layer or first portion corresponds to a first type of meat and the inner layer or second portion is typically enclosed within the first type of meat. Corresponds to the second type of body. In certain aspects, machine learning, and more specifically artificial neural networks, may be implemented in performing such tasks.

例えば、ニューラルネットワークには、重みに関連した接続を通じて結合された異なる層にいくつかのノードがある。これらの重みは通常、既知の入力を前提としてノードの何の出力が予想されるかを特定することによって、いくつかの反復を通じて調整及び学習される。食品材料及び内部不良又は目的の物体を示す大量のラベル化された画像のデータセットを収集することによって、深層畳込みニューラルネットワークは学習されて、具体的物体の位置及び境界をどのように認識するかを学習可能である。学習データセットの増加及びニューラルネットワークアーキテクチャの入念な設計によって、タスクは複雑であっても、ここで説明する種々のシステム、デバイス及び関連方法を使用して効率よく解決可能である。さらに、ある実施形態では、種々の異なるモデルが、異なる特定の用途に対して実施可能である。 For example, a neural network has several nodes in different layers that are connected through weight-related connections. These weights are typically adjusted and learned through several iterations by specifying what the expected output of a node is given given known inputs. By collecting large datasets of labeled images showing food ingredients and internal defects or objects of interest, deep convolutional neural networks are trained to learn how to recognize the location and boundaries of specific objects. It is possible to learn With increasing training data sets and careful design of neural network architectures, even complex tasks can be efficiently solved using the various systems, devices and related methods described herein. Moreover, in certain embodiments, a variety of different models are possible for different specific applications.

ここで説明するように、本開示は、検査不良又は加工済み製品の3次元幾何学形状の検出及び抽出のためのコンベアベルトシステムを包含する。連続移動するベルトに起因して、データの取得及び解析が非常に効率的であることが好ましい。ある実施形態では、適用可能な光スペクトルの波長は、食品材料及び用途の目的物に基づいて予め決定され得る。具体的なスペクトル帯域は、ハイパースペクトルイメージング、又はラインスキャンシステムに関与する特定のフィルタ若しくはレーザ光の使用のいずれかを通じて取得され得る。 As described herein, the present disclosure includes a conveyor belt system for detection and extraction of three-dimensional geometric shapes of inspection defects or processed products. Due to the continuously moving belt, data acquisition and analysis is preferably very efficient. In certain embodiments, the wavelengths of the applicable light spectrum can be predetermined based on the food material and application objectives. Specific spectral bands can be obtained either through hyperspectral imaging or through the use of specific filters or laser light involved in a line scan system.

以下でより詳細に説明するように、透過率データを取得するには、光源は、撮像センサの反対側に位置決めされ、それは光を食品材料に透過及び通過可能とする透明媒体によって架橋されたコンベアベルトにわずかなギャップを必要とする。他の光源は、インタラクタンス撮像モードに対して撮像センサの隣で並列に位置決めされる。双方の撮像モードは、各モードによって取り込まれる画像データを不明瞭にするのを回避するために高い頻度で交互に変更される。 As described in more detail below, to obtain transmittance data, the light source is positioned opposite the imaging sensor, which is a conveyor bridged by a transparent medium that allows the light to pass through and through the food material. Requires a slight gap in the belt. Another light source is positioned in parallel next to the imaging sensor for interactance imaging mode. Both imaging modes are alternated frequently to avoid obscuring the image data captured by each mode.

以下でより詳細に説明するように、本開示では、複数の光源及びカメラセンサの組合せは(それは、ここでより詳細に説明するように、撮像デバイスの構成要素であってもよいし、あるいは一般に、撮像デバイス、又はある実施形態では、撮像デバイスに結合された別個の構成要素といわれることもある)、コンベアベルトに又はその周辺に搭載されて、複数のビューから画像データを収集する。代替的に、ある実施形態では、1つのカメラセンサ又は撮像デバイスが代わりに使用され得る。ただし、そのような実施形態では、1つのカメラは、コンベアベルト周辺に光及びカメラを再位置決めすることを可能とする回転フレームに搭載され得る。カメラシステムの再位置決めに起因する高いコンベアベルト速度又は短縮した取得時間において、画像データは、螺旋配置で取得される。そのようにして、螺旋画像データが、横断経路に沿って取得点の間に補間される。ビューの数は、用途及び対象物体の必要とされる詳細に依存して変更され得る。構造体は、撮像装置の周辺に構築され、撮像中に照明を制御して良好な画質を実現させるために、外部からのいずれの光も遮断する。 As described in more detail below, in the present disclosure, the combination of multiple light sources and camera sensors (which may be components of an imaging device, as described in more detail herein, or generally , an imaging device, or in some embodiments a separate component coupled to an imaging device), mounted on or about a conveyor belt to collect image data from multiple views. Alternatively, in some embodiments, a single camera sensor or imaging device may be used instead. However, in such embodiments, one camera may be mounted on a rotating frame that allows repositioning of the light and camera around the conveyor belt. At high conveyor belt speeds or reduced acquisition times due to repositioning of the camera system, image data is acquired in a helical arrangement. As such, helical image data is interpolated between acquisition points along a traverse path. The number of views can vary depending on the application and required detail of the target object. The structure is built around the imaging device and blocks any light from outside in order to control the illumination and achieve good image quality during imaging.

本開示は、ある実施形態では、対象物体の位置及び境界を検出するように学習された深層畳込みニューラルネットワークを使用する。ただし、本開示の総括によると、深層畳込みニューラルネットワークの用途は用途に依存し、用途に基づいて変更可能であることが理解されるべきであり、そのようなモデルは、このタスクを完了させるために予め学習され得る。以下でより詳細に説明するように、抽出されるシルエットは、対象物体の3次元形状の大まかな近似を生成するのに使用される。理解すべきであるように、本開示の総括によると、再構成されたモデルの解像度は、意図する用途に対して要求される速度と詳細の間のトレードオフである。例えば、ある実施形態では、より高い解像度は、再構成に対してより多数の画像及びより多くの演算リソースを必要とすることがあり、それは同様に用途の速度に影響を及ぼす。 The present disclosure, in one embodiment, uses a deep convolutional neural network trained to detect the position and boundaries of target objects. However, according to the summary of this disclosure, it should be understood that the applications of deep convolutional neural networks are application dependent and can vary based on the application, such a model accomplishing this task can be pre-learned for As described in more detail below, the extracted silhouettes are used to generate a rough approximation of the three-dimensional shape of the target object. As should be appreciated, according to the summary of this disclosure, the resolution of the reconstructed model is a trade-off between speed and detail required for the intended application. For example, in some embodiments, higher resolution may require more images and more computational resources for reconstruction, which likewise affects the speed of the application.

他の実施形態では、カメラの配置及び個数は、ここで説明するように変化し得る。位置及びカメラパラメータは、画像データを取り込む前に較正され得る。コンベアベルト上の食品材料の移動に起因して、カメラの横断位置は、搬送される材料に関して変化する。横断位置は、内部に維持され、又は用途に応じて必要であれば、材料に関して設定され、若しくはコンベアベルト上のマーカを通じて明確に規定され得る。 In other embodiments, the placement and number of cameras may vary as described herein. Position and camera parameters may be calibrated prior to capturing image data. Due to movement of the food material on the conveyor belt, the transverse position of the camera changes with respect to the conveyed material. The traverse position can be maintained internally or set on the material or clearly defined through markers on the conveyor belt if required by the application.

ここで説明する例示的な実施形態では、図1は、コンベアシステム100の斜視図である。コンベアシステム100は、本開示の例の実施形態の理解を容易にするために簡略化され、そのように、コンベアシステム100に関連する特定の構成は説明されていないことが分かるはずである。コンベアシステム100は、第2のコンベア104とは離間した第1のコンベア102を含む。言い換えると、空間、すなわちギャップ114が、第1のコンベア102を第2のコンベア104から離す。第1のコンベア102を、一般にここでは、コンベアシステム100の第1の部分といい、同様に第2のコンベア104を、一般にここでは、コンベアシステム100の第2の部分ということがある。さらに、空間すなわちギャップ114並びにプレート110のサイズ及び形状は、具体的な用途に従って変更可能であり、それにより、本開示は、空間すなわちギャップ114に対応するコンベア102と104の間の距離によっても、プレート110のサイズ又は形状によっても限定されない。 In the exemplary embodiment described herein, FIG. 1 is a perspective view of conveyor system 100 . It should be appreciated that the conveyor system 100 has been simplified to facilitate understanding of the example embodiments of the present disclosure, and as such, specific configurations associated with the conveyor system 100 have not been described. Conveyor system 100 includes a first conveyor 102 spaced apart from a second conveyor 104 . In other words, a space or gap 114 separates the first conveyor 102 from the second conveyor 104 . First conveyor 102 may generally be referred to herein as a first portion of conveyor system 100 , and likewise second conveyor 104 may generally be referred to herein as a second portion of conveyor system 100 . Further, the size and shape of the space or gap 114 and the plate 110 can vary according to specific applications, whereby the present disclosure describes the distance between the conveyors 102 and 104 corresponding to the space or gap 114 as well: It is also not limited by the size or shape of plate 110 .

プレート110は、連続コンベアラインを形成するために、ギャップ114に又はその近傍に位置決めされる。好適には、プレート110は、妨害なく光がプレート110を通過できるように透明である。例えば、プレート110は、とりわけ、透明なプラスチック、ポリマー又はガラスから形成されてもよく、一方の代替的実施形態では、プレート110は、半透明であり、同様に例えば、半透明のプラスチック、ポリマー又はガラスから形成される。プレート110は、コンベアシステム100に、又はより具体的には、第1のコンベア102及び第2のコンベア104の少なくとも一方に結合される。さらに、システム100の各コンベア102、104は支持構造体106によって支持され、コンベア表面112は、ローラ108及び従来の駆動機構(図示せず)を介して平行移動する。その上、コンベア表面112は、中実体であってもよいし、図1に示すようにラインに配置され又はコンベア表面112にわたって均一に分散されたいずれかの複数の目打ち線116を含んでもよい。他の実施形態では、コンベア表面112が中実体であることは、表面112にそのような目打ち線がないことを意味する。 Plates 110 are positioned at or near gaps 114 to form a continuous conveyor line. Preferably, plate 110 is transparent so that light can pass through plate 110 without obstruction. For example, the plate 110 may be formed from a transparent plastic, polymer or glass, among others, while in alternative embodiments the plate 110 is translucent, as well as for example a translucent plastic, polymer or glass. Formed from glass. Plate 110 is coupled to conveyor system 100 , or more specifically to at least one of first conveyor 102 and second conveyor 104 . Additionally, each conveyor 102, 104 of system 100 is supported by a support structure 106, with conveyor surface 112 translated via rollers 108 and a conventional drive mechanism (not shown). Moreover, the conveyor surface 112 may be solid or may include a plurality of perforations 116 either arranged in a line as shown in FIG. 1 or evenly distributed across the conveyor surface 112. In other embodiments, conveyor surface 112 being solid means that surface 112 is free of such perforations.

図2は、透過率撮像モード200に対応する概略表示である。透過率撮像モード200は、光源202及び撮像デバイス204を含む。図2はスキャン対象の物体206をさらに示し、物体206はプレート110上に位置決めされる。光源202は光208を放射し、それはプレート110に向けて方向付けられ、プレート110に向かって進行するにつれて外向きに伝搬する。光208がプレート110及び物体206を透過すると、光は、集束経路又は部分210で示されるように集束する。光208が物体206を出ると、光208は、発散経路又は部分212で示されるように発散又は分散する。光208は、物体206を出た後に、撮像デバイス204によって取り込まれる。ここで説明するように、撮像デバイス204は、物体206を透過して取り込まれた光208に対応する透過率画像データを受信し、透過率画像データは、さらなる処理及び再構成のために撮像デバイス204と電子通信するプロセッサ又は制御部(例えば、図5に示す制御部428)に信号を介して引き続き送信される。 FIG. 2 is a schematic representation corresponding to transmission imaging mode 200 . Transmission imaging mode 200 includes light source 202 and imaging device 204 . FIG. 2 further shows an object 206 to be scanned, which is positioned on plate 110 . Light source 202 emits light 208 that is directed toward plate 110 and propagates outward as it travels toward plate 110 . As light 208 passes through plate 110 and object 206 , the light converges as indicated by convergence path or portion 210 . As light 208 exits object 206 , light 208 diverges or disperses as indicated by diverging path or portion 212 . Light 208 is captured by imaging device 204 after exiting object 206 . As described herein, the imaging device 204 receives transmission image data corresponding to the captured light 208 transmitted through the object 206, which is sent to the imaging device for further processing and reconstruction. 204 is subsequently transmitted via a signal to a processor or controller (eg, controller 428 shown in FIG. 5) that is in electronic communication with 204 .

図示する実施形態では、コンベアシステム100は、一般に、コンベアシステム100がどちらの方向にも平行移動し得ることは分かっているが、図2に示す向きに対して右から左に物体206を平行移動させている。さらに、撮像デバイス204及び光源202は垂直軸に沿って配列されることが好ましく、撮像デバイス204は、光源202によって出力された光208が撮像デバイスに向かって直線状に物体206を通じて伝搬するように光源202の上にある。物体206及び光208の配置又は特性のわずかな変化に起因して、撮像デバイス204及び光源202の配置は、正確に垂直でなくてもよいが、むしろ垂直から10度以内、垂直から5度以内又は略垂直(すなわち、垂直から3度以内)であり得ることも理解されるはずである。 In the illustrated embodiment, conveyor system 100 generally translates object 206 from right to left relative to the orientation shown in FIG. I am letting Further, imaging device 204 and light source 202 are preferably arranged along a vertical axis, and imaging device 204 is positioned such that light 208 output by light source 202 propagates through object 206 in a straight line toward the imaging device. It is above the light source 202 . Due to slight variations in the placement or characteristics of the object 206 and light 208, the placement of the imaging device 204 and light source 202 may not be exactly vertical, but rather within 10 degrees of vertical, and within 5 degrees of vertical. or approximately vertical (ie, within 3 degrees of vertical).

光源202は、種々の実施形態において、例えば、レーザ、発光ダイオード(「LED」)、LEDのアレイ若しくはパネル、白熱灯、コンパクト蛍光ランプ、ハロゲンランプ、メタルハライドランプ、蛍光管、ネオンランプ、低圧ナトリウムランプ又は高輝度放電ランプなどの多様な光源のものから選択され得る。光源202がレーザである実施形態では、本開示の実施形態は、固体状態、ガス、エキシマ、ダイ又は半導体のレーザを備える光源202をさらに含む。レーザがレーザ放射の持続期間によって特徴付けられる限り、レーザは、連続波、シングルパルス、シングルパルスqスイッチ、繰返しパルス又はモードロックのレーザであってもよい。 Light source 202 is, in various embodiments, for example, a laser, a light emitting diode (“LED”), an array or panel of LEDs, an incandescent lamp, a compact fluorescent lamp, a halogen lamp, a metal halide lamp, a fluorescent tube, a neon lamp, a low pressure sodium lamp. or from a variety of light sources such as high intensity discharge lamps. In embodiments where light source 202 is a laser, embodiments of the present disclosure further include light source 202 comprising a solid-state, gas, excimer, die or semiconductor laser. The laser may be a continuous wave, single pulse, single pulse q-switched, repetitive pulse or mode-locked laser, as long as the laser is characterized by the duration of the laser emission.

さらに上述のように、光源202は、異なる光源202が物体206に対して異なる浸透特性の光208を出力するので、用途又はスキャン対象の物体206に対して特異的に選択されるのが好ましい。物体206が魚の切り身である実施形態では、光源202は、790~820ナノメートル(「nm」)の波長の透過率撮像モード200で光を出力するのが好ましいが、より好適には、波長は805nm又は約805nm(すなわち、800~810nm)であり、それは、一般的に約400~750nmのスペクトルの可視光部分の外部にある電磁スペクトルの赤外部分の波長に対応する。さらに、この波長は、少なくともマグロの切り身に対して、散乱を最小化しつつ切り身内に深く浸透可能な光の波長に相当し、散乱は、一般に、透過率撮像モード200に対応する画像データの精度を低下させる傾向があるので、透過率撮像モード200において不都合である。 Further, as discussed above, the light source 202 is preferably selected specifically for the application or object 206 being scanned, as different light sources 202 output light 208 with different penetration characteristics to the object 206 . In embodiments in which object 206 is a fish fillet, light source 202 preferably outputs light in transmission imaging mode 200 at wavelengths between 790 and 820 nanometers (“nm”), but more preferably at wavelengths 805 nm or about 805 nm (ie, 800-810 nm), which corresponds to wavelengths in the infrared portion of the electromagnetic spectrum that is generally outside the visible portion of the spectrum between about 400-750 nm. Moreover, this wavelength corresponds, at least for tuna fillets, to a wavelength of light that can penetrate deep into the fillet while minimizing scattering, which generally determines the accuracy of the image data corresponding to the transmittance imaging mode 200. is disadvantageous in transmission imaging mode 200 because it tends to reduce .

750nm超又は約805nmの近赤外スペクトルはマグロの加工に有用であり、それは、マグロの魚の切り身における生物学的組織の本質的部分に寄与するヘモグロビンのように水はこれらの波長に対してそれでも幾分透明であるためである。比較的に可視スペクトル(すなわち、400nm~750nm)では、ヘモグロビンは光の大部分を吸収する。光がこれらの波長でダークミートではなくホワイトミートに浸透する理由の可能な説明の1つは、2つの材料間の筋線維の異なる密度によるものであり、ダークミートに対する筋線維の密度はホワイトミートよりもはるかに高い。この波長域(すなわち、近赤外又は約805nm)におけるダークミートに対する吸収係数はさらに非常に高く、一方のホワイトミートに対する吸収係数はより低い。物理的特性の他にも、これらの特徴は、例えば化学的組成における相違によっても説明可能である。このようにホワイトミートに対して、浸透はかなり深いまま残る。この挙動の相違によって、スキャン対象の物体がマグロの魚の切り身である用途には、この特有な波長の選択(すなわち、約805nm)が好適となる。 The near-infrared spectrum above 750 nm or about 805 nm is useful for tuna processing because water is still sensitive to these wavelengths, such as hemoglobin, which contributes to a substantial portion of the biological tissue in tuna fish fillets. This is because it is somewhat transparent. In the relatively visible spectrum (ie, 400 nm-750 nm), hemoglobin absorbs most of the light. One possible explanation for why light at these wavelengths penetrates white meat but not dark meat is due to the different density of muscle fibers between the two materials, with the density of muscle fibers for dark meat being similar to that of white meat. much higher than The absorption coefficient for dark meat in this wavelength range (ie near-infrared or about 805 nm) is much higher, while the absorption coefficient for white meat is lower. Besides physical properties, these characteristics can also be explained by differences in chemical composition, for example. Thus, for white meat, the penetration remains fairly deep. This difference in behavior makes this particular choice of wavelength (ie, about 805 nm) suitable for applications where the object to be scanned is a tuna fish fillet.

ある実施形態では、撮像デバイス204は、限定することなく、中でもスペクトルグラフ、カメラ又はセンサを含む多くの市販の撮像デバイス204のうちの1つである。撮像デバイス204がセンサである実施形態では、撮像デバイス204は、300nm~1000nmの波長を取り込む相補性金属酸化膜半導体(「CMOS」)センサであることが好ましい。あるいは、他の実施形態では、センサは、同様の波長を取り込む電荷結合素子(「CCD」)センサ、又は900~1700nmの波長を取り込むヒ化インジウムガリウム(「InGaAs」)センサである。撮像デバイス204がカメラ又はスペクトルグラフである実施形態では、カメラ又はスペクトルグラフが、他の電子構成要素及び他のタイプのセンサに加えて、上記のセンサのいずれも含み得ることがさらに分かるはずである。 In some embodiments, imaging device 204 is one of many commercially available imaging devices 204 including, but not limited to, spectrographs, cameras, or sensors. In embodiments where the imaging device 204 is a sensor, the imaging device 204 is preferably a complementary metal oxide semiconductor (“CMOS”) sensor that captures wavelengths between 300 nm and 1000 nm. Alternatively, in other embodiments, the sensor is a charge-coupled device (“CCD”) sensor that captures similar wavelengths, or an indium gallium arsenide (“InGaAs”) sensor that captures wavelengths between 900 and 1700 nm. It should further be appreciated that in embodiments in which imaging device 204 is a camera or spectrograph, the camera or spectrograph may include any of the sensors described above, along with other electronic components and other types of sensors. .

透過率撮像モード200を較正し、又は異なる用途に対してモード200を変更する際に、物体206に対してどの波長が最良の透過率を有し、特性を取り込むかを調査するために、光208は個々の波長に分割されることが好ましい。具体的には図示しないが、回折格子によるスペクトルグラフは、光208を個々の波長に分割するのに使用され得る。あるいは、スペクトルグラフは高感度及び高価であるため、モード200が補正されると、ある選択波長の光のみ通過させて用途に対応する撮像デバイス204によって取り込まれることを可能とするブロッキングフィルタが、効率を高めてコストを削減するために使用され得る。またさらなる代替例では、較正を通じて選択される好適な波長に対応することが好ましい指定波長の、又は指定波長域における光のみ放射するレーザ光源202が使用可能であり、それによってもコストの削減及び高効率化をもたらす。比較すると、通常、ブロッキングフィルタはより広域の通過波長を有するが、レーザは特定波長に対して非常に特異的であることから、この2つの間における選択は、問題としている材料に対する所望の動作波長に依存することになる。 In order to investigate which wavelengths have the best transmission and capture properties for the object 206 when calibrating the transmission imaging mode 200 or changing the mode 200 for different applications, light 208 is preferably split into individual wavelengths. Although not specifically shown, a grating spectrograph can be used to split the light 208 into individual wavelengths. Alternatively, since spectrographs are sensitive and expensive, a blocking filter that allows only certain selected wavelengths of light to pass through and be captured by the imaging device 204 corresponding to the application, once the mode 200 is corrected, can be used efficiently. can be used to increase and reduce costs. In yet a further alternative, a laser light source 202 can be used that emits only light at specified wavelengths or in specified wavelength ranges, preferably corresponding to preferred wavelengths selected through calibration, thereby also reducing cost and increasing cost. Bring efficiency. By comparison, blocking filters typically have a broader range of pass wavelengths, but since lasers are very specific for particular wavelengths, the choice between the two depends on the desired operating wavelength for the material in question. will depend on

図3は、インタラクタンス撮像モード300の例示的な実施形態の概略表示である。インタラクタンス撮像モード300は、光源302及び撮像デバイス304を含む。ある実施形態では、撮像デバイス304は透過率モードの撮像デバイス204とは異なってもよく、ある実施形態では、インタラクタンス撮像モード300の撮像デバイス304は透過率モードの撮像デバイス204と同じであってもよい。言い換えると、同じ撮像デバイスが、透過率撮像モード及びインタラクタンス撮像モードの双方に対して使用可能である。光源302及び撮像デバイス304はそれぞれ、光源202及び撮像デバイス204を参照して上記で説明した光源及び撮像デバイスのいずれであってもよい。スキャン対象の物体306はプレート110の上にあり、光源302は光310を放射する。ただし、透過率撮像モード200と比較されるように、インタラクタンス撮像モード300において、光310は、光源302の出力312において光源302に結合された収束レンズ308を通過する。収束レンズ308は、特定の用途により選択される主軸、焦点、焦点距離及び垂直平面を有する多数の公知の収束レンズのいずれであってもよい。収束レンズ308は、利点の中でもとりわけ、撮像デバイス304によって取り込まれる画像データを明瞭化するのに役立つ。 FIG. 3 is a schematic representation of an exemplary embodiment of an interactance imaging mode 300. As shown in FIG. Interactance imaging mode 300 includes light source 302 and imaging device 304 . In some embodiments, the imaging device 304 may be different than the imaging device 204 in transmission mode, and in some embodiments, the imaging device 304 in interaction imaging mode 300 may be the same as the imaging device 204 in transmission mode. good too. In other words, the same imaging device can be used for both transmission and interaction imaging modes. Light source 302 and imaging device 304 may be any of the light sources and imaging devices described above with reference to light source 202 and imaging device 204, respectively. An object 306 to be scanned is above plate 110 and light source 302 emits light 310 . However, as compared to transmission imaging mode 200 , in interactance imaging mode 300 light 310 passes through a converging lens 308 coupled to light source 302 at output 312 of light source 302 . Converging lens 308 can be any of a number of known converging lenses having a principal axis, focus, focal length and vertical plane selected according to the particular application. Converging lens 308 , among other benefits, helps clarify the image data captured by imaging device 304 .

物体306が魚の切り身、より具体的にはマグロの切り身である実施形態に対するインタラクタンス撮像モード300では、光源302は、740~800nm、より好適には、770nm又は約770nm(すなわち、765nm及び775nm)の波長の光を放射する。さらに、撮像デバイス304は、ここで説明するようなセンサ、CMOS又はCCDセンサであることが好ましく、又はそれを含むことが好ましい。この波長域は、透過率撮像モード200の好適な波長に関する上記の解析に基づいて、インタラクタンス撮像モード300に対して好適であることが分かった。 In the interactance imaging mode 300 for embodiments in which the object 306 is a fish fillet, more specifically a tuna fillet, the light source 302 is between 740 and 800 nm, more preferably 770 nm or about 770 nm (i.e., 765 nm and 775 nm). emits light with a wavelength of Further, imaging device 304 preferably is or includes a sensor, CMOS or CCD sensor, as described herein. This wavelength range was found to be suitable for the interactance imaging mode 300 based on the above analysis of the preferred wavelengths for the transmittance imaging mode 200 .

光310が光源302によって放射され、収束レンズ308を通過した後に、光310は、物体306を通過する光310の部分314によって示されるように物体306と接する。ただし、インタラクタンス撮像モードでは、撮像デバイス304は物体306によって後方散乱される光を測定する。言い換えると、光310の部分314は、物体306に入射してから、物体306の材料組成及び物体306を出る前の光310に起因して物体306内で屈曲、湾曲又は回転する光に対応する。言い換えると、収束レンズ308を通じて放射される光310は第1の方向305に沿って伝搬し、物体を出る光310は第2の方向307で伝搬し、実施形態において、第1及び第2の方向は平行軸に沿って相互に反対である。ただし、本開示の実施形態はまた、図4を参照して説明するように、光源302が物体306に対してある角度で存在する場合のように、相互に横向きの角度となる第1及び第2の方向も含むことが分かるはずである。光310は物体306を出て撮像デバイス304に向かって伝搬し、伝搬中に、光は、分散部分316によって示されるように分散する。光310が撮像デバイス304によって受光される場合には、撮像デバイス304は、ここで説明するように、取り込まれた光310の量に対応するインタラクタンス撮像データを制御部又はプロセッサ(例えば、図5に示す制御部428)に送信する。 After light 310 is emitted by light source 302 and passes through converging lens 308 , light 310 contacts object 306 as shown by portion 314 of light 310 passing through object 306 . However, in the interactance imaging mode, imaging device 304 measures light backscattered by object 306 . In other words, portion 314 of light 310 corresponds to light that enters object 306 and then bends, curves, or rotates within object 306 due to the material composition of object 306 and light 310 before exiting object 306 . . In other words, light 310 emitted through the converging lens 308 propagates along a first direction 305 and light 310 exiting the object propagates in a second direction 307, in embodiments the first and second directions. are mutually opposite along parallel axes. However, embodiments of the present disclosure also allow the first and first beams to be at sideways angles to each other, such as when the light source 302 is at an angle to the object 306, as described with reference to FIG. It should be noted that it also includes two directions. Light 310 exits object 306 and propagates toward imaging device 304 , and during propagation the light is dispersed as indicated by dispersion portion 316 . When light 310 is received by imaging device 304, imaging device 304 outputs interactance imaging data corresponding to the amount of light 310 captured, as described herein, to a controller or processor (eg, FIG. 5). to the control unit 428 shown in FIG.

図示する実施形態では、コンベア100は、一般に、矢印318で示すように図3で示す向きに対して右から左に物体306を平行移動している。そのように、光源302は、コンベアシステム100の平行移動の方向に対して撮像デバイス304の上流に位置する。言い換えると、光源302は、一般に、撮像デバイス304の近傍で好適にはそれと平行に位置する。撮像デバイス304から下流に光源302を有することは可能であり得るが、この配置は、処理中に補正されなければならない低い精度の撮像データをもたらしてしまう。さらに、コンベア100は矢印318によって示す方向とは反対に物体306を平行移動することも可能であり、その場合には、光源は、図示する向きで撮像デバイス304の左(すなわち、上流)にあることが好ましい。また、光源302及び撮像デバイス304の双方は物体306の上方に位置し、それによって、インタラクタンス撮像モード300は、略垂直軸に沿って物体206を直接通じて平行移動する光の部分を取り込む透過率撮像モード200とは対照的に、物体306に入射した後に撮像デバイス304に向かって後方散乱する光310の部分314を取り込む。 In the illustrated embodiment, conveyor 100 is generally translating object 306 from right to left relative to the orientation shown in FIG. As such, the light source 302 is positioned upstream of the imaging device 304 with respect to the direction of translation of the conveyor system 100 . In other words, the light source 302 is generally located near and preferably parallel to the imaging device 304 . While it may be possible to have the light source 302 downstream from the imaging device 304, this arrangement results in less accurate imaging data that must be corrected during processing. Additionally, the conveyor 100 can also translate the object 306 in the opposite direction indicated by arrow 318, in which case the light source is to the left (ie, upstream) of the imaging device 304 in the orientation shown. is preferred. Also, both the light source 302 and the imaging device 304 are positioned above the object 306 such that the interactance imaging mode 300 captures a portion of the light that translates directly through the object 206 along a substantially vertical axis. In contrast to index imaging mode 200 , a portion 314 of light 310 that is scattered back toward imaging device 304 after being incident on object 306 is captured.

図4は、コンベアシステム402、コンベアシステム402に結合された支持リング414、支持リング414に結合された複数の撮像デバイス422、及び支持リング414に結合された第1の光源424などの少なくとも1つの光源を含む撮像システム400の例示的な実施形態の斜視図を示す。 FIG. 4 illustrates at least one of a conveyor system 402, a support ring 414 coupled to the conveyor system 402, a plurality of imaging devices 422 coupled to the support ring 414, and a first light source 424 coupled to the support ring 414. 4 shows a perspective view of an exemplary embodiment of imaging system 400 including a light source.

コンベアシステム402は、図1のコンベアシステム100を参照して上記で説明した構成のすべて又はそれらを実質的に含み得る。ただし簡潔には、コンベアシステム402は第1のコンベア、すなわち部分404及び第2のコンベア、すなわち部分406を含み、第1のコンベア404はギャップすなわち空間410によって第2のコンベア406とは離されている。プレート412は、好適には透明であり、連続コンベアラインを形成するために、ギャップ410に位置決めされ、コンベアシステム402に結合される。 Conveyor system 402 may substantially include all or any of the configurations described above with reference to conveyor system 100 of FIG. Briefly, however, the conveyor system 402 includes a first conveyor or portion 404 and a second conveyor or portion 406 , the first conveyor 404 being separated from the second conveyor 406 by a gap or space 410 . there is Plate 412, preferably transparent, is positioned in gap 410 and coupled to conveyor system 402 to form a continuous conveyor line.

上記のように、支持リング又はフレーム414は、支持体416、418によりコンベアシステム402に結合され、支持リング414は、撮像システム400の較正中に支持リング414の回転を容易にするために円形であることが好ましい。支持体416は、コンベアシステム402、より具体的には、第1及び第2のコンベア404、406の各々に結合されたプレート420に結合されてそれから延在する調節可能なカラーであることが好ましい。支持体418は、支持リング414がシステムの較正中に支持カラー416を調節することによって手動で回転可能となるように、コンベアシステム402に結合された支持リング414を受けるために開放チャネルを有するベースであることが好ましい。支持体416がカラーとして示され、支持体418は支持リング414を受けるためにチャネルを有するベースとして示されるが、支持リング414をコンベアシステム402に結合するためには、本開示では他の多数のデバイス又は配置が考えられることが分かるはずである。例えば、他の実施形態では、結合は、コンベアシステム402から延在する中央に配設された1以上のスポーク、又は空間410に位置し、コンベアシステム402に結合された別の構造体の使用を含み、あるいは、支持リング414が、図6に示すハウジングのようなハウジングに結合及び支持されることが可能である。 As noted above, support ring or frame 414 is coupled to conveyor system 402 by supports 416, 418, and support ring 414 is circular to facilitate rotation of support ring 414 during calibration of imaging system 400. Preferably. The support 416 is preferably an adjustable collar coupled to and extending from a plate 420 coupled to the conveyor system 402, and more specifically to each of the first and second conveyors 404, 406. . Support 418 is a base having an open channel for receiving support ring 414 coupled to conveyor system 402 such that support ring 414 is manually rotatable by adjusting support collar 416 during calibration of the system. is preferably Although support 416 is shown as a collar and support 418 is shown as a base having a channel for receiving support ring 414 , numerous other arrangements may be used in the present disclosure to couple support ring 414 to conveyor system 402 . It should be understood that any device or arrangement is possible. For example, in other embodiments, coupling may involve the use of one or more centrally disposed spokes extending from conveyor system 402 or another structure located in space 410 and coupled to conveyor system 402. Alternatively, support ring 414 can be coupled to and supported by a housing such as the housing shown in FIG.

支持リング414は、支持リング414に結合され、それから延在する複数の撮像デバイス422をさらに含む。撮像デバイス422の各々は、図2を参照して説明した撮像デバイス204及びその任意の変形と一致しない場合は、実質的に同様であり得る。さらに、支持リング414は少なくとも第1の光源424を含み、それは図2における光源204を参照して上記で説明した光源のいずれであってもよい。図4に示すように、第1の光源424は、コンベアシステム402との間に位置決めされ、第1の光源424が放射する光がプレート412及び画像化又はスキャン対象のプレート412の上の物体408に向けて方向付けられるように配置される。光は、複数の撮像デバイス422の少なくとも1つによって受光されるようにプレート412と、物体408とを通過し、第1の光源424から受光される光に対応するデータは透過率撮像データに対応する。 Support ring 414 further includes a plurality of imaging devices 422 coupled to support ring 414 and extending therefrom. Each of imaging devices 422 may be substantially similar, if not consistent, to imaging device 204 and any variations thereof described with reference to FIG. Additionally, support ring 414 includes at least a first light source 424, which may be any of the light sources described above with reference to light source 204 in FIG. As shown in FIG. 4, a first light source 424 is positioned between the conveyor system 402 and directs light emitted by the first light source 424 onto the plate 412 and an object 408 on the plate 412 to be imaged or scanned. positioned so as to be oriented toward the Light passes through the plate 412 and the object 408 to be received by at least one of the plurality of imaging devices 422, and the data corresponding to the light received from the first light source 424 corresponds to transmission imaging data. do.

図示する実施形態では、支持リングは、複数の撮像デバイス422の近傍の支持リング414に結合され、それから延在する第2の光源426をさらに含む。好適には、第2の光源426はインタラクタンス撮像モードで使用され、第2の光源426は撮像デバイス422の近傍で並列に位置する。またさらなる実施形態では、第2の光源426は撮像デバイス422の近傍に位置するが、図4に示しここで説明するように、撮像デバイス422の視野に対して横向きの角度にある。第2の光源426は同様に、図2において光源202を参照して説明した上記光源のいずれであってもよい。第2の光源426は、図3を参照して説明したインタラクタンス撮像モード300に対応する光を放射する。そのようにして、第2の光源426によって放射された光は、第1の方向で物体408に向けて方向付けられ、物体408内で回転し、複数の撮像デバイス422のすべてでない場合には少なくとも1つによって受光されるように第2の方向で物体408を出ていき、第2の光源426から受光される光に対応するデータはインタラクタンス撮像データに対応する。図示する実施形態では、第1と第2の方向の間の角度は、90度未満、好適には45度未満であるが、その角度は特定の用途(すなわち、スキャン対象の物体408のタイプ)により変化することになることが理解されるはずである。 In the illustrated embodiment, the support ring further includes a second light source 426 coupled to and extending from the support ring 414 near the plurality of imaging devices 422 . Preferably, the second light source 426 is used in an interactance imaging mode, where the second light source 426 is positioned near the imaging device 422 in parallel. In yet a further embodiment, the second light source 426 is located near the imaging device 422 but at a sideways angle to the field of view of the imaging device 422 as shown in FIG. 4 and described herein. Second light source 426 may similarly be any of the light sources described above with reference to light source 202 in FIG. A second light source 426 emits light corresponding to the interaction imaging mode 300 described with reference to FIG. As such, light emitted by the second light source 426 is directed toward the object 408 in a first direction, rotates within the object 408, and rotates at least if not all of the plurality of imaging devices 422. Data corresponding to light leaving object 408 in a second direction as received by one and received from second light source 426 corresponds to interactance imaging data. In the illustrated embodiment, the angle between the first and second directions is less than 90 degrees, preferably less than 45 degrees, although the angle depends on the particular application (i.e. the type of object 408 being scanned). It should be understood that the

図4に示すように、複数の撮像デバイス422は5つの撮像デバイス422を含み、撮像デバイス422は支持リング414の周囲、外周又は内縁に沿って相互に均等に離間し、光源424、426の一方から光を受光するために、入力がプレート412及び物体408に向けて方向付けられている。そのように、撮像デバイス422の各々は、物体408の異なるビューに対応する撮像データを受け取ることになる。言い換えると、配置に起因して撮像デバイス422の各々からのビュー又はデータの間には相違があり、それは物体408のシルエット及び3次元画像データを生成するのに役立つ。したがって、図示する実施形態では、複数の撮像デバイス422の選択及び配置は機械学習システムに入力される複数のビューに供するので、正常動作中には支持リング414を回転させる必要はなく、機械学習システムは、ここで説明するように、複数のビューに基づいて3Dモデルを決定するための基礎となるシルエットを生成する。ただし、撮像デバイス422の特定の個数、配置及び向きは、ここで説明するように、スキャン対象の物体408及びシステム400の較正に依存することが分かるはずである。 As shown in FIG. 4, the plurality of imaging devices 422 includes five imaging devices 422 that are evenly spaced from each other along the perimeter, perimeter, or inner edge of the support ring 414 and one of the light sources 424, 426. An input is directed toward plate 412 and object 408 to receive light from. As such, each of imaging devices 422 will receive imaging data corresponding to a different view of object 408 . In other words, there is a difference between the views or data from each of the imaging devices 422 due to their placement, which helps generate the silhouette of the object 408 and the three-dimensional image data. Thus, in the illustrated embodiment, the selection and placement of multiple imaging devices 422 provide multiple views that are input to the machine learning system, thus eliminating the need to rotate support ring 414 during normal operation and allowing the machine learning system to generates a silhouette as a basis for determining a 3D model based on multiple views, as described here. However, it should be appreciated that the specific number, placement and orientation of the imaging devices 422 will depend on the scanned object 408 and the calibration of the system 400, as described herein.

さらに、撮像デバイス422の各々は第2の光源426から反射率撮像データを受信可能であり、反射率撮像データは、1230~1290nm、又はより好適には1260nm若しくは約1260nm(すなわち、1255~1265nm)の波長の光を出力する第2の光源426に対応し、この波長で放射される光は、物体408の外表面に反射されて、複数の撮像デバイス422によって受光され又は取り込まれる。この波長(すなわち、約1260nm)は、水は約1000nmの波長に対して高い吸収性を有することになるが、ダークミートは約1260nmの光を反射し始め、一方のホワイトミートは反射しないので、反射率撮像モードに好適である。反射率撮像モードでは、撮像デバイス422の各々は、上記のように、このより長い波長の光を取り込むためにInGaAsセンサをさらに含み得る。反射率撮像データは、物体が外層内で部分的にのみ含まれる(すなわち、物体の一部が外層から外部に延在する)状況で特に有用であるが、他の実施形態では、反射率撮像データは、インタラクタンス撮像データに加えて、補正基準として使用され得る。 Additionally, each of the imaging devices 422 can receive reflectance imaging data from a second light source 426, which is between 1230 and 1290 nm, or more preferably between 1260 nm or about 1260 nm (ie, between 1255 and 1265 nm). The light emitted at this wavelength is reflected off the outer surface of the object 408 and is received or captured by the plurality of imaging devices 422 . At this wavelength (i.e., about 1260 nm), water will have a high absorption for wavelengths of about 1000 nm, whereas dark meat will begin to reflect light at about 1260 nm, while white meat will not. Suitable for reflectance imaging mode. In the reflectance imaging mode, each of imaging devices 422 may further include an InGaAs sensor to capture this longer wavelength light, as described above. Reflectance imaging data is particularly useful in situations where the object is only partially contained within the outer layer (i.e., a portion of the object extends out from the outer layer), but in other embodiments reflectance imaging The data can be used as correction criteria in addition to the interactance imaging data.

図4は、システム400と電気通信する制御部428をさらに示す。図5は、非限定的な実施形態の一例による制御部428を詳細に示す。特に、制御部428、一般に、システム400に電力供給し、撮像デバイス422から受信された撮像データを処理又は送信するように動作可能である。図5は、撮像デバイス422と制御部428の間のデータ交換を含むシステム400を制御するように動作する種々の制御システム、モジュール又は他のサブシステムを模式的に示す。 FIG. 4 further shows controller 428 in electrical communication with system 400 . FIG. 5 shows the control unit 428 in detail according to one example non-limiting embodiment. In particular, controller 428 is generally operable to power system 400 and process or transmit imaging data received from imaging device 422 . FIG. 5 schematically illustrates various control systems, modules or other subsystems that operate to control system 400 including data exchange between imaging device 422 and controller 428 .

制御部428は、コントローラ442、例えば、マイクロプロセッサ、デジタル信号プロセッサ、プログラマブルゲートアレイ(PGA)又は特定用途向け集積回路(ASIC)を含む。制御部428は、1以上の非一時的記録媒体、例えば、読出し専用メモリ(ROM)440、ランダムアクセスメモリ(RAM)438、フラッシュメモリ(不図示)又は他の物理的コンピュータ-若しくはプロセッサ-可読記録媒体を含む。非一時的記録媒体は、コントローラ442によって使用される命令及び/又はデータ、例えば、オペレーティングシステム(OS)及び/又はアプリケーションを記憶し得る。コントローラ442によって実行されるような命令は、それに限定されないが、撮像デバイス422からデータを取り込み及び処理することを含む、ここで説明するシステム400、500の種々の実施形態の機能を実施するロジックを実行し得る。 Control unit 428 includes a controller 442, such as a microprocessor, digital signal processor, programmable gate array (PGA), or application specific integrated circuit (ASIC). The controller 428 may be stored in one or more non-transitory storage media, such as read only memory (ROM) 440, random access memory (RAM) 438, flash memory (not shown), or other physical computer- or processor-readable storage medium. Including media. Non-transitory storage media may store instructions and/or data used by controller 442, such as an operating system (OS) and/or applications. The instructions, as executed by controller 442, implement the logic that implements the functions of the various embodiments of systems 400, 500 described herein, including, but not limited to, acquiring and processing data from imaging device 422. can run.

システム500(図6参照)が回転用支持リング又はフレーム504を含む実施形態では、制御部428は、1以上のアクチュエータ(不図示)に通信可能に結合されて、リング504の回転を制御し得る。あるいは、制御部428は、リング504を回転させるために1以上のベルト(不図示)に通信可能に結合され得る。さらに、コントローラ442は、特定の位置(すなわち、図6を参照して記述される第1の位置及び第2の位置)に対応する命令を含み得るものであり、それは所定の製造速度又はコンベア速度に従って支持リング504を自動的に回転させるためにアクチュエータ又はベルトに送信される。 In embodiments where system 500 (see FIG. 6) includes a rotating support ring or frame 504, controller 428 may be communicatively coupled to one or more actuators (not shown) to control rotation of ring 504. . Alternatively, controller 428 may be communicatively coupled to one or more belts (not shown) to rotate ring 504 . Additionally, the controller 442 may include instructions corresponding to specific positions (i.e., the first position and second position described with reference to FIG. 6), which are predetermined production speeds or conveyor speeds. is sent to an actuator or belt to automatically rotate the support ring 504 according to.

制御部428は、エンドユーザがシステム400、500の動作状態又は状況に関してシステム400、500を操作し又はシステム400、500に入力を提供することを可能とするように、ユーザインターフェース436を含み得る。ユーザインターフェース436は、システム400、500からアクセス可能な多数のユーザ可動制御を含み得る。例えば、ユーザインターフェース436は、システム400、500をON及びOFFし、並びに/又はシステム400、500の種々の動作パラメータを設定するように動作可能な多数のスイッチ又はキーを含み得る。 The controls 428 may include a user interface 436 to allow an end user to operate the system 400,500 or provide input to the system 400,500 regarding the operating state or status of the system 400,500. User interface 436 may include a number of user movable controls accessible from system 400 , 500 . For example, the user interface 436 may include a number of switches or keys operable to turn the system 400,500 on and off and/or set various operating parameters of the system 400,500.

追加的又は代替的に、ユーザインターフェース436は、ディスプレイ、例えば、タッチパネルディスプレイを含み得る。タッチパネルディスプレイ(例えば、接触感知オーバーレイを有するLCD)は、エンドユーザに対して入力及び出力インターフェースの双方を提供し得る。タッチパネルディスプレイは、種々のユーザ選択可能なアイコン、メニュー、チェックボックス、ダイアログボックス、並びにシステム400、500の動作状態又は状況を設定するようにエンドユーザによって選択可能な他の構成要素及び素子により、グラフィカルユーザインターフェースを示し得る。ユーザインターフェース436はまた、1以上の聴覚トランスデューサ、例えば、1以上のスピーカ及び/又はマイクも含み得る。それによって、可聴警告の通知又は信号をエンドユーザに提供可能とし得る。それによって追加的又は代替的に、エンドユーザは、可聴コマンド又は命令を提供可能となる。ユーザインターフェース436は、追加的構成要素及び/又は図示若しくは説明するものとは異なる構成要素を含んでもよく、並びに/又は一部の構成要素を省略してもよい。 Additionally or alternatively, user interface 436 may include a display, eg, a touch panel display. A touch panel display (eg, an LCD with a touch sensitive overlay) can provide both an input and output interface for the end user. The touch panel display is graphical with various user-selectable icons, menus, checkboxes, dialog boxes, and other components and elements selectable by the end-user to set the operating state or status of the system 400,500. A user interface can be shown. User interface 436 may also include one or more auditory transducers, such as one or more speakers and/or microphones. An audible warning notification or signal may thereby be provided to the end-user. It additionally or alternatively allows the end-user to provide audible commands or instructions. User interface 436 may include additional and/or different components than those shown or described and/or may omit some components.

スイッチ及びキー又はグラフィカルユーザインターフェースは、例えば、トグルスイッチ、キーパッド若しくはキーボード、ロッカースイッチ、トラックボール、ジョイスティック又はサムスティックを含み得る。スイッチ及びキー又はグラフィカルユーザインターフェースは、例えば、エンドユーザに、システム400、500をONにし、透過率撮像モード又はインタラクタンス撮像モードを開始又は終了し、遠隔のアクセサリ及びプログラムに通信可能に結合又は解除し、撮像データにアクセス、それを送信又は処理し、モータ又はオーディオサブシステムを作動又は停止させ、コンベアシステムの動作状態を開始又は終了することなどを可能とし得る。 Switches and keys or graphical user interfaces may include, for example, toggle switches, keypads or keyboards, rocker switches, trackballs, joysticks or thumbsticks. Switches and keys or a graphical user interface, for example, instruct the end user to turn on the system 400, 500, enter or exit transmission or interaction imaging modes, and communicatively couple or release remote accessories and programs. , access, transmit or process imaging data, activate or deactivate motors or audio subsystems, initiate or terminate conveyor system operational states, and the like.

制御部428は、パーソナルコンピュータ又はプロセッサなどのような1以上の外部デバイスの種々の構成要素との通信を容易にする1以上の通信モジュール又は構成要素を含み得る、通信サブシステム444を含む。通信サブシステム444は、1以上の外部デバイスへの無線又は有線通信を提供し得る。通信サブシステム444は、無線受信機、無線送信機又は無線送受信機を含んで、1以上のペアリングデバイスの種々の遠隔構成要素又はシステムに無線信号経路を提供し得る。通信サブシステム444は、例えば、(例えば、Bluetooth、近距離無線通信(NFC)又は無線自動識別(RFID)の構成要素及びプロトコルを介する)短距離無線通信又は(例えば、無線LAN、省電力広域ネットワーク(LPWAN)、衛星又はセルラネットワーク上の)長距離無線通信が可能な構成要素を含んでもよく、それを実施するための1以上のモデム又は1以上のEthernet若しくは他のタイプの通信カード若しくは構成要素を含んでもよい。通信サブシステム444は、交換パケットタイプの通信プロトコル(TCP/IP)、Ethernet又は他のネットワーキングプロトコルを含む、ネットワークトラフィックを取り扱うのに適した1以上のブリッジ又はルータを含み得る。いくつかの実施形態では、外部デバイスとの有線又は無線通信は、種々の材料特性及び光波長特性を示すルックアップテーブルへのアクセスを提供し得る。例えば、エンドユーザは、外部デバイスにおけるルックアップテーブルなどに記憶され得る、ユーザインターフェース436に表示される多様な材料から、材料を選択し得る。 Controller 428 includes communication subsystem 444, which may include one or more communication modules or components that facilitate communication with various components of one or more external devices, such as personal computers or processors. Communication subsystem 444 may provide wireless or wired communication to one or more external devices. Communications subsystem 444 may include a wireless receiver, wireless transmitter, or wireless transceiver to provide wireless signal paths to various remote components or systems of one or more paired devices. The communication subsystem 444 may include, for example, short-range wireless communication (eg, via Bluetooth, Near Field Communication (NFC) or Radio Frequency Identification (RFID) components and protocols) or (eg, wireless LAN, low power wide area network). may include components capable of long-range wireless communication (on LPWAN), satellite or cellular networks, and one or more modems or one or more Ethernet or other types of communication cards or components for implementing the same may include Communications subsystem 444 may include one or more bridges or routers suitable for handling network traffic, including switched packet-type communications protocols (TCP/IP), Ethernet, or other networking protocols. In some embodiments, wired or wireless communication with an external device may provide access to lookup tables indicating various material properties and optical wavelength properties. For example, an end user may select materials from a variety of materials displayed on user interface 436, which may be stored in a lookup table or the like on an external device.

制御部428は、制御部428、例えば、システム400、500に集積又は取り付けられた制御部428の種々の構成要素に電源(不図示)からの電力の供給を管理する電力インターフェースマネージャ432を含む。電力インターフェースマネージャ432は、コントローラ442及び電源に結合される。あるいは、いくつかの実施形態では、電力インターフェースマネージャ432は、コントローラ442に集積可能である。電源は、とりわけ、外部電力供給部を含み得る。電力インターフェースマネージャ432は、電力変換器、整流器、バス、ゲート、回路などを含み得る。特に、電力インターフェースマネージャ432は、システム400、500の種々の動作状態に基づいて、電源からの電力の供給を制御、限定、制限可能である。 The controller 428 includes a power interface manager 432 that manages the supply of power from a power source (not shown) to the controller 428 , eg, various components of the controller 428 integrated or attached to the system 400 , 500 . A power interface manager 432 is coupled to the controller 442 and the power supply. Alternatively, in some embodiments, power interface manager 432 can be integrated into controller 442 . The power source may include, among other things, an external power supply. Power interface manager 432 may include power converters, rectifiers, buses, gates, circuits, and the like. In particular, the power interface manager 432 can control, limit, and limit the delivery of power from the power supply based on various operating conditions of the system 400,500.

いくつかの具体化又は実施形態では、例えば、ROM440、RAM438及びフラッシュメモリ(不図示)などの、コントローラによって使用され得る非一時的記録媒体に記憶された命令及び/又はデータは、制御部428の1以上の機能へのプログラムによるアクセスを提供するアプリケーションプログラムインターフェース(「API」)を含み又は提供する。例えば、そのようなAPIは、それに限定されないが、ユーザインターフェース436の1以上の機能、又は1つ若しくは複数の撮像デバイス422により受信された撮像データの処理を含む、システム400、500の1以上の動作の特徴を制御するプログラムによるインターフェースを提供し得る。そのような制御は、他のプログラム、他の遠隔のデバイス若しくはシステム(不図示)又はある他のモジュールのうちの1つによって発動され得る。このようにして、APIは、他のデバイス、プラグイン及びアダプタなどに対する種々の異なるユーザインターフェース及び制御システムなどの、第三者ソフトウェアの開発を促進させて、動作及びシステム400、500内のデバイスの双方向性及びカスタマイゼーションを容易化し得る。 In some implementations or embodiments, instructions and/or data stored in non-transitory storage media that may be used by the controller, such as, for example, ROM 440, RAM 438, and flash memory (not shown), may be used by controller 428. Contains or provides an application program interface (“API”) that provides programmatic access to one or more functions. For example, such APIs may include, but are not limited to, one or more functions of the user interface 436 or one or more functions of the system 400, 500, including processing imaging data received by one or more imaging devices 422. A programmatic interface may be provided to control operational features. Such control may be invoked by one of other programs, other remote devices or systems (not shown), or some other module. In this way, the API facilitates the development of third party software, such as various different user interfaces and control systems for other devices, plug-ins and adapters, etc., to operate and control the operation of devices within the system 400, 500. Interactivity and customization can be facilitated.

具体化又は実施形態の例では、システム400、500内の制御部428及び他のデバイスの構成要素又はモジュールは、標準的プログラミング技術を使用して実施される。例えば、ここで説明する種々の具体化又は実施形態の機能を実行するロジックは、1以上の静的又は動的ライブラリとともに、コントローラ、例えば、マイクロプロセッサ442上で「ネイティブの」実行可能な稼働として実施され得る。他の具体化では、制御部428の種々の機能は、命令がROM440及び/又はランダムなRAM438に記憶された1以上のプログラムとして実行する仮想機械によって処理される命令として実施され得る。一般に、本技術で公知のプログラミング言語の範囲は、それに限定されないが、オブジェクト指向(例えば、Java、C++、C#、Visual Basic.NET、Smalltalkなど)、関数型(例えば、ML、Lisp、Schemeなど)、手続き型(例えば、C、Pascal、Ada、Modulaなど)、スクリプト(例えば、Perl、Ruby、Python、lavaScript、 VBScriptなど)又は宣言型(例えば、SQL、Prologなど)を含む種々のプログラミング言語パラダイムの代表的実施形態を含む、そのような具体例を実施するために採用され得る。 In the implementation or example embodiment, the components or modules of the controller 428 and other devices within the systems 400, 500 are implemented using standard programming techniques. For example, the logic to perform the functionality of the various implementations or embodiments described herein may be implemented as "native" executable running on a controller, e.g., microprocessor 442, along with one or more static or dynamic libraries. can be implemented. In other implementations, the various functions of controller 428 may be implemented as instructions processed by a virtual machine executing as one or more programs stored in ROM 440 and/or random RAM 438 . In general, the range of programming languages known in the art include, but are not limited to, object-oriented (e.g., Java, C++, C#, Visual Basic.NET, Smalltalk, etc.), functional (e.g., ML, Lisp, Scheme, etc.). ), procedural (e.g. C, Pascal, Ada, Modula, etc.), scripting (e.g., Perl, Ruby, Python, lavaScript, VBScript, etc.) or declarative (e.g., SQL, Prolog, etc.) may be employed to implement such specific examples, including representative embodiments of.

ソフトウェア又はファームウェアの実施形態では、メモリに記憶された命令は、実行されると、マイクロプロセッサ442などの制御部428の1以上のプロセッサを、制御部428の機能を実行するように構成する。命令は、I/Oコントローラ/プロセッサなどのマイクロプロセッサ442又は他の何らかのプロセッサに、1以上の撮像デバイス422から受信される情報を処理するとともにそれに対して作用し、撮像データに基づく3Dモデルを再構成する機能及び動作を提供させる。 In a software or firmware embodiment, the instructions stored in memory, when executed, configure one or more processors of controller 428 , such as microprocessor 442 , to perform the functions of controller 428 . The instructions direct microprocessor 442 or some other processor, such as an I/O controller/processor, to process and act on information received from one or more imaging devices 422 to reproduce a 3D model based on the imaging data. Provides configuration functions and behaviors.

上記の具体化又は実施形態はまた、公知の又は他の同期若しくは非同期クライアントサーバコンピューティング技術も使用し得る。ただし、種々の構成要素は、例えば、単一のマイクロプロセッサ上で実行可能な稼働と同様に、より多くのモノリシックなプログラミング技術を使用して実施されてもよいし、あるいは、それに限定されないが、マルチプログラミング、マルチスレッディング、クライアントサーバ又はピアツーピア(例えば、システム400、500内のデバイス間に通信チャネルを提供するBluetooth(登録商標)、NFC又はRFID無線技術、メッシュネットワークなど)を含む本技術で公知の多様な構築技術を使用し、各々が1以上の中央処理装置(CPU)又は他のプロセッサを有する1以上のコンピュータシステム上で稼働して分離されてもよい。いくつかの具体化は、同時かつ非同期的に実行し、メッセージパッシング技術を使用して通信し得る。また、他の機能は、各構成要素/モジュールによって実施及び/又は実行され、異なる順序で異なる構成要素/モジュールによっても制御部428の機能を実現し得る。 The implementations or embodiments described above may also use known or other synchronous or asynchronous client-server computing technologies. However, the various components may also be implemented using more monolithic programming techniques, such as, but not limited to, running on a single microprocessor. Various known in the art, including multiprogramming, multithreading, client-server or peer-to-peer (e.g., Bluetooth®, NFC or RFID wireless technology, mesh networks, etc. that provide a communication channel between devices in the system 400, 500) architecture, and may be isolated running on one or more computer systems, each having one or more central processing units (CPUs) or other processors. Some implementations may execute concurrently and asynchronously and communicate using message-passing techniques. Also, other functions may be implemented and/or performed by each component/module, and the functions of control unit 428 may also be implemented by different components/modules in different orders.

さらに、制御部428に記憶されたデータ及び制御部428によって提供される機能に対するプログラミングインターフェースは、C、C++、C#及びJava APIを介するような標準的機構、ファイル、データベース若しくは他のデータリポジトリにアクセスするためのライブラリ、スクリプト言語、又はWebサーバ、FTPサーバ若しくは記憶されたデータに対するアクセスを提供する他のタイプのサーバによって利用可能となり得る。制御部428及び撮像システム全体によって記憶及び利用されるデータは、分散コンピューティング技術を使用する実施形態を含む、1以上のデータベースシステム、ファイルシステム、若しくはそのような情報を記憶するための他の任意の技術、又は上記の任意の組合せとして実施され得る。 Further, the programming interface to the data stored in controller 428 and the functions provided by controller 428 can be in standard mechanisms, such as via C, C++, C# and Java APIs, files, databases or other data repositories. It may be made available by a library, scripting language, or web server, FTP server, or other type of server that provides access to stored data. The data stored and utilized by the control unit 428 and the overall imaging system may be stored in one or more database systems, file systems, or any other means for storing such information, including embodiments using distributed computing technology. or any combination of the above.

プログラム及びデータの異なる構成及び位置は、ここで説明する技術による使用が想定される。多様な分散コンピューティング技術は、それに限定されないが、TCP/IPソケット、RPC、RPC、RMI、HTTP及びWeb Services(XML-RPC、JAX-RPC、SOAPなど)を含む分散形態で図示する具体化の構成要素を実施するのに適している。他の変形例も可能である。他の機能は各構成要素/モジュールによっても提供され得るものであり、既存の機能は、異なる手段でシステム400、500内の構成要素/モジュールの間で分散されてもよく、それでも制御部428及び撮像システム400、500を実現し得る。 Different configurations and locations of programs and data are envisioned for use with the techniques described herein. A variety of distributed computing technologies can be implemented in the illustrated form in distributed form, including, but not limited to, TCP/IP sockets, RPC, RPC, RMI, HTTP and Web Services (XML-RPC, JAX-RPC, SOAP, etc.). Suitable for implementing components. Other variations are also possible. Other functionality may also be provided by each component/module, and existing functionality may be distributed among the components/modules within the system 400, 500 in different ways, yet still control 428 and Imaging systems 400, 500 may be implemented.

さらに、いくつかの実施形態では、制御部428の構成要素及びシステム400、500内の他のデバイスの構成要素の一部又は全部は、それに限定されないが、1以上の特定用途向け集積回路(「ASIC」)、標準的集積回路、コントローラ(例えば、適切な命令を実行することによるものであり、マイクロコントローラ及び/又は組込みコントローラを含む)、フィールドプログラマブルゲートアレイ(「FPGA」)、複合プログラマブルロジックデバイス(「CPLD」)などを含む、少なくともファームウェア及び/又はハードウェアに部分的になど他の形態で実施又は提供され得る。システム構成要素及び/又はデータ構造の一部又はすべてはまた、コンピュータ可読媒体及び/又は1以上の関連するコンピューティングシステム若しくはデバイスを可能とし又は構成して、説明する技術の少なくとも一部を実行あるいは使用、又はそれを実施するコンテンツを提供するために、(例えば、ハードディスク、メモリ、コンピュータネットワーク、セルラ無線ネットワーク若しくは他のデータ伝送媒体、又はDVD若しくはフラッシュメモリデバイスなどの、適切なデバイスによって若しくは適切な接続を介して読み出されるポータブルメディアアーティクルのような)コンピュータ可読媒体の(例えば、実行可能若しくは他の機械可読ソフトウェア命令又は構造化データのような)コンテンツとしても記憶され得る。 Further, in some embodiments, some or all of the components of the controller 428 and components of other devices in the system 400, 500 may be, but are not limited to, one or more application specific integrated circuits (" ASIC"), standard integrated circuits, controllers (e.g., by executing appropriate instructions and including microcontrollers and/or embedded controllers), field programmable gate arrays ("FPGA"), complex programmable logic devices (“CPLD”), etc., may be implemented or provided in other forms, such as at least partially in firmware and/or hardware. Some or all of the system components and/or data structures may also enable or configure a computer-readable medium and/or one or more associated computing systems or devices to perform or configure at least some of the described techniques. by a suitable device (e.g., hard disk, memory, computer network, cellular wireless network or other data transmission medium, or DVD or flash memory device, etc.) or by a suitable It may also be stored as content (eg, as executable or other machine-readable software instructions or structured data) on a computer-readable medium (such as a portable media article read over a connection).

図4及び5を参照して、制御部428は、支持リング414、並びにコンベアシステム402、支持体418及び支持リング414に関して内部又は外部に位置し得るワイヤ430のいずれかを通じて複数の撮像デバイス422の各々と電気通信している。あるいは、制御部428は、図5を参照して上記で説明したように、撮像デバイス422から撮像データを無線で受信するようにシステム400と無線通信し得る。さらに、制御部428は、システムに結合され、又はシステムに対して外部に位置し得る。実施形態では、制御部428は、システム400に電力を供給し、また撮像デバイス422から撮像データを受信する。制御部428は撮像データを処理するために標準的なコンピュータにおけるような少なくとも1つのプロセッサを含んでいてもよく、あるいは、制御部428は、明瞭化するために具体的には不図示の追加的な外部のプロセッサ又はコンピュータに撮像データを送信可能である。 Referring to FIGS. 4 and 5, controller 428 controls multiple imaging devices 422 through support ring 414 and wires 430 that may be either internal or external with respect to conveyor system 402 , support 418 and support ring 414 . are in electrical communication with each other. Alternatively, controller 428 may be in wireless communication with system 400 to wirelessly receive imaging data from imaging device 422, as described above with reference to FIG. Additionally, controller 428 may be coupled to the system or located external to the system. In an embodiment, controller 428 powers system 400 and receives imaging data from imaging device 422 . The controller 428 may include at least one processor, such as in a standard computer, for processing the imaging data, or the controller 428 may include additional processors not specifically shown for clarity. The imaging data can be transmitted to any external processor or computer.

図6は、コンベアシステム402、フレームすなわちフレーム504に結合されたリング504、フレーム504に結合されてそれから延在する撮像デバイス510、並びに第1及び第2の光源512、514を含む撮像システム500の代替の例示的な実施形態を示す。システム500の実施形態の特定の構成は、システム400を参照して上記で説明した構成と同様又は一致し、そのため、それらの構成は効率化のために繰り返されない。 FIG. 6 illustrates an imaging system 500 including a conveyor system 402, a frame or ring 504 coupled to the frame 504, an imaging device 510 coupled to and extending from the frame 504, and first and second light sources 512, 514. Figure 3 shows an alternative exemplary embodiment; Certain configurations of embodiments of system 500 are similar or consistent with configurations described above with reference to system 400, and thus those configurations are not repeated for efficiency.

この実施形態では、フレーム504は支持体506、508によりコンベアシステム502に結合され、支持体506は、フレーム504及びフレーム504を取り囲む少なくとも1つのカラー508を受けるためのチャネルを有するベースである。ただし、この実施形態は単一の撮像デバイス510を利用するので、システム500は、撮像デバイス510が複数の斜視図、角度又はビューから物体516の撮像データを取り込んで3D再構築を容易にすることができるように、コンベアシステム502の周囲でフレーム504を回転させるための機構をさらに含む。例えば、ベース506はチャネルに回転ベルトを含んでもよく、ベルトは、制御部428(図4参照)であり得る外部の制御部から受信される入力に従ってフレーム504を回転させるようにフレーム504に接触している。ただし、フレーム504を回転させるための市販の他の機構は、ここでは具体的に検討しない。さらに、フレームは自動的に回転されることが好ましいが、カラー508を操作することによって手動回転による回転をベースにすることが可能であり、カラー508は回転を阻害する閉位置と、フレーム504が回転可能な開位置との間で調節可能である。 In this embodiment, frame 504 is coupled to conveyor system 502 by supports 506 , 508 , support 506 being a base having a channel for receiving frame 504 and at least one collar 508 surrounding frame 504 . However, since this embodiment utilizes a single imaging device 510, system 500 allows imaging device 510 to capture imaging data of object 516 from multiple perspectives, angles, or views to facilitate 3D reconstruction. It further includes a mechanism for rotating the frame 504 about the conveyor system 502 so that the For example, base 506 may include a rotating belt in a channel that contacts frame 504 to rotate frame 504 according to input received from an external control, which may be control 428 (see FIG. 4). ing. However, other commercially available mechanisms for rotating frame 504 are not specifically discussed here. Further, although the frame is preferably automatically rotated, rotation can be based on manual rotation by manipulating collar 508, collar 508 inhibiting rotation in the closed position and frame 504 in the closed position. Adjustable between rotatable open positions.

そのように、この実施形態では、フレーム504は少なくとも第1の位置と第2の位置との間で回転し、第1の位置では撮像デバイス510は、透過率又はインタラクタンス撮像データに対応する第1のセットの撮像データを、第1の光源512又は第2の光源514からそれぞれ取り込む。そして、フレーム504は、第2の位置へと回転し、第2のセットの撮像データのための取込み処理を繰り返す。この処理が繰り返されて、具体的な用途(すなわち、物体516に関して異なる位置にある撮像デバイス510に基づいて3番目、4番目、5番目、6番目又はそれ以上のビュー)に対して必要とされるだけ多くの向きから多くのビューを生成することができる。さらに、フレーム504が自動的に回転される実施形態では、フレーム504の回転は、より少数の撮像デバイス510の使用に起因してシステム500のコストを削減しつつ、システム500の較正中に構築された位置に従って効率的になされ得る。 As such, in this embodiment, the frame 504 rotates between at least a first position and a second position, in which the imaging device 510 rotates the first position corresponding to the transmittance or interactance imaging data. A set of imaging data is captured from first light source 512 or second light source 514, respectively. Frame 504 then rotates to a second position and repeats the acquisition process for a second set of imaging data. This process is repeated as needed for a particular application (i.e., third, fourth, fifth, sixth or more views based on imaging device 510 at different positions with respect to object 516). You can generate as many views from as many orientations as possible. Further, in embodiments where the frame 504 is automatically rotated, the rotation of the frame 504 is built in during calibration of the system 500 while reducing the cost of the system 500 due to the use of fewer imaging devices 510. can be efficiently done according to the selected position.

図7は、システム600の例示的な表示を示し、それはシステム400、500と実質的に同様又は一致し得るものであり、システム600は外ハウジング又はカバー604を含み、外ハウジング604の壁612は固体であり不透明である。ハウジング604の入口部分又は開口部610は、光がハウジング604に入射不可能なように、各入口部分610の面積の少なくとも80%を超えて延在する不透明材料のストリップを備えるカバー608を含む。さらに、具体的には図示しないが、支持リング414又はフレーム504はハウジング604に結合及び支持されてもよく、制御部606はハウジング604の外壁612に結合されてもよく、種々の実施形態において、制御部606は、システム600に電力を供給し、回転フレーム504の位置に対応する座標を提供するとともに回転フレーム504の回転を制御し、又はシステム600から受信された撮像データに基づいて3Dモデルを生成するためにプロセッサを含む。 FIG. 7 shows an exemplary representation of a system 600, which may be substantially similar or identical to systems 400, 500, system 600 includes an outer housing or cover 604, with walls 612 of outer housing 604 Solid and opaque. The inlet portions or openings 610 of the housing 604 include covers 608 comprising strips of opaque material extending over at least 80% of the area of each inlet portion 610 such that light cannot enter the housing 604 . Additionally, although not specifically shown, the support ring 414 or frame 504 may be coupled to and supported by the housing 604, the controls 606 may be coupled to the outer wall 612 of the housing 604, and in various embodiments: The controller 606 powers the system 600 , provides coordinates corresponding to the position of the rotating frame 504 and controls the rotation of the rotating frame 504 , or creates a 3D model based on imaging data received from the system 600 . Including a processor to produce.

図8は、1次元(「1D」)撮像データ及び2次元(「2D」)シルエットから3Dモデル702を生成するように、機械学習システム又は深層畳込みニューラルネットワークによって利用される再構成方法又はシステム700の概略表示である。 FIG. 8 illustrates a reconstruction method or system utilized by a machine learning system or deep convolutional neural network to generate a 3D model 702 from one-dimensional (“1D”) imaging data and a two-dimensional (“2D”) silhouette. 700 is a schematic representation.

一般に、機械学習及び畳込みニューラルネットワーク(「CNN」)は、概して、一連の動作層として実施され得る。1以上の畳込み層は1以上のプーリング層に続いてもよく、1以上のプーリング層は選択的に1以上の正規化層に続き得る。畳込み層は、単一の未知の画像から複数のカーネルマップを作成し、それはフィルタ処理済み画像とも呼ばれる。複数のフィルタ処理済み画像における大量のデータは1以上のプーリング層で減少し、データの量は、データを正規化する1以上の正規化線形ユニット層(「ReLU」)によってさらに減少する。好適には、本開示の実施形態は、セマンティックセグメンテーションによるものであり、CNNの学習のためのパラメータは、アプリケーション依存的であり、同様に検査対象の食品に依存する画像データの複雑性により調整される必要がある。 In general, machine learning and convolutional neural networks (“CNNs”) can generally be implemented as a series of behavioral layers. One or more convolutional layers may follow one or more pooling layers, and one or more pooling layers may optionally follow one or more normalization layers. A convolutional layer creates multiple kernel maps from a single unknown image, also called a filtered image. The large amount of data in the multiple filtered images is reduced with one or more pooling layers, and the amount of data is further reduced by one or more normalization linear unit layers (“ReLU”) that normalize the data. Advantageously, embodiments of the present disclosure rely on semantic segmentation, and the parameters for training the CNN are application dependent and are adjusted according to the complexity of the image data, which in turn depends on the food under inspection. need to

言い換えると、カーネルは既知の画像から選択される。既知の画像のすべてのカーネルが、ニューラルネットワークによって使用される必要はない。代わりに、「重要な」構成であると判定されたカーネルが選択され得る。畳込み処理がカーネルマップ(すなわち、構成画像)を生成した後に、カーネルマップは、プーリング層及び正規化(すなわち、ReLU)層に通される。出力マップにおける値のすべては平均化(すなわち、合計及び除算)され、その平均からの出力値は、未知の画像が既知の画像に見られる特定の構成を含むか否かの予測として用いられる。 In other words, kernels are selected from known images. Not all kernels for a known image need be used by the neural network. Instead, kernels determined to be "critical" configurations may be selected. After the convolution process produces the kernel map (ie, constituent images), the kernel map is passed through a pooling layer and a normalization (ie, ReLU) layer. All of the values in the output map are averaged (ie summed and divided) and the output value from that average is used as a prediction of whether the unknown image contains a particular structure found in the known image.

例示的な場合には、出力値は、実施形態においてマグロの切り身のホワイトミート(すなわち、第1の部分)によって取り囲まれたダークミート(すなわち、第2の部分)のように、物体の第1の部分の内部に位置する物体の第2の部分である重要なものの構成を未知の画像が含むかを予測するのに使用される。そしてこの出力によって、CNNは、画像から目的の特定エリアに対応するシルエットを生成可能である。 In an exemplary case, the output value is the first portion of the object, such as dark meat (ie, second portion) surrounded by white meat (ie, first portion) of a tuna fillet in an embodiment. is used to predict whether an unknown image contains the composition of interest, the second part of the object located inside the part of . This output then allows the CNN to generate a silhouette corresponding to the specific area of interest from the image.

図示するシステム700では、機械学習プログラム又は深層畳み込みニューラルネットワークは、入力として、システム400、500により取り込まれた複数のビューから画像データ704を受信することになり、各画像データセットは第2の部分708を取り囲む第1の部分706とともにマグロの切り身の写真に対応する。カメラ又はスペクトルグラフはラインスキャンを使用して1Dデータを取得し得るが、1Dデータは、ここで説明するように、CNNによって使用される前に2D画像データに合成されて、シルエットを復元する。 In the illustrated system 700, a machine learning program or deep convolutional neural network will receive as input image data 704 from a plurality of views captured by the system 400, 500, each image data set having a second portion A first portion 706 surrounding 708 corresponds to a photograph of a tuna fillet. A camera or spectrograph may acquire 1D data using line scans, but the 1D data is synthesized into 2D image data before being used by the CNN to reconstruct the silhouette, as described herein.

スキャンされた物体がマグロの切り身である実施形態では、第1の部分706は第1のセットの特徴の第1の身の外層に対応し、第2の部分708は異なる第2のセットの特徴の第2の身の内層に対応し、第2の部分708が第1の部分706内に位置する。図7で示すように、画像データセット704の各々は、撮像データ、好適には、透過率撮像データに対応し、それはより明るい画素が第1の部分706に割り当てられ、より暗い画素が第2の部分708に割り当てられる強度値を表し得る。そのように、画像データ704は、それが2D画像の単一ラインであるという意味では1Dであり、又は言い換えると、CNNによって解析された各画素若しくはカーネルは強度値に対応する。 In an embodiment where the scanned object is a fillet of tuna, the first portion 706 corresponds to the first flesh outer layer of the first set of features, and the second portion 708 corresponds to a different second set of features. A second portion 708 is located within the first portion 706, corresponding to the inner layer of the second body of the. As shown in FIG. 7, each of image data sets 704 corresponds to imaging data, preferably transmission imaging data, in which lighter pixels are assigned to a first portion 706 and darker pixels to a second portion. may represent the intensity value assigned to the portion 708 of . As such, the image data 704 is 1D in the sense that it is a single line of a 2D image, or in other words, each pixel or kernel analyzed by the CNN corresponds to an intensity value.

機械学習プログラム又は深層畳み込みニューラルネットワークの最高レベルでは、CNNは、数千枚の代表的サンプル画像のプールに基づいて学習されて、第2の部分708(すなわち、マグロの切り身のダークミート)の一般的な外観を識別し、例えば、第2の部分708は、数千枚のマグロの切り身の画像を含み得る参照画像の大きなプールに基づいてその主軸と平行な切り身の中央を通過する。他のレベルでは、CNNは代表的サンプル画像に基づいて縁部、ライン及び曲線についての知見を取得することになり、CNNの精度は、より多くの画像がスキャンされるので向上する。そのように、強度値の相違に基づいて、CNNは第2の部分708に対応する写真の部分を識別することになる。これらの部分が識別されると、CNNは複数のシルエット710を定式化することになり、各シルエットが、2Dで表されるビューの各々において識別される第2の部分708に対応する。 At the highest level of machine learning programs or deep convolutional neural networks, the CNN is trained based on a pool of thousands of representative sample images to obtain a general representation of the second portion 708 (i.e. dark meat of tuna fillets). For example, the second portion 708 passes through the center of the fillet parallel to its major axis based on a large pool of reference images, which may include thousands of tuna fillet images. At another level, the CNN will acquire knowledge about edges, lines and curves based on representative sample images, and the accuracy of the CNN will improve as more images are scanned. As such, the CNN will identify the portion of the photograph corresponding to the second portion 708 based on the difference in intensity values. Once these portions are identified, the CNN will formulate a plurality of silhouettes 710, each corresponding to a second portion 708 identified in each of the 2D represented views.

例えば、CNNは多くの層で構成され、入力と出力の間の層は「隠れ層」と呼ばれる。各層は非常に多くのニューロンを有し、それらは層間で完全に接続される。これらの接続は、参照画像に基づいて学習された重みに対応する。ニューロン又はノードは、入力値を取得し、それを関連する重みと掛け合わせ、活性化関数(例えば、ここで説明するようなReLU)を通じてそれを検索し、出力を伝える演算部である。この出力は、他の接続を通じて結合された次のニューロンの入力を形成する。さらに、CNNは、ニューロンと同様に使用されるが異なる関数を有する畳込み、プーリング、正規化及びドロップアウトなどの他の層を含み得る。 For example, a CNN consists of many layers, and the layers between the input and output are called "hidden layers". Each layer has a large number of neurons, which are fully connected between layers. These connections correspond to weights learned based on reference images. A neuron or node is a computing unit that takes an input value, multiplies it with the associated weight, looks it up through an activation function (eg, ReLU as described herein), and delivers an output. This output forms the input of the next neuron coupled through other connections. In addition, CNNs may include other layers such as convolution, pooling, normalization and dropout that are used similarly to neurons but have different functions.

ネットワークが学習される前に、ノード間の接続又は重みはランダムに割り当てられる。ネットワークを学習すると、ラベル化又はアノテーション化データが使用される。例えば、入力データ(例えば、画像データ)は、期待される出力データ(例えば、シルエット)と相関される。第1の層において入力ノードを通じて入力データ(例えば、画像データ)を提供し、出力層(例えば、ラベル化シルエット)の期待値を認知することによって、入力データが何であっても、CNNが期待される出力を返送するように、いくつかの反復を通じて接続の重みを調整することができる。これは基本的に、大多数のパラメータによる最適化処理である。1つの重みが変えられる場合には、ネットワーク全体に影響を与えることになるので、CNNの学習は数十、数百又は数千の反復を含み得る。 Before the network is trained, connections or weights between nodes are randomly assigned. Training the network uses labeled or annotated data. For example, input data (eg, image data) is correlated with expected output data (eg, silhouettes). By providing the input data (e.g., image data) through the input nodes in the first layer and recognizing the expected value of the output layer (e.g., labeling silhouettes), the CNN expects whatever the input data is. A connection's weight can be adjusted through several iterations to return an output that This is basically an optimization process with a large number of parameters. Training a CNN can involve tens, hundreds, or even thousands of iterations, since if one weight is changed, it will affect the entire network.

CNNの畳込み層は画像のサイズを縮小し、それは確認可能な又は評価されるエリアを決定する。例えば、9×9画素の小ウインドウは、解析対象のフル画像にわたって移動する。そのウインドウでは、観察者は、物体全体の小区画(例えば、ライン及び角部)を確認し得る。画像サイズが縮小されるにしたがって、ウインドウサイズは同一に維持されるが、物体構成のより多くが認識される。ウインドウにおいて画像が非常に小さくかつほぼ整合する場合には、観察者は、単一の工程で切り身全体と、さらにダークミートとを確認し得る。 The CNN's convolutional layers reduce the size of the image, which determines the visible or evaluated area. For example, a small window of 9x9 pixels is moved across the full image under analysis. In that window, the observer can see small sections (eg, lines and corners) of the entire object. As the image size is reduced, the window size remains the same, but more of the object configuration is recognized. If the images are very small and nearly aligned in the window, the observer can see the whole fillet and also the dark meat in a single step.

これは、ニューラルネットワークが確認しているものの例である。ネットワークの前者の層では、例えば、マグロの魚の切り身におけるダークミートを識別する際に関係するライン及び角部を検出可能とする重みが学習されることになる。しかし後者の層では、ダークミート全体が物体として認識され、参照としてその周辺と関連する(例えば、ダークミートが、ホワイトミートの境界の間にあり、主軸と並んでいる)まで、これらのラインが曲線を形成することになる。これらの構成は、並行して学習されるが、すべて関連している。ライン及び角部がないと、ダークミートの境界は、ダークミートの全体の外観に基づいて位置特定するのは困難である。同様に、ダークミートに対応する多くのライン及び角部が存在するが、ダークミートの全体の外観は未知である場合には、どのライン及び角部が関連しているか判別するのは困難である。ただし、これらの高レベル及び低レベル双方の構成の知見を有することによって、画像データにおけるダークミートの検出が可能となる。 This is an example of what the neural network is seeing. In the former layer of the network, weights will be learned that allow detection of relevant lines and corners in identifying dark meat in, for example, tuna fish fillets. In the latter layer, however, these lines are displaced until the entire dark meat is recognized as an object and related to its surroundings as a reference (e.g., the dark meat lies between the borders of the white meat and is aligned with the principal axis). will form a curve. These constructs are learned in parallel, but are all related. Without lines and corners, the boundaries of the dark meat are difficult to locate based on the overall appearance of the dark meat. Similarly, there are many lines and corners corresponding to dark meat, but it is difficult to tell which lines and corners are relevant when the overall appearance of the dark meat is unknown. . However, having knowledge of both these high-level and low-level configurations allows the detection of dark meat in image data.

そして、演算システムは、アルゴリズムを使用することによって、複数のプロジェクション712にシルエット710の各々をバック投影し、アルゴリズムは、図7に示すように、各シルエット710の外境界に対応するラインをより高次元のシーンに拡張させる。シルエット710の各々をバック投影し、プロジェクション712の間の共通部分714を解析することによって、第2の部分708の3Dモデル702が決定され得る。実施形態では、バック投影は円すい形状の視野に基づいている。モード300などのインタラクタンス撮像モードに対応する撮像データは、目的の物体の深度に基づいてモデルを精細化するのに利用され得る。例えば、目的の物体の特性がそれに対応する情報のデータベースに基づいて既知である場合には、インタラクタンス撮像モードで取り込まれるように散乱する光量は、実施形態ではマグロの切り身のダークミートである目的の物体の深度に依存して変化することになる。さらに、インタラクタンス撮像データは、上記のように、取り込まれた光が物体の深度に従って変化することになるので、スキャンされた物体の表面における凹部形状の補正に役立つ。そのように、物体が凹部形状を有する場合には、インタラクタンス撮像データは凹部形状の物体の部分に対して相違することになり、材料は、材料がより厚い凹部形状がない物体の部分とは対照的により薄い(すなわち、取り込まれたより低い強度値は、光のよりわずかだけが散乱及び取り込まれることになるのでより薄い材料に対応し、より高い強度値は、光のより多くがより厚い材料を通じて浸透も透過もできない場合に散乱されることになるのでより厚い材料に対応する)。 The computing system then backprojects each of the silhouettes 710 onto a plurality of projections 712 by using an algorithm that draws a line corresponding to the outer boundary of each silhouette 710 higher, as shown in FIG. Let it expand into a dimensional scene. By backprojecting each of the silhouettes 710 and analyzing the intersection 714 between the projections 712, a 3D model 702 of the second portion 708 can be determined. In an embodiment, the back projection is based on a cone-shaped field of view. Imaging data corresponding to an interaction imaging mode, such as mode 300, can be used to refine the model based on the depth of the object of interest. For example, if the properties of the object of interest are known based on a database of information corresponding to it, the amount of light scattered to be captured in the interactance imaging mode is, in an embodiment, the dark meat of a tuna fillet. will change depending on the depth of the object. In addition, the interactance imaging data helps correct for concave topography in the surface of the scanned object, as the captured light will vary according to the depth of the object, as described above. As such, if the object has a concave shape, the interactance imaging data will be different for the portion of the object with the concave shape, the material being thicker than the portion of the object without the concave shape. In contrast, a thinner (i.e., lower intensity value captured) corresponds to a thinner material as less of the light will be scattered and captured; (corresponds to thicker materials, as they will be scattered if they cannot penetrate or pass through).

図9は、撮像システム(例えば、撮像システム400、500)によって取り込まれる画像データに基づいて目的の物体の3Dモデルを生成する例示的な方法800を表すフロー図である。方法800は820で開始し、コンベアが804で作動され、スキャン対象の物体がコンベア上に積載される。コンベアの作動は、外部スイッチを通じて、又は制御部若しくはプログラムを通じて実施可能である。同様に806では、光透過率システムは、符号200で示される透過率撮像モード200と略同等であり得るものであり、外部スイッチを介して手動で、又は制御部若しくはプロセッサを通じたいずれかで作動される。光透過率システムの一部である撮像デバイスは、それ自体で、又は透過率システムと電子通信する制御部と関連するプログラムを通じたいずれかで、808では、コンベアにおける物体を通過する光に対応する撮像デバイスによって透過率画像データが受信されるか判定し、実施形態では、撮像デバイスはスペクトルグラフ、カメラ又はセンサである。 FIG. 9 is a flow diagram representing an exemplary method 800 for generating a 3D model of an object of interest based on image data captured by an imaging system (eg, imaging systems 400, 500). The method 800 begins at 820, the conveyor is activated at 804, and an object to be scanned is loaded onto the conveyor. Operation of the conveyor can be performed through an external switch or through a controller or program. Similarly at 806, the light transmission system, which may be substantially equivalent to transmission imaging mode 200 indicated at 200, is activated either manually via an external switch or through a controller or processor. be done. An imaging device that is part of the light transmission system, either by itself or through a program associated with a controller in electronic communication with the transmission system, responds 808 to the light passing through the objects on the conveyor. A determination is made as to whether transmittance image data is received by an imaging device, which in embodiments is a spectrograph, camera, or sensor.

画像データが受信されない場合には、処理は806に戻り、画像データが受信されるまで繰り返す。透過率画像データが受信されると、それはプロセッサに送信され、方法800が810に進み、透過率モードが停止され、インタラクタンス撮像モードが作動される。インタラクタンス撮像モードは、図3を参照して説明したインタラクタンスモード300と略同等であり得る。再度812では、撮像デバイス、すなわちスペクトルグラフがインタラクタンス撮像データを受信するか判定される。受信しない場合には、プロセッサは、撮像デバイスがインタラクタンス撮像データを受信するまで810に戻ることによって繰り返す。インタラクタンス撮像データが検出されると、インタラクタンス撮像データは、814においてプロセッサに送信される。複数の撮像デバイスが存在する実施形態では、上記の処理は固有の撮像デバイス毎に繰り返されて、複数のビューを生成することができる。あるいは、撮像デバイスが回転する実施形態では、この処理は、複数のビュー又は複数の透過率撮像データセット及び複数のインタラクタンス撮像データセットを生成するために、撮像デバイスが固有の位置に位置するたびに繰り返される。 If no image data is received, the process returns to 806 and repeats until image data is received. Once the transmittance image data is received, it is sent to the processor and method 800 proceeds to 810 where transmittance mode is deactivated and interactance imaging mode is activated. The interactance imaging mode may be substantially equivalent to the interactance mode 300 described with reference to FIG. Again at 812, it is determined whether the imaging device, ie, the spectrograph, receives the interactance imaging data. If not, the processor repeats by returning to 810 until the imaging device receives the interaction imaging data. Once the interactance imaging data is detected, the interactance imaging data is sent to the processor at 814 . In embodiments where there are multiple imaging devices, the above process may be repeated for each unique imaging device to generate multiple views. Alternatively, in embodiments where the imaging device rotates, this process may be repeated each time the imaging device is positioned at a unique position to generate multiple views or multiple transmission imaging datasets and multiple interactance imaging datasets. is repeated to

プロセッサは、機械学習プログラム、すなわちCNNを含み、CNNは、入力として、816において各ビューに対応する透過率画像データを受信する。そして、CNNは、816において、実施形態では、一片の食品の内側に位置する物体、又は魚の第1の部分内に位置する魚の第2の部分である、各透過率画像データセットにおける目的の構成に対応する複数のシルエットを生成する。シルエットの各々は、818において、複数のプロジェクションにバック投影され、各プロジェクションの共通する共通部分が解析されて、共通部分に基づいて3D幾何学形状を決定する。そして、プロセッサは、822において、この3D幾何学形状を出力し、手動で又は追加的プロセッサ工程を通じたいずれかで、目的の物体がスキャンされた物体の表面近傍にあるか判定される。近傍にない場合には、3D幾何学形状が、透過率撮像データに基づいて出力され、方法800は828で終了する。 The processor includes a machine learning program, or CNN, which receives as input the transmittance image data corresponding to each view at 816 . The CNN then, at 816, determines the desired configuration in each transmittance image data set, which in embodiments is an object located inside a piece of food, or a second portion of a fish located within a first portion of a fish. Generate multiple silhouettes corresponding to . Each of the silhouettes is backprojected 818 into multiple projections and the common intersection of each projection is analyzed to determine 3D geometry based on the intersection. The processor then outputs this 3D geometry at 822 and it is determined, either manually or through additional processor steps, whether the object of interest is near the surface of the scanned object. If not, the 3D geometry is output based on the transmittance imaging data and method 800 ends at 828 .

目的の物体が表面近傍にある場合には、処理は824へ続き、CNNはインタラクタンス撮像データを使用して、透過率画像データに基づく3D幾何学形状を補正又は明瞭化する。3D幾何学形状が824において補正されると、プロセッサ、すなわちCNNは補正された3D幾何学形状を826において出力し、処理は828で終了する。 If the object of interest is near the surface, processing continues at 824 where the CNN uses the interactance imaging data to correct or clarify the 3D geometry based on the transmittance image data. Once the 3D geometry is corrected at 824, the processor, or CNN, outputs the corrected 3D geometry at 826 and the process ends at 828.

図10は、撮像システムによって取り込まれる画像データに基づいて、目的の物体の3Dモデルを生成するための方法900の代替の例示的な実施形態である。方法900は902で開始し、コンベア及び光透過率システム904が作動される。撮像デバイス、すなわちスペクトルグラフは、906において、透過率撮像データに対応する撮像データが撮像デバイスによって受信され又は取り込まれるか判定する。受信も取り込まれもしない場合には、プロセッサは、データが受信されるまで904に戻る。そのような場合には、方法900は908へと続き、透過率撮像データが908においてプロセッサに送信される。そして、プロセッサは、畳込みニューラルネットワークを介して、910において1D透過率画像データから複数の2Dシルエットを決定する。シルエットの各々はバック投影され、共通部分が912において解析される。そして、プロセッサは、914においてプロジェクションの各々の間の共通する共通部分に基づいて3D幾何学形状を出力する。 FIG. 10 is an alternative exemplary embodiment of a method 900 for generating a 3D model of an object of interest based on image data captured by an imaging system. The method 900 starts at 902 where the conveyor and light transmission system 904 are activated. The imaging device, ie, the spectrograph, determines 906 whether imaging data corresponding to the transmission imaging data is received or captured by the imaging device. If neither received nor captured, the processor returns to 904 until data is received. In such cases, the method 900 continues to 908 where the transmission imaging data is sent to the processor. The processor then determines a plurality of 2D silhouettes from the 1D transmittance image data at 910 via a convolutional neural network. Each of the silhouettes is backprojected and the intersection analyzed at 912 . The processor then outputs 3D geometry at 914 based on the common intersection between each of the projections.

そして、916においてプロセッサ、すなわちCNNにより、目的の物体がスキャンされた物体の表面近傍にあるかを判定される。近傍にない場合には、方法900は926で終了し、3Dモデルは透過率撮像データに基づく。近傍にある場合には、方法900は918においてインタラクタンス撮像システムを作動し続け、撮像デバイスは、インタラクタンス撮像データに対応する撮像データが920において撮像デバイス又はスペクトルグラフによって受信されるか判定する。受信されない場合には、方法900は、そのようなデータが受信又は取り込まれるまで918に戻る。受信され又は取り込まれるような場合には、方法900は922に進み、インタラクタンス撮像データがプロセッサに送信され、必要であれば、インタラクタンス撮像データに基づいて3Dモデルが補正される。最終的に、補正された3Dモデルは924において出力され、方法900は926で終了する。 It is then determined at 916 by the processor, or CNN, whether the object of interest is near the surface of the scanned object. If not, the method 900 ends at 926 and the 3D model is based on the transmission imaging data. If so, the method 900 continues operating the interactance imaging system at 918 and the imaging device determines at 920 whether imaging data corresponding to the interactance imaging data is received by the imaging device or spectrograph. If not, method 900 returns to 918 until such data is received or captured. If so, method 900 proceeds to 922 where the interactance imaging data is sent to a processor and, if necessary, the 3D model is corrected based on the interactance imaging data. Finally, the corrected 3D model is output at 924 and the method 900 ends at 926.

3次元情報の取得を通じて、本開示は、特定の食品材料が廃棄される必要があるか否かについての品質制御検査に影響を及ぼし得る内部不良の容積及び形状をより正確に決定可能とする。さらに、物体の3次元幾何学形状を認知することによって、二次製品の加工及び除去がより正確に実行可能であるため、一次製品の損失を最小化する。 Through the acquisition of three-dimensional information, the present disclosure enables more accurate determination of the volume and shape of internal defects that can affect quality control inspections as to whether a particular food ingredient should be discarded. Furthermore, by knowing the three-dimensional geometry of the object, processing and removal of secondary products can be performed more accurately, thus minimizing loss of primary products.

図示する実施形態の上記の説明は、概要で説明されるものを含み、包括的であることも、開示される精密な形態に実施形態を限定することも意図していない。具体的な例の実施形態及び例が例示を目的としてここでは説明されるが、種々の均等な変更は、当業者によって認識されるように、開示の趣旨及び範囲から逸脱することなくなされ得る。種々の実施形態のここで提供される教示は、必ずしも上記に概説した例示的な撮像システム及び方法ではなく、食品加工の背景外にも適用可能である。 The above description of the illustrated embodiments includes what is described in summary and is not intended to be exhaustive or to limit the embodiments to the precise forms disclosed. Although specific example embodiments and examples are described herein for purposes of illustration, various equivalent changes can be made without departing from the spirit and scope of the disclosure, as recognized by those skilled in the art. The teachings provided herein of various embodiments are applicable outside the context of food processing, not necessarily the exemplary imaging systems and methods outlined above.

例えば、上記の詳細な説明は、ブロック図、概略図及び例の使用を介してデバイス及び/又は処理の種々の実施形態を説明した。そのようなブロック図、概略図及び例が1以上の機能及び/又は動作を含む限り、そのようなブロック図、フローチャート又は例の内部の各機能及び/又は動作が、個々に及び/若しくは集約的に、広範なハードウェア、ソフトウェア、ファームウェアによって又はその任意の組合せで実質的に実施可能であることが当業者に理解されるはずである。一実施形態では、本主題は、特定用途向け集積回路(ASIC)を介して実施され得る。ただし、当業者は、ここで開示される実施形態が、全体的に又は部分的に、1以上のコンピュータによって実行される1以上のコンピュータプログラムとして(例えば、1以上のコンピュータシステム上で稼働する1以上のプログラムとして)、1以上のコントローラ(例えば、マイクロコントローラ)によって実行される1以上のプログラムとして、1以上のプロセッサ(例えば、マイクロプロセッサ)によって実行される1以上のプログラムとして、ファームウェアとして、又はそれらの実質的に任意の組合せとして標準的な集積回路で均等に実施可能であり、回路の設計、並びに/又はソフトウェア及び/若しくはファームウェアに対するコードの記述が、この開示の教示の観点から十分に当業者の技術の範囲内にあることを認識することになる。 For example, the above detailed description has set forth various embodiments of devices and/or processes through the use of block diagrams, schematic diagrams, and examples. To the extent such block diagrams, schematic diagrams and examples include one or more functions and/or acts, each function and/or act within such block diagrams, flowcharts or examples may be individually and/or collectively Moreover, it should be understood by those skilled in the art that it can be substantially implemented by a wide variety of hardware, software, firmware, or any combination thereof. In one embodiment, the present subject matter may be implemented via an application specific integrated circuit (ASIC). However, one skilled in the art will appreciate that the embodiments disclosed herein can be implemented in whole or in part as one or more computer programs executed by one or more computers (e.g., one program running on one or more computer systems). as one or more programs executed by one or more controllers (e.g., microcontrollers); as one or more programs executed by one or more processors (e.g., microprocessors); as firmware; Substantially any combination thereof is equally implementable on a standard integrated circuit, and the design of the circuits and/or the writing of code for software and/or firmware are fully relevant in light of the teachings of this disclosure. You will recognize that you are within the skill of the trader.

ロジックが、ソフトウェアとして実施され、メモリに記憶された場合には、ロジック又は情報は、任意のプロセッサ関連システム又は方法によって又はそれと接続して使用するために任意のコンピュータ可読媒体に記憶され得る。この開示の背景において、メモリは、電子的、磁気的、光学的若しくは物理的デバイス、又はコンピュータ及び/若しくはプロセッサプログラムを含み、若しくは記憶する手段であるコンピュータ可読媒体である。ロジック及び/又は情報は、命令実行システム、装置又はデバイスからの命令をフェッチするとともに、ロジック及び/又は情報に関連の命令を実行可能なコンピュータによるシステム、プロセッサ内蔵システム又は他のシステムなどの命令実行システム、装置若しくはデバイスによって又はそれと接続して使用するために任意のコンピュータ可読媒体において具現化され得る。 When the logic is implemented as software and stored in memory, the logic or information may be stored on any computer-readable medium for use by or in connection with any processor-related system or method. In the context of this disclosure, a memory is an electronic, magnetic, optical or physical device or computer readable medium that is a means for containing or storing a computer and/or processor program. Logic and/or information is an instruction execution system, such as a computer-based system, a processor-embedded system, or other system capable of fetching instructions from an instruction execution system, apparatus, or device, and executing instructions associated with the logic and/or information. It may be embodied in any computer readable medium for use by or in connection with a system, apparatus or device.

この明細書の文脈において、「コンピュータ可読媒体」は、命令実行システム、装置及び/若しくはデバイスによって又はそれと接続して使用するためのロジック及び/又は情報に関連のプログラムを記憶可能な任意の素子であり得る。コンピュータ可読媒体は、例えば、それに限定されないが、電子的、磁気的、光学的、電磁気的、赤外又は半導体のシステム、装置又はデバイスであり得る。コンピュータ可読媒体のより具体的な例(非包括的な列挙)は以下の、ポータブルコンピュータディスケット(磁気カード、コンパクトフラッシュカード、セキュアデジタルカードなど)、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、消去可能プログラマブル読出し専用メモリ(EPROM、EEPROM又はフラッシュメモリ)、可搬コンパクトディスク読出し専用メモリ(CDROM)、デジタルテープ及び他の非一時的媒体を含み得る。 In the context of this specification, a "computer-readable medium" is any element capable of storing a program related logic and/or information for use by or in connection with an instruction execution system, apparatus and/or device. could be. A computer readable medium can be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device. More specific examples (non-exhaustive enumeration) of computer readable media are: portable computer diskettes (magnetic cards, compact flash cards, secure digital cards, etc.), random access memory (RAM), read only memory (ROM) , erasable programmable read-only memory (EPROM, EEPROM or flash memory), portable compact disc read-only memory (CDROM), digital tape and other non-transitory media.

ここで説明する方法の多くは、変形例により実行可能である。例えば、方法の多くは、追加的動作を含み、一部の動作を省略し、及び/又は図示若しくは説明するものとは異なる順序で動作を実行し得る。 Many of the methods described herein can be implemented with variations. For example, many of the methods may include additional acts, omit some acts, and/or perform acts in a different order than shown or described.

上記の種々の実施形態は、さらなる実施形態を提供するように組み合わせ可能である。それらがここでの具体的な教示及び定義と矛盾しない程度に、この明細書で言及され、及び/又は出願データシートに列挙される米国特許、米国特許出願公開、米国特許出願、外国特許、外国特許出願及び非特許刊行物のすべては、その全体において参照によりここに取り込まれる。実施形態の態様は、必要に応じて、種々の特許、明細書及び公開の趣旨を採用してまたさらなる実施形態を提供するように変更可能である。 The various embodiments described above can be combined to provide further embodiments. US patents, US patent application publications, US patent applications, foreign patents, foreign patents, US patent applications, US patent applications, foreign patents, foreign patents, referenced herein and/or listed in application data sheets to the extent they are consistent with the specific teachings and definitions herein. All patent applications and non-patent publications are hereby incorporated by reference in their entirety. Aspects of the embodiments can be modified, if necessary, to employ the teachings of the various patents, specifications and publications to provide still further embodiments.

これら及び他の変更は、上記で詳述した説明の観点で実施形態に対してなされ得る。一般に、以下の特許請求の範囲において、使用される用語は、明細書及び特許請求の範囲に開示される具体的な実施形態に特許請求の範囲を限定するように解釈されるべきでなく、そのような特許請求の範囲が権利を有する均等物の全範囲とともに可能なすべての実施形態を含むように解釈されるべきである。したがって、特許請求の範囲は、開示によっては限定されない。
なお、本発明には以下の態様が含まれることを付記する。
[態様1]
第1のコンベアと、
ギャップによって前記第1のコンベアと離されている第2のコンベアと、
前記ギャップに位置決めされ、前記第1のコンベア及び前記第2のコンベアの少なくとも一方に結合された透明プレートと、
前記ギャップに少なくとも部分的に位置決めされ、前記第1のコンベア及び前記第2のコンベアの少なくとも一方に結合された支持リングと、
前記支持リングに結合された少なくとも1つの撮像デバイスと、
前記支持リングに結合された第1の光源と、
前記支持リング及び前記少なくとも1つの撮像デバイスと電子通信する制御部と
を備えたシステムであって、
動作中に、前記第1の光源は前記透明プレート上の物体に向けて方向付けられた光を放射し、前記制御部は前記少なくとも1つの撮像デバイスから撮像データを受信し、前記制御部は、前記物体の第1の部分内に含まれた前記物体の第2の部分の3Dモデルを構成する、前記システム。
[態様2]
前記少なくとも1つの撮像デバイスが前記制御部に撮像データを送信し、該撮像データはインタラクタンス撮像データ及び透過率撮像データのうちの一方を含む、態様1に記載のシステム。
[態様3]
前記物体がマグロの切り身であり、前記第1の光源は約1260ナノメートル、約805ナノメートル又は約770ナノメートルのうちの1つに等しい波長の光を放射する、態様1に記載のシステム。
[態様4]
プロセッサが、畳込みニューラルネットワークの形態で機械学習を使用して、前記撮像データを処理する、態様1に記載のシステム。
[態様5]
前記畳込みニューラルネットワークが、前記画像データを受信し、前記物体の前記第2の部分に対応する該画像データに基づいて複数のシルエットを出力し、前記プロセッサは、複数のプロジェクションに前記シルエットを投影し、前記複数のプロジェクション間の共通部分を解析して前記3Dモデルを構成する、態様4に記載のシステム。
[態様6]
前記支持リングが該支持リングに結合された複数のカメラを含み、前記複数のカメラの各々は、前記第1の光源から、透過率、インタラクタンス又は反射率の撮像データのうちの1つを取り込む、態様1に記載のシステム。
[態様7]
前記支持リングが該支持リングに結合された第2の光源を含み、該第2の光源は、動作中に前記透明プレートに方向付けられた光を放射する、態様6に記載のシステム。
[態様8]
コンベアの第1の部分と第2の部分の間に空間を有するコンベアと、
前記空間に位置決めされ、前記コンベアに結合されたプレートと、
前記空間に少なくとも部分的に位置決めされ、前記コンベアに結合された支持リングと、
前記支持リングに結合された少なくとも1つの光源と、
前記支持リングに結合された撮像デバイスと、
前記撮像デバイスと電子通信するプロセッサと
を備えたデバイスであって、
動作中に、前記支持リングが少なくとも第1の位置と第2の位置の間で回転し、前記少なくとも1つの光源は前記プレート上の物体に向けて方向付けられた光を放射し、前記撮像デバイスは、前記光が前記物体を通過した後に前記少なくとも1つの光源から光を受光し、
前記プロセッサは、前記撮像デバイスから前記支持リングが前記第1の位置にある場合の第1のセットの画像データ、及び前記撮像デバイスから前記支持リングが前記第2の位置にある場合の第2のセットの画像データを受信し、前記第1のセットの画像データ及び前記第2のセットの画像データから前記物体の内側部分の3Dモデルを出力する、前記デバイス。
[態様9]
前記プロセッサが、機械学習を利用して、前記第1のセットの画像データ及び前記第2のセットの画像データを複数のシルエットに処理し、該複数のシルエットを複数のプロジェクションに投影し、前記3次元モデルは該複数のプロジェクションの各々の間の共通部分に基づく、態様8に記載のデバイス。
[態様10]
前記支持リングに結合された第2の光源をさらに備え、前記撮像デバイスは、前記第2の光源から前記支持リングが前記第1又は第2の位置にある場合の第3のセットの画像データを取り込み、前記プロセッサは該第3のセットの画像データを利用して前記3次元モデルの境界を明瞭化する、態様8に記載のデバイス。
[態様11]
前記撮像デバイスがスペクトルグラフであり、前記少なくとも1つの光源は約1260ナノメートル、約805ナノメートル又は約770ナノメートルのものから選択される波長の光を放射する、態様8に記載のデバイス。
[態様12]
光源から光を放射するステップであって、該放射するステップは第1の部分及び第2の部分を有する物体を通じて前記光を方向付けることを含み、前記第2の部分は前記第1の部分内に取り囲まれた、ステップと、
前記光が前記物体を通過した後に、撮像デバイスにより前記光源から光を取り込むステップであって、前記取り込まれた光は前記撮像デバイスによって受光された前記第1の部分及び前記第2の部分の画像データに対応する、ステップと、
前記画像データをプロセッサに送信するステップと、
前記第1の部分と前記第2の部分の間の境界を検出するように、該プロセッサにより前記画像データを解析するステップであって、該解析するステップは機械学習を利用して前記第2の部分の3次元表示を生成することを含む、ステップと
を備える方法。
[態様13]
前記光源から光を放射するステップが、約1260ナノメートル、約805ナノメートル又は約770ナノメートルのものから選択される波長の前記光を放射することを含む、態様12に記載の方法。
[態様14]
機械学習を利用して前記第2の部分の前記3次元表示を生成するステップは、前記画像データを処理するために前記機械学習が深層畳込みニューラルネットワークを利用することを含む、態様12に記載の方法。
[態様15]
前記プロセッサにより前記画像データを解析するステップは、機械学習を利用して前記第2の部分の前記画像データに対応する複数の2次元シルエットを出力することを含む、態様12に記載の方法。
[態様16]
前記プロセッサにより前記画像データを解析するステップは、機械学習を利用して複数のプロジェクションを作成することを含み、各プロジェクションが前記複数の2次元シルエットのそれぞれ1つに対応する、態様15に記載の方法。
[態様17]
解析するステップが、機械学習を利用して3次元表示を生成することを含み、前記複数のプロジェクションの各々の間の共通部分を解析して前記物体の前記第2の部分の3次元表示を出力することをさらに含む、態様15に記載の方法。


These and other changes can be made to the embodiments in light of the above detailed description. In general, the terms used in the following claims should not be construed to limit the scope of the claims to the specific embodiments disclosed in the specification and claims; Such claims should be interpreted to include all possible embodiments, along with the full scope of equivalents to which such claims are entitled. Accordingly, the claims are not limited by the disclosure.
It should be noted that the present invention includes the following aspects.
[Aspect 1]
a first conveyor;
a second conveyor separated from the first conveyor by a gap;
a transparent plate positioned in the gap and coupled to at least one of the first conveyor and the second conveyor;
a support ring positioned at least partially in the gap and coupled to at least one of the first conveyor and the second conveyor;
at least one imaging device coupled to the support ring;
a first light source coupled to the support ring;
a controller in electronic communication with the support ring and the at least one imaging device;
A system comprising
During operation, the first light source emits light directed toward an object on the transparent plate, the controller receives imaging data from the at least one imaging device, the controller comprises: The system for constructing a 3D model of the second portion of the object contained within the first portion of the object.
[Aspect 2]
2. The system of aspect 1, wherein the at least one imaging device transmits imaging data to the controller, the imaging data including one of interactance imaging data and transmittance imaging data.
[Aspect 3]
Aspect 1. The system of aspect 1, wherein the object is a tuna fillet and the first light source emits light at a wavelength equal to one of approximately 1260 nanometers, approximately 805 nanometers, or approximately 770 nanometers.
[Aspect 4]
2. The system of aspect 1, wherein the processor processes the imaging data using machine learning in the form of convolutional neural networks.
[Aspect 5]
The convolutional neural network receives the image data and outputs a plurality of silhouettes based on the image data corresponding to the second portion of the object, and the processor projects the silhouettes onto a plurality of projections. and analyzing intersections between the plurality of projections to construct the 3D model.
[Aspect 6]
The support ring includes a plurality of cameras coupled to the support ring, each of the plurality of cameras capturing one of transmittance, interactance or reflectance imaging data from the first light source. A system according to claim 1.
[Aspect 7]
7. The system of aspect 6, wherein the support ring includes a second light source coupled to the support ring, the second light source emitting light directed toward the transparent plate during operation.
[Aspect 8]
a conveyor having a space between a first portion and a second portion of the conveyor;
a plate positioned in the space and coupled to the conveyor;
a support ring positioned at least partially in the space and coupled to the conveyor;
at least one light source coupled to the support ring;
an imaging device coupled to the support ring;
a processor in electronic communication with the imaging device;
A device comprising
During operation, the support ring rotates between at least a first position and a second position, the at least one light source emits light directed toward an object on the plate, and the imaging device receives light from the at least one light source after the light has passed through the object;
The processor outputs a first set of image data from the imaging device when the support ring is in the first position and a second set of image data from the imaging device when the support ring is in the second position. The device receiving a set of image data and outputting a 3D model of an interior portion of the object from the first set of image data and the second set of image data.
[Aspect 9]
The processor utilizes machine learning to process the first set of image data and the second set of image data into a plurality of silhouettes, project the plurality of silhouettes onto a plurality of projections, and 9. The device of aspect 8, wherein the dimensional model is based on intersections between each of the plurality of projections.
[Aspect 10]
Further comprising a second light source coupled to the support ring, the imaging device captures a third set of image data from the second light source when the support ring is in the first or second position. 9. The device of aspect 8, wherein capturing, the processor utilizes the third set of image data to clarify boundaries of the three-dimensional model.
[Aspect 11]
9. The device of aspect 8, wherein the imaging device is a spectrograph and the at least one light source emits light at a wavelength selected from about 1260 nanometers, about 805 nanometers, or about 770 nanometers.
[Aspect 12]
emitting light from a light source, said emitting step comprising directing said light through an object having a first portion and a second portion, said second portion within said first portion; a step surrounded by
Capturing light from the light source with an imaging device after the light has passed through the object, the captured light being an image of the first portion and the second portion received by the imaging device. a step corresponding to the data;
sending the image data to a processor;
analyzing the image data by the processor to detect a boundary between the first portion and the second portion, the analyzing step utilizing machine learning to detect the second portion; generating a three-dimensional representation of the portion;
How to prepare.
[Aspect 13]
13. The method of aspect 12, wherein emitting light from the light source comprises emitting the light at a wavelength selected from about 1260 nanometers, about 805 nanometers, or about 770 nanometers.
[Aspect 14]
13. The method of aspect 12, wherein utilizing machine learning to generate the three-dimensional representation of the second portion comprises the machine learning utilizing a deep convolutional neural network to process the image data. the method of.
[Aspect 15]
13. The method of aspect 12, wherein analyzing the image data by the processor includes utilizing machine learning to output a plurality of two-dimensional silhouettes corresponding to the image data of the second portion.
[Aspect 16]
16. Aspect 15, wherein analyzing the image data by the processor includes utilizing machine learning to create a plurality of projections, each projection corresponding to a respective one of the plurality of two-dimensional silhouettes. Method.
[Aspect 17]
The analyzing step includes generating a three-dimensional representation using machine learning, analyzing intersections between each of the plurality of projections to output a three-dimensional representation of the second portion of the object. 16. The method of aspect 15, further comprising:


Claims (15)

第1のコンベアと、
ギャップによって前記第1のコンベアと離されている第2のコンベアと、
前記ギャップに位置決めされ、前記第1のコンベア及び前記第2のコンベアの少なくとも一方に結合された透明プレートと、
前記ギャップに少なくとも部分的に位置決めされ、前記第1のコンベア及び前記第2のコンベアの少なくとも一方に結合された支持リングと、
前記支持リングに結合された複数の撮像デバイスと、
前記支持リングに結合され、約1260ナノメートル、約805ナノメートル又は約770ナノメートルのうちの1つに等しい波長の光を放射する、第1の光源と、
前記支持リング及び前記複数の撮像デバイスと電子通信する制御部と
を備えたシステムであって、
動作中に、前記第1の光源は前記透明プレート上の食品に向けて方向付けられた光を放射し、前記制御部は前記複数の撮像デバイスから撮像データを受信し、前記制御部は、前記食品の第1の部分内に含まれた前記食品の第2の部分の3Dモデルを構成し、
前記複数の撮像デバイスが前記制御部に撮像データを送信し、該撮像データはインタラクタンス撮像データ及び透過率撮像データのうちの一方を含む、前記システム。
a first conveyor;
a second conveyor separated from the first conveyor by a gap;
a transparent plate positioned in the gap and coupled to at least one of the first conveyor and the second conveyor;
a support ring positioned at least partially in the gap and coupled to at least one of the first conveyor and the second conveyor;
a plurality of imaging devices coupled to the support ring;
a first light source coupled to the support ring and emitting light at a wavelength equal to one of about 1260 nanometers, about 805 nanometers, or about 770 nanometers;
A system comprising a controller in electronic communication with the support ring and the plurality of imaging devices, comprising:
During operation, the first light source emits light directed toward food on the transparent plate, the controller receives imaging data from the plurality of imaging devices, and the controller receives imaging data from the plurality of imaging devices. constructing a 3D model of a second portion of the food product contained within the first portion of the food product ;
The system, wherein the plurality of imaging devices transmit imaging data to the controller, the imaging data including one of interactance imaging data and transmittance imaging data.
前記食品がマグロの切り身である、請求項1に記載のシステム。 2. The system of claim 1, wherein the food product is tuna fillet. プロセッサが、畳込みニューラルネットワークの形態で機械学習を使用して、前記撮像データを処理する、請求項1に記載のシステム。 2. The system of claim 1, wherein the processor processes the imaging data using machine learning in the form of convolutional neural networks. 前記畳込みニューラルネットワークが、前記複数の撮像デバイスから画像データを受信し、前記食品の前記第2の部分に対応する該画像データに基づいて複数のシルエットを出力し、前記プロセッサは、複数のプロジェクションに前記シルエットを投影し、前記複数のプロジェクション間の共通部分を解析して前記3Dモデルを構成する、請求項3に記載のシステム。 The convolutional neural network receives image data from the plurality of imaging devices and outputs a plurality of silhouettes based on the image data corresponding to the second portion of the food product , and the processor generates a plurality of projections. 4. The system of claim 3, wherein the silhouette is projected onto the 3D model and the intersection between the plurality of projections is analyzed to construct the 3D model. 前記支持リングが該支持リングに結合された複数のカメラを含み、前記複数のカメラの各々は、前記第1の光源から、透過率、インタラクタンス又は反射率の撮像データのうちの1つを取り込む、請求項1に記載のシステム。 The support ring includes a plurality of cameras coupled to the support ring, each of the plurality of cameras capturing one of transmittance, interactance or reflectance imaging data from the first light source. , the system of claim 1. 前記支持リングが該支持リングに結合された第2の光源を含み、該第2の光源は、動作中に前記透明プレートに方向付けられた光を放射する、請求項5に記載のシステム。 6. The system of claim 5 , wherein the support ring includes a second light source coupled to the support ring, the second light source emitting light directed toward the transparent plate during operation. コンベアの第1の部分と第2の部分の間に空間を有するコンベアと、
前記空間に位置決めされ、前記コンベアに結合されたプレートと、
前記空間に少なくとも部分的に位置決めされ、前記コンベアに結合された支持リングと、
前記支持リングに結合され、約1260ナノメートル、約805ナノメートル又は約770ナノメートルのうちの1つに等しい波長の光を放射する、少なくとも1つの光源と、
前記支持リングに結合された撮像デバイスと、
前記撮像デバイスと電子通信するプロセッサと
を備えたデバイスであって、
動作中に、前記支持リングが少なくとも第1の位置と第2の位置の間で回転し、前記少なくとも1つの光源は前記プレート上の食品に向けて方向付けられた光を放射し、前記撮像デバイスは、前記光が前記食品を通過した後に前記少なくとも1つの光源から光を受光し、
前記プロセッサは、前記撮像デバイスから前記支持リングが前記第1の位置にある場合の第1のセットの画像データ、及び前記撮像デバイスから前記支持リングが前記第2の位置にある場合の第2のセットの画像データを受信し、前記第1のセットの画像データ及び前記第2のセットの画像データから前記食品の内側部分の3Dモデルを出力する、前記デバイス。
a conveyor having a space between a first portion and a second portion of the conveyor;
a plate positioned in the space and coupled to the conveyor;
a support ring positioned at least partially in the space and coupled to the conveyor;
at least one light source coupled to the support ring and emitting light at a wavelength equal to one of about 1260 nanometers, about 805 nanometers, or about 770 nanometers;
an imaging device coupled to the support ring;
A device comprising a processor in electronic communication with the imaging device, comprising:
During operation, the support ring rotates between at least first and second positions, the at least one light source emits light directed toward the food product on the plate, and the imaging device receives light from the at least one light source after the light has passed through the food product ;
The processor outputs a first set of image data from the imaging device when the support ring is in the first position and a second set of image data from the imaging device when the support ring is in the second position. The device receiving a set of image data and outputting a 3D model of an inner portion of the food product from the first set of image data and the second set of image data.
前記プロセッサが、機械学習を利用して、前記第1のセットの画像データ及び前記第2のセットの画像データを複数のシルエットに処理し、該複数のシルエットを複数のプロジェクションに投影し、前記3Dモデルは該複数のプロジェクションの各々の間の共通部分に基づく、請求項7に記載のデバイス。 The processor utilizes machine learning to process the first set of image data and the second set of image data into a plurality of silhouettes, project the plurality of silhouettes onto a plurality of projections, and 8. The device of claim 7 , wherein a model is based on intersections between each of said plurality of projections. 前記支持リングに結合された第2の光源をさらに備え、前記撮像デバイスは、前記第2の光源から前記支持リングが前記第1又は第2の位置にある場合の第3のセットの画像データを取り込み、前記プロセッサは該第3のセットの画像データを利用して前記3Dモデルの境界を明瞭化する、請求項7に記載のデバイス。 Further comprising a second light source coupled to the support ring, the imaging device captures a third set of image data from the second light source when the support ring is in the first or second position. 8. The device of claim 7, wherein capturing, the processor utilizes the third set of image data to clarify boundaries of the 3D model. 前記撮像デバイスがスペクトルグラフである、請求項7に記載のデバイス。 8. The device of claim 7, wherein said imaging device is a spectrograph. 食品をコンベアで搬送するステップと、
光源から光を放射するステップであって、該放射するステップは第1の部分及び第2の部分を有する前記食品を通じて前記光を方向付けることを含み、前記第2の部分は前記第1の部分内に取り囲まれ、前記光源は約1260ナノメートル、約805ナノメートル又は約770ナノメートルのうちの1つに等しい波長の光を放射する、テップと、
前記光が前記食品を通過した後に、撮像デバイスにより前記光源から光を取り込むステップであって、前記取り込まれた光は前記撮像デバイスによって受光された前記第1の部分及び前記第2の部分の画像データに対応する、ステップと、
前記画像データをプロセッサに送信するステップと、
前記第1の部分と前記第2の部分の間の境界を検出するように、該プロセッサにより前記画像データを解析するステップであって、該解析するステップは機械学習を利用して前記第2の部分の3次元表示を生成することを含む、ステップと
を備える方法。
conveying the food product on a conveyor;
emitting light from a light source, said emitting step comprising directing said light through said food product having a first portion and a second portion, said second portion being said first portion; said light source emitting light at a wavelength equal to one of about 1260 nanometers, about 805 nanometers or about 770 nanometers ;
Capturing light from the light source with an imaging device after the light has passed through the food product , wherein the captured light is an image of the first portion and the second portion received by the imaging device. a step corresponding to the data;
sending the image data to a processor;
analyzing the image data by the processor to detect a boundary between the first portion and the second portion, the analyzing step utilizing machine learning to detect the second portion; and generating a three-dimensional representation of the portion.
機械学習を利用して前記第2の部分の前記3次元表示を生成するステップは、前記画像データを処理するために前記機械学習が深層畳込みニューラルネットワークを利用することを含む、請求項11に記載の方法。 12. The method of claim 11 , wherein utilizing machine learning to generate the three-dimensional representation of the second portion comprises the machine learning utilizing a deep convolutional neural network to process the image data. described method. 前記プロセッサにより前記画像データを解析するステップは、機械学習を利用して前記第2の部分の前記画像データに対応する複数の2次元シルエットを出力することを含む、請求項11に記載の方法。 12. The method of claim 11 , wherein analyzing the image data by the processor includes utilizing machine learning to output a plurality of two-dimensional silhouettes corresponding to the image data of the second portion. 前記プロセッサにより前記画像データを解析するステップは、機械学習を利用して複数のプロジェクションを作成することを含み、各プロジェクションが前記複数の2次元シルエットのそれぞれ1つに対応する、請求項13に記載の方法。 14. The step of analyzing the image data by the processor comprises utilizing machine learning to create a plurality of projections, each projection corresponding to a respective one of the plurality of two-dimensional silhouettes. the method of. 解析するステップが、機械学習を利用して3次元表示を生成することを含み、前記複数のプロジェクションの各々の間の共通部分を解析して前記食品の前記第2の部分の3次元表示を出力することをさらに含む、請求項14に記載の方法。
The analyzing step includes generating a three-dimensional representation using machine learning, analyzing intersections between each of the plurality of projections to output a three-dimensional representation of the second portion of the food product . 15. The method of claim 14 , further comprising:
JP2021507475A 2018-08-16 2018-12-18 Multi-view imaging system and method for non-invasive inspection in food processing Active JP7324271B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862765113P 2018-08-16 2018-08-16
US62/765,113 2018-08-16
PCT/US2018/066314 WO2020036620A1 (en) 2018-08-16 2018-12-18 Multi-view imaging system and methods for non-invasive inspection in food processing

Publications (2)

Publication Number Publication Date
JP2021535367A JP2021535367A (en) 2021-12-16
JP7324271B2 true JP7324271B2 (en) 2023-08-09

Family

ID=65003598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021507475A Active JP7324271B2 (en) 2018-08-16 2018-12-18 Multi-view imaging system and method for non-invasive inspection in food processing

Country Status (8)

Country Link
EP (1) EP3837533A1 (en)
JP (1) JP7324271B2 (en)
KR (1) KR20210041055A (en)
CN (1) CN113167740A (en)
EC (1) ECSP21013708A (en)
MX (1) MX2021001799A (en)
PH (1) PH12021550342A1 (en)
WO (1) WO2020036620A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111337506B (en) * 2020-03-30 2023-07-07 河南科技学院 Intelligent device for clothing quality inspection
US11363909B2 (en) * 2020-04-15 2022-06-21 Air Products And Chemicals, Inc. Sensor device for providing control for a food processing system
CN112763700B (en) * 2021-02-18 2023-08-04 同济大学 System and method for detecting quality of concrete precast beam finished product and constructing digital entity model
LU501123B1 (en) 2021-12-29 2023-06-29 Analitica D O O Apparatus and method for detecting polymer objects and/or chemical additives in food products

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005158410A (en) 2003-11-25 2005-06-16 Hitachi Ltd X-ray imaging apparatus
US7060981B2 (en) 2003-09-05 2006-06-13 Facet Technology Corp. System for automated detection of embedded objects
JP2007309780A (en) 2006-05-18 2007-11-29 Web Tec Kk Device and method for inspecting quality of printed matter
JP2010236903A (en) 2009-03-30 2010-10-21 Fujifilm Corp Measuring target holder
JP2011214941A (en) 2010-03-31 2011-10-27 Caloria Japan Co Ltd Device for discriminating foreign matter contamination in object
EP2503331A2 (en) 2009-11-16 2012-09-26 Pontificia Universidad Catolica De Chile Method and system for the real-time automatic analysis of the quality of samples of processed fish meat based on the external appearance thereof, said samples travelling on a conveyor belt such that surface defects can be detected and the fish meat can be sorted according to quality standards
US20150283586A1 (en) 2012-11-19 2015-10-08 Altria Client Services Inc. On-line oil and foreign matter detection system and method employing hyperspectral imaging
JP2016505139A (en) 2013-01-15 2016-02-18 ノルデイシェル・マシーネンバウ・ルド・バアデル・ゲーエムベーハー・ウント・コンパニ・カーゲーNordischer Maschinenbau Rud.Baader Gesellschaft Mit Beschrankter Haftung+Compagnie Kommanditgesellschaft Apparatus and method for non-contact identification of red tissue structure and assembly for removing strips of red tissue structure
JP2017191576A (en) 2016-04-15 2017-10-19 キヤノン株式会社 Information processor, control method information processor and program

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5352153A (en) 1993-07-13 1994-10-04 The Laitram Corporation Imaging system for use in processing transversely cut fish body sections
JPH07306163A (en) * 1994-05-13 1995-11-21 Nippon Steel Corp Flaw detecting device
DE29518639U1 (en) * 1995-11-24 1997-03-27 Heuft Systemtechnik Gmbh Device for transporting containers past a device for inspecting the bottom of the containers
NZ517247A (en) * 1999-07-28 2003-02-28 Marine Harvest Norway As Method and apparatus for determining quality properties of fish
JP2002125581A (en) * 2000-10-30 2002-05-08 Nekusuko:Kk Automatic quantitatively cutting apparatus
US6563904B2 (en) 2000-12-01 2003-05-13 Fmc Technologies, Inc. Apparatus and method for detecting and removing undesirable material from workpieces
US6587575B1 (en) 2001-02-09 2003-07-01 The United States Of America As Represented By The Secretary Of Agriculture Method and system for contaminant detection during food processing
CN101194161B (en) * 2005-06-03 2012-05-23 株式会社前川制作所 Apparatus for detecting contaminants in food
WO2008016309A1 (en) 2006-08-04 2008-02-07 Sinvent As Multi-modal machine-vision quality inspection of food products
MX2011010360A (en) * 2009-04-03 2012-04-30 Robotic Technologies Ltd Carcass cutting methods and apparatus.
JP2011085424A (en) * 2009-10-13 2011-04-28 Shimadzu Corp X-ray inspection method and x-ray inspection device using the same
EP2353395A1 (en) 2010-02-07 2011-08-10 Valka Ehf Food processing apparatus for detecting and cutting tissues from food items
FI125531B (en) * 2010-04-29 2015-11-13 Planmed Oy Medical x-ray equipment
WO2012008492A1 (en) * 2010-07-13 2012-01-19 株式会社テレシステムズ X-ray tomogram imaging device
CN102141525A (en) * 2011-01-01 2011-08-03 上海创波光电科技有限公司 Adjustable lighting detection device for front and back light sources
US8515149B2 (en) * 2011-08-26 2013-08-20 General Electric Company Inspection system and method for determining three dimensional model of an object
US9420641B2 (en) * 2013-01-23 2016-08-16 Whirlpool Corporation Microwave oven multiview silhouette volume calculation for mass estimation
CH709896A2 (en) 2014-07-18 2016-01-29 Tecan Trading Ag Monochromator with vibration movable optical elements.
CN107003253B (en) * 2014-07-21 2020-10-16 7386819曼尼托巴有限公司 Method and apparatus for bone scanning in meat
US10252466B2 (en) * 2014-07-28 2019-04-09 Massachusetts Institute Of Technology Systems and methods of machine vision assisted additive fabrication
EP3361884A4 (en) * 2015-10-14 2019-03-20 Thai Union Group Public Company Limited The combinatorial methods of high pressure and temperature process (hptp) for producing texturized meat products and the improved meat products obtained from the methods thereof
DE102015221299A1 (en) * 2015-10-30 2017-05-04 Voith Patent Gmbh Spur gears
EP3383188A1 (en) 2015-12-04 2018-10-10 Marel Iceland EHF A method for automatically processing fish fillets when they are in a frozen state
CA2973074A1 (en) * 2016-07-13 2018-01-13 Sightline Innovation Inc. System and method for surface inspection
US10021369B2 (en) * 2016-07-26 2018-07-10 Qcify Inc. In-flight 3D inspector
CN108122265A (en) * 2017-11-13 2018-06-05 深圳先进技术研究院 A kind of CT reconstruction images optimization method and system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7060981B2 (en) 2003-09-05 2006-06-13 Facet Technology Corp. System for automated detection of embedded objects
JP2005158410A (en) 2003-11-25 2005-06-16 Hitachi Ltd X-ray imaging apparatus
JP2007309780A (en) 2006-05-18 2007-11-29 Web Tec Kk Device and method for inspecting quality of printed matter
JP2010236903A (en) 2009-03-30 2010-10-21 Fujifilm Corp Measuring target holder
EP2503331A2 (en) 2009-11-16 2012-09-26 Pontificia Universidad Catolica De Chile Method and system for the real-time automatic analysis of the quality of samples of processed fish meat based on the external appearance thereof, said samples travelling on a conveyor belt such that surface defects can be detected and the fish meat can be sorted according to quality standards
JP2011214941A (en) 2010-03-31 2011-10-27 Caloria Japan Co Ltd Device for discriminating foreign matter contamination in object
US20150283586A1 (en) 2012-11-19 2015-10-08 Altria Client Services Inc. On-line oil and foreign matter detection system and method employing hyperspectral imaging
JP2016505139A (en) 2013-01-15 2016-02-18 ノルデイシェル・マシーネンバウ・ルド・バアデル・ゲーエムベーハー・ウント・コンパニ・カーゲーNordischer Maschinenbau Rud.Baader Gesellschaft Mit Beschrankter Haftung+Compagnie Kommanditgesellschaft Apparatus and method for non-contact identification of red tissue structure and assembly for removing strips of red tissue structure
JP2017191576A (en) 2016-04-15 2017-10-19 キヤノン株式会社 Information processor, control method information processor and program

Also Published As

Publication number Publication date
ECSP21013708A (en) 2021-04-29
CN113167740A (en) 2021-07-23
EP3837533A1 (en) 2021-06-23
WO2020036620A1 (en) 2020-02-20
KR20210041055A (en) 2021-04-14
JP2021535367A (en) 2021-12-16
MX2021001799A (en) 2021-06-15
PH12021550342A1 (en) 2021-10-04

Similar Documents

Publication Publication Date Title
JP7324271B2 (en) Multi-view imaging system and method for non-invasive inspection in food processing
US11120540B2 (en) Multi-view imaging system and methods for non-invasive inspection in food processing
US10520452B2 (en) Automated quality control and selection
Al-Sarayreh et al. Potential of deep learning and snapshot hyperspectral imaging for classification of species in meat
US9967541B2 (en) 3D imaging, ranging, and/or tracking using active illumination and point spread function engineering
US20140268160A1 (en) Specular object scanner for measuring reflectance properties of objects
JP2016186793A (en) Enhanced contrast for object detection and characterization by optical imaging
KR20010081097A (en) Computerized tomography for non-destructive testing
Siswantoro et al. Monte Carlo method with heuristic adjustment for irregularly shaped food product volume measurement
US20230419478A1 (en) Method and apparatus for detecting foreign object included in inspection target
Zhang et al. Computer vision estimation of the volume and weight of apples by using 3d reconstruction and noncontact measuring methods
JP2023516032A (en) gesture recognition
CA3143481A1 (en) Machine learning based phone imaging system and analysis method
Balaban et al. Quality evaluation of seafoods
ElMasry et al. Effectiveness of specularity removal from hyperspectral images on the quality of spectral signatures of food products
Yang et al. DPPS: A deep-learning based point-light photometric stereo method for 3D reconstruction of metallic surfaces
Banus et al. A deep-learning based solution to automatically control closure and seal of pizza packages
EP3973447B1 (en) Surface recognition
CA3200248A1 (en) Inspecting medicine objects based on hyperspectral imaging
EP4204760A1 (en) Systems and methods of 3d object reconstruction using a neural network
Ljungqvist Multivariate image analysis for quality inspection in fish feed production
Schwartz et al. Capturing shape and reflectance of food
US20230394718A1 (en) Segmentation of computed tomography voxel data using machine learning
Stavroulakis et al. Artificial Intelligence-Enhanced Mutli-Material Form Measurement for Additive Materials
Mehami Subsurface Material Estimation Using Hyperspectral Imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230728

R150 Certificate of patent or registration of utility model

Ref document number: 7324271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150