KR20210041055A - Multi-view imaging system and method for non-invasive inspection in food processing - Google Patents
Multi-view imaging system and method for non-invasive inspection in food processing Download PDFInfo
- Publication number
- KR20210041055A KR20210041055A KR1020217007033A KR20217007033A KR20210041055A KR 20210041055 A KR20210041055 A KR 20210041055A KR 1020217007033 A KR1020217007033 A KR 1020217007033A KR 20217007033 A KR20217007033 A KR 20217007033A KR 20210041055 A KR20210041055 A KR 20210041055A
- Authority
- KR
- South Korea
- Prior art keywords
- imaging
- image data
- light
- light source
- imaging device
- Prior art date
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 250
- 238000000034 method Methods 0.000 title claims abstract description 90
- 238000012545 processing Methods 0.000 title abstract description 28
- 238000007689 inspection Methods 0.000 title abstract description 8
- 235000013305 food Nutrition 0.000 title description 24
- 230000005540 biological transmission Effects 0.000 claims abstract description 40
- 230000008569 process Effects 0.000 claims abstract description 28
- 238000010801 machine learning Methods 0.000 claims abstract description 23
- 230000003993 interaction Effects 0.000 claims abstract description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 35
- 238000004891 communication Methods 0.000 claims description 23
- 235000020997 lean meat Nutrition 0.000 claims description 11
- 238000002834 transmittance Methods 0.000 claims description 4
- 239000000463 material Substances 0.000 abstract description 45
- 235000012041 food component Nutrition 0.000 abstract description 9
- 239000005417 food ingredient Substances 0.000 abstract description 9
- 230000002452 interceptive effect Effects 0.000 description 35
- 230000000875 corresponding effect Effects 0.000 description 34
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 239000007787 solid Substances 0.000 description 8
- 241000251468 Actinopterygii Species 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 7
- 238000010521 absorption reaction Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000003908 quality control method Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 229910000530 Gallium indium arsenide Inorganic materials 0.000 description 3
- KXNLCSXBJCPWGL-UHFFFAOYSA-N [Ga].[As].[In] Chemical compound [Ga].[As].[In] KXNLCSXBJCPWGL-UHFFFAOYSA-N 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 102000001554 Hemoglobins Human genes 0.000 description 2
- 108010054147 Hemoglobins Proteins 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 229910052736 halogen Inorganic materials 0.000 description 2
- 150000002367 halogens Chemical class 0.000 description 2
- 235000013372 meat Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000001087 myotubule Anatomy 0.000 description 2
- 230000035515 penetration Effects 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- DGAQECJNVWCQMB-PUAWFVPOSA-M Ilexoside XXIX Chemical compound C[C@@H]1CC[C@@]2(CC[C@@]3(C(=CC[C@H]4[C@]3(CC[C@@H]5[C@@]4(CC[C@@H](C5(C)C)OS(=O)(=O)[O-])C)C)[C@@H]2[C@]1(C)O)C)C(=O)O[C@H]6[C@@H]([C@H]([C@@H]([C@H](O6)CO)O)O)O.[Na+] DGAQECJNVWCQMB-PUAWFVPOSA-M 0.000 description 1
- 230000002745 absorbent Effects 0.000 description 1
- 239000002250 absorbent Substances 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000015169 fillet of fish Nutrition 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002147 killing effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 229910001507 metal halide Inorganic materials 0.000 description 1
- 150000005309 metal halides Chemical class 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 229910052754 neon Inorganic materials 0.000 description 1
- GKAOGPIIYCISHV-UHFFFAOYSA-N neon atom Chemical compound [Ne] GKAOGPIIYCISHV-UHFFFAOYSA-N 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000007903 penetration ability Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 235000021067 refined food Nutrition 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000000344 soap Substances 0.000 description 1
- 229910052708 sodium Inorganic materials 0.000 description 1
- 239000011734 sodium Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000004441 surface measurement Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 235000020990 white meat Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8806—Specially adapted optical and illumination features
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/94—Investigating contamination, e.g. dust
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N33/00—Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
- G01N33/02—Food
- G01N33/12—Meat; Fish
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30128—Food products
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Food Science & Technology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medicinal Chemistry (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
식품 재료(408)의 검사 및 가공을 위하여 사용되는 인라인 시각 기반(vision-based) 시스템(400) 및 연관된 방법이 개시된다. 시스템은 컨베이어 벨트(402), 투명 플레이트(412) 및 이미징 시스템(422)을 포함하고, 이미징 시스템은 광원(424)과 적어도 하나의 카메라를 포함한다. 이미징 시스템은 투명 플레이트 상의 객체를 통과하고 카메라에 의해 캡처된 광의 다수의 뷰로부터 이미지 데이터를 생성한다. 이미지 데이터는 투과(transmittance) 이미징 데이터, 상호 작용(interactance) 이미징 데이터 및 반사(reflectance) 이미징 데이터 중 하나에 대응하고, 프로세서(428)로 전송된다. 프로세서는 객체 내부의 재료 부분의 구조에 대한 3차원 모델을 생성하여 주변 재료에 대한 그 부분의 경계를 결정하기 위하여 기계 학습을 이용하여 데이터를 처리한다.An inline vision-based system 400 and associated methods used for inspection and processing of food ingredients 408 are disclosed. The system includes a conveyor belt 402, a transparent plate 412 and an imaging system 422, the imaging system including a light source 424 and at least one camera. The imaging system produces image data from multiple views of light that passes through objects on the transparent plate and is captured by the camera. The image data corresponds to one of transmission imaging data, interaction imaging data, and reflection imaging data, and is transmitted to the processor 428. The processor processes the data using machine learning to create a three-dimensional model of the structure of the material part inside the object and determine the boundary of the part with respect to the surrounding material.
Description
본 개시 내용은 식품 가공에 있어서의 비침습적 검사에 관한 것으로, 특히, 내부 객체의 3차원 모델을 결정하기 위하여 식품의 이미지 데이터를 처리함으로써 음식 내의 내부 객체를 검출하기 위한 이미징 시스템 및 연관된 방법에 관한 것이디.FIELD OF THE INVENTION The present disclosure relates to non-invasive inspection in food processing, and more particularly, to an imaging system and associated method for detecting internal objects in food by processing image data of food to determine a three-dimensional model of internal objects. It's D.
식품 산업은 좁은 마진 내에서 운영되며 품질 관리 표준이 높아지고 있다. 이와 같이, 식품 가공 산업은 더 높은 품질 관리 표준을 충족하면서 처리 능력을 증가시키기 위하여 자동화 시스템으로 전환되었다. 식품 가공의 양태는 제품의 부가가치를 높이기 위해 2차 제품으로부터의 1차 제품의 분리 및 이물질 제거 등을 포함한다. 그러나 이러한 양태는 1차 및 2차 제품과 이물질 사이의 경계가 현재의 시스템으로 식별하기 어렵기 때문에 자동화하기 어렵다.The food industry operates within narrow margins and quality control standards are rising. As such, the food processing industry has turned to automated systems to increase processing capacity while meeting higher quality control standards. Aspects of food processing include separation of primary products from secondary products and removal of foreign substances to increase the added value of the product. However, this aspect is difficult to automate because the boundary between the primary and secondary products and foreign matter is difficult to identify with current systems.
고체와 액체 계면과 같이 식품 재료 사이에 자연스러운 경계가 있는 경우, 2차 제품으로부터 1차 제품을 분리하는 것은 종종 간단하며, 물리적인 노력을 거의 필요로 하지 않는다. 식품 재료가 서로 연결되어 있거나 고체와 고체 계면이 있는 경우에는 일반적으로 절단과 같은 적극적인 물리적 개입이 필요하다. 이러한 작업을 안내하고 수행하기 위하여는, 자동화된 환경에서 종종 시각 기반(vision-based) 시스템을 통해 실현되는 고체와 고체 계면 사이의 정확한 경계 또는 가장 가능성 있는 경계를 식별하는 것이 유리하다. 재료 사이의 분리가 필요하지 않더라도, 특정 결함 또는 원하지 않는 객체의 존재 여부와 정도를 검출하는 능력은 식품 검사 또는 분류 프로세스에 큰 이점을 줄 수 있다.When there is a natural boundary between the food material, such as a solid and liquid interface, separating the primary product from the secondary product is often straightforward and requires little physical effort. Active physical intervention, such as cutting, is usually required when food ingredients are connected to each other or when there is a solid-to-solid interface. In order to guide and perform these tasks, it is advantageous to identify the exact boundary or the most probable boundary between solid and solid interfaces, which is often realized through vision-based systems in an automated environment. Even if separation between materials is not required, the ability to detect the presence and extent of certain defects or unwanted objects can be of great benefit to food inspection or sorting processes.
예를 들어, 미국 특허 번호 US 5,352,153, US 6,563,904, US 9,551,615, US 6,587,575, US 9,095,147 및 간행물 WO 2017/093539A1와 WO 2008/016309A1에 개시된 바와 같이, 여러 시스템이 어류, 육류, 가금류, 과일, 야채 및 곡물을 포함하는 다양한 산업을 위하여 개발되었다. 종래의 시스템은 일반적으로 가공과 관련된 정보를 얻기 위하여 식품 재료의 신속한 스크리닝(screening)을 위해 종래의 이미징을 적용한다. 그러나, 이러한 접근 방식을 통해 도출된 정보는 일반적으로 재료의 가시적 표면에만 한정된다.For example, as disclosed in U.S. Patent Nos. It was developed for a variety of industries, including grain. Conventional systems generally apply conventional imaging for rapid screening of food ingredients to obtain processing-related information. However, the information derived through this approach is usually limited to the visible surface of the material.
객체의 내부 상세를 제공하기 위하여 대안적인 기술이 제안되었다. 데이터가 표면으로부터 캡처되든 객체 내에서 캡처되든, 정보는 일반적으로 2차원 포맷으로 제공된다. 일부 애플리케이션의 경우, 깊이를 아는 것이 특별한 관련성이 없거나 객체의 기하학적 구조가 일관되어 특정 가정을 할 수 있기 때문에, 이것은 충분할 수 있다. 그러나 3차원의 추가 정보가 특히 중요한 시나리오가 있다. 예를 들어, 3차원 정보는 객체의 정렬에 대한 정확한 정보를 도출하거나, 불규칙한 형상의 객체의 정밀한 분리 또는 제거를 가능하게 하도록 불규칙한 형상의 객체를 기하학적 구조에 따라 가공하는데 유용하다.An alternative technique has been proposed to provide the internal details of the object. Whether data is captured from a surface or within an object, the information is usually presented in a two-dimensional format. For some applications, this may be sufficient because knowing the depth has no particular relevance, or because the geometry of the object is consistent to make certain assumptions. However, there are scenarios where 3D additional information is particularly important. For example, the 3D information is useful for deriving accurate information on the alignment of objects, or processing irregularly shaped objects according to geometric structures to enable precise separation or removal of irregularly shaped objects.
3차원(3D) 표면 데이터의 복구를 목표로 하는 일부 해결 방안은 외부 프로파일에 대한 풍부한 설명으로 제한된다. 다른 것들은 컴퓨터 단층 촬영(computed tomography(CT)) 또는 자기 공명 영상(magnetic resonance imaging(MRI))과 같은 체적 이미징 기술을 기반으로 하며, 스캐닝된 대상의 내부 특징에 관한 데이터를 제공하지만, 이러한 기술적 해결 방안은 다수의 한계를 가진다. 예를 들어, 체적 이미징 기술은 속도가 부족하여, 식품 가공 산업의 좁은 마진을 고려할 때 특히 중요한 제한 사항이다. 다른 한계 중에서도, 속도 부족으로 인해 현재 시스템은 자동화된 식품 가공 및 분류를 위한 인라인 솔루션이 아닌 무작위 품질 관리 검사 도구로서 더 적합하다.Some solutions aimed at the recovery of three-dimensional (3D) surface data are limited to a rich description of the external profile. Others are based on volumetric imaging techniques such as computed tomography (CT) or magnetic resonance imaging (MRI), which provide data on the internal features of the scanned object, but such a technical solution. The solution has a number of limitations. For example, volumetric imaging technology lacks speed, which is a particularly important limitation when considering the narrow margins of the food processing industry. Among other limitations, the lack of speed makes the current system more suitable as a random quality control inspection tool rather than an in-line solution for automated food processing and sorting.
본 개시 내용은 식품 재료 내부 컴포넌트의 기하학적 세부 사항을 캡처할 수 있게 하는 인라인(inline) 형태의 산업적 식품 가공 애플리케이션을 위한 빠른 데이터 획득 및 재구성에 관한 것이다. 이러한 시스템은, 체적 이미징 기술에 의해 제공되는 것과 같은 내부 구조의 전체 표현이 불필요하고, 오히려 개략적인 내부 프로파일의 복구 및 속도가 필수적인 애플리케이션에 특히 유용하다. 특히, 본 명세서에 개시된 시스템 및 방법은 한 재료가 임의의 광 스펙트럼의 부분적 투과를 허용하는 외부층을 형성하고, 특히 관심 대상이 되는 제2 재료 또는 내부 객체가 외부층에 의해 적어도 부분적으로 둘러싸이고 임의의 광 스펙트럼의 상이한 범위의 관통 또는 흡수를 허용하는 2개의 개별 재료의 표면 대 표면 조합에 관한 것이다. 일반적으로, 본 개시 내용의 예시적인 구현예는 광원과 이미지 데이터를 캡처하기 위한 이미징 장치를 포함하는 이미징 시스템의 사용과, 내부 객체의 경계를 결정하기 위한 데이터 재구축을 위한 계산 단계를 포함한다.The present disclosure is directed to fast data acquisition and reconstruction for industrial food processing applications in inline form that enable the capture of geometric details of food ingredient internal components. Such a system is particularly useful for applications where a full representation of the internal structure as provided by volumetric imaging techniques is not required, but rather the recovery and speed of a rough internal profile is essential. In particular, the systems and methods disclosed herein form an outer layer in which one material permits partial transmission of any light spectrum, in particular the second material or inner object of interest is at least partially surrounded by the outer layer. It relates to a surface-to-surface combination of two separate materials that allows penetration or absorption of different ranges of any light spectrum. In general, exemplary implementations of the present disclosure include the use of an imaging system including a light source and an imaging device to capture image data, and a computational step for reconstructing the data to determine the boundaries of an internal object.
객체의 내부 부분의 경계를 결정하기 위하여 객체의 이미지 데이터를 캡처하고 처리하기 위한 시스템의 예시적인 구현예는, 제1 컨베이어; 제1 컨베이어로부터 갭(gap)에 의해 분리된 제2 컨베이어; 갭 내에 위치되고 제1 컨베이어 및 제2 컨베이어 중 적어도 하나에 결합되는 투명 플레이트; 갭 내에 적어도 부분적으로 위치되고, 제1 컨베이어 및 제2 컨베이어 중 적어도 하나에 결합되는 지지 링 - 지지 링은 지지 링에 결합되는 적어도 하나의 카메라를 포함함 - ; 및 지지 링에 결합되는 제1 광원을 포함하고, 작동 동안, 제1 광원은 투명 플레이트를 향하여 지향되는 광을 방출한다.An exemplary implementation of a system for capturing and processing image data of an object to determine a boundary of an inner portion of the object includes: a first conveyor; A second conveyor separated from the first conveyor by a gap; A transparent plate positioned within the gap and coupled to at least one of the first conveyor and the second conveyor; A support ring positioned at least partially within the gap and coupled to at least one of the first conveyor and the second conveyor, the support ring comprising at least one camera coupled to the support ring; And a first light source coupled to the support ring, wherein during operation, the first light source emits light directed toward the transparent plate.
구현예는 다음을 더 포함할 수 있다: 투명 플레이트 상에 위치된 객체 - 작동 동안, 카메라는 제1 광원으로부터 객체를 통과하는 광을 수신함 - ; 객체는 참치 살코기(fillet)이고, 제1 광원은 대략 1260 나노미터, 대략 805 나노미터 또는 대략 770 나노미터 중 하나인 파장의 광을 방출함; 제어 유닛이 카메라와 전자적으로 통신하고, 카메라가 객체를 통과하는 광을 캡처하고 캡처된 광으로부터의 이미지 데이터에 대응하는 신호를 제어 유닛에 전송함; 이미지 데이터는 투과(transmittance) 이미지 데이터, 상호 작용(interactance) 이미지 데이터 또는 반사(reflectance) 이미지 데이터 중 하나임; 그리고, 제어 유닛은 프로세서이고, 프로세서는 카메라로부터 수신된 이미지 데이터에 기초하여 객체의 제1 부분과 제1 부분 내의 객체의 제2 부분 사이의 경계를 검출하기 위하여 기계 학습을 이용함,Implementations may further include: an object placed on a transparent plate-during operation, the camera receives light passing through the object from a first light source; The object is a tuna fillet, and the first light source emits light at a wavelength of one of approximately 1260 nanometers, approximately 805 nanometers or approximately 770 nanometers; The control unit is in electronic communication with the camera, the camera captures light passing through the object and transmits a signal corresponding to the image data from the captured light to the control unit; The image data is one of transmittance image data, interaction image data or reflectance image data; And, the control unit is a processor, and the processor uses machine learning to detect a boundary between the first part of the object and the second part of the object within the first part based on the image data received from the camera,
구현예는 다음을 더 포함할 수 있다: 프로세서는 딥 컨벌루션 신경망(deep convolutional neural network)을 통해 이미지 데이터를 처리함; 딥 컨벌루션 신경망은 이미지 데이터를 수신하고 객체의 제2 부분에 대응하는 이미지 데이터에 기초하여 복수의 실루엣을 출력하고, 프로세서는 실루엣을 복수의 투영(projection)으로 투영하고, 객체의 제2 부분의 3차원 형상을 결정하기 위하여 복수의 투영 사이의 교차 부분(intersection)을 분석함; 지지 링은 지지 링에 결합되는 복수의 카메라를 포함하고, 복수의 카메라의 각각은 제1 광원으로부터, 투과 이미징 데이터, 상호 교차 이미징 데이터 또는 반사 이미징 데이터 중 하나를 캡처함; 그리고, 지지 링은 지지 링에 결합되는 제2 광원을 포함하고, 작동 동안, 제2 광원은 투명 플레이트로 지향되는 광을 방출함.Implementations may further include: the processor processes image data via a deep convolutional neural network; The deep convolutional neural network receives image data and outputs a plurality of silhouettes based on the image data corresponding to the second part of the object, and the processor projects the silhouettes into a plurality of projections, and the third part of the second part of the object. Analyzing the intersection between multiple projections to determine the dimensional shape; The support ring includes a plurality of cameras coupled to the support ring, each of the plurality of cameras capturing one of transmission imaging data, cross-cross imaging data or reflective imaging data from a first light source; And, the support ring includes a second light source coupled to the support ring, and during operation, the second light source emits light directed to the transparent plate.
객체의 내부 부분의 경계를 결정하기 위하여 객체의 이미지 데이터를 캡처하고 분석하기 위한 장치의 대안적이고 예시적인 구현예는, 컨베이어 - 컨베이어는 컨베이어의 제1 부분 및 제2 부분 사이에 공간을 가짐 - ; 공간 내에 위치되고 컨베이어에 결합되는 플레이트; 공간 내에 적어도 부분적으로 위치되고, 컨베이어에 결합되는 지지 링 - 작동 동안, 지지 링은 적어도 제1 위치와 제2 위치 사이에 회전하는 지지 링; 지지 링에 결합되는 적어도 하나의 광원 - 작동 동안, 적어도 하나의 광원은 플레이트 상의 객체를 향하여 지향되는 광을 방출함 - ; 지지 링에 결합되는 이미징 장치 - 이미징 장치는 광이 객체를 통과한 후 적어도 하나의 광원으로부터 광을 수신함 - ; 및 이미징 장치와 전자적으로 통신하고, 지지 링이 제1 위치에 있을 때 이미징 장치로부터의 제1 이미지 데이터 세트를 수신하고 지지 링이 제2 위치에 있을 때 이미징 장치로부터의 제2 이미지 데이터 세트를 수신하는 프로세서 - 작동 동안, 프로세서는 제1 이미지 데이터 세트 및 제2 이미지 데이터 세트로부터 객체의 내부 부분에 대한 3D 모델을 출력함 - 를 포함한다.An alternative and exemplary embodiment of an apparatus for capturing and analyzing image data of an object to determine the boundary of an inner portion of the object is a conveyor, the conveyor having a space between the first and second portions of the conveyor; A plate located in the space and coupled to the conveyor; A support ring located at least partially within the space and coupled to the conveyor, the support ring rotating at least between a first position and a second position during operation; At least one light source coupled to the support ring, during operation, the at least one light source emits light directed towards an object on the plate; An imaging device coupled to the support ring, the imaging device receiving light from at least one light source after the light passes through the object; And in electronic communication with the imaging device, receiving a first set of image data from the imaging device when the support ring is in a first position and receiving a second set of image data from the imaging device when the support ring is in a second position. A processor that during operation, the processor outputs a 3D model of the interior portion of the object from the first image data set and the second image data set.
구현예는 다음을 더 포함할 수 있다: 프로세서는 제1 이미지 데이터 세트 및 제2 이미지 데이터 세트를 복수의 실루엣으로 처리하고 복수의 실루엣을 복수의 투영으로 투영하기 위하여 기계 학습을 활용함 - 3D 모델은 복수의 투영의 각각 사이의 교차 부분에 기초함 - ; 지지 링에 결합되는 제2 광원 - 이미징 장치는 지지 링이 제1 위치 또는 제2 위치에 있을 때 제2 광원으로부터 제3 이미지 데이터 세트를 캡처하고, 프로세서는 3차원 모델의 경계를 명확하게 하기 위하여 제3 이미지 데이터 세트를 활용함 - ; 이미징 장치는 분광기(spectrograph)를 포함함 - 적어도 하나의 광원은 대략 1260 나노미터, 대략 805 나노미터 또는 대략 770 나노미터 중 하나로부터 선택된 파장의 광을 방출함 -.Implementations may further include: The processor processes the first image data set and the second image data set into a plurality of silhouettes and utilizes machine learning to project the plurality of silhouettes into a plurality of projections-3D model. -Is based on the intersection between each of the multiple projections; A second light source coupled to the support ring-the imaging device captures a third set of image data from the second light source when the support ring is in the first position or the second position, and the processor is used to clarify the boundaries of the three-dimensional model. -Using the third image data set; The imaging device comprises a spectrograph-at least one light source emits light of a wavelength selected from one of approximately 1260 nanometers, approximately 805 nanometers or approximately 770 nanometers -.
객체의 내부 부분의 경계를 결정하기 위하여 객체의 이미지 데이터를 캡처하고 분석하기 위한 방법의 예시적인 구현예는, 광원으로부터 광을 방출하는 단계 - 방출하는 단계는 제1 부분 및 제2 부분을 갖는 객체를 통해 광을 지향시키는 단계를 포함하고, 제2 부분은 제1 부분 내에 둘러싸임 - ; 광이 객체를 통과한 후 이미징 장치로 광원으로부터의 광을 캡처하는 단계 - 캡처된 광은 이미징 장치에 의해 수신된 제1 부분 및 제2 부분의 이미지 데이터에 대응함 - ; 이미지 데이터를 프로세서에 전송하는 단계; 및 제1 부분과 제2 부분 사이의 경계를 검출하기 위하여 프로세서를 이용하여 이미지 데이터를 분석하는 단계 - 분석하는 단계는, 제2 부분의 3차원 표현을 생성하기 위하여 기계 학습을 활용하는 단계를 포함함 - 를 포함한다.An exemplary embodiment of a method for capturing and analyzing image data of an object to determine the boundary of an inner portion of the object comprises: emitting light from a light source, wherein the emitting step comprises an object having a first portion and a second portion. Directing light through, the second portion being enclosed within the first portion; Capturing light from the light source with an imaging device after the light passes through the object, the captured light corresponding to image data of the first portion and the second portion received by the imaging device; Transmitting the image data to the processor; And analyzing the image data using a processor to detect a boundary between the first part and the second part-the analyzing step includes utilizing machine learning to generate a three-dimensional representation of the second part. Ham-includes.
구현예는 다음을 더 포함할 수 있다: 광원으로부터 광을 방출하는 단계는, 대략 1260 나노미터, 대략 805 나노미터 또는 대략 770 나노미터 중 하나로부터 선택된 파장의 광을 방출하는 단계를 포함한다; 제2 부분의 3차원 표현을 생성하기 위하여 기계 학습을 활용하는 단계는, 이미지 데이터를 처리하기 위하여, 딥 컨벌루션 신경망을 활용하여 기계 학습하는 단계를 포함한다; 프로세서를 이용하여 이미지 데이터를 분석하는 단계는, 제2 부분의 이미지 데이터에 대응하는 복수의 2차원 실루엣을 출력하기 위하여 기계 학습을 활용하는 단계를 포함한다; 프로세서를 이용하여 이미지 데이터를 분석하는 단계는, 복수의 투영을 생성하기 위하여 기계 학습을 활용하는 단계를 포함하고, 각각의 투영은 복수의 2차원 실루엣의 각각의 하나에 대응한다; 그리고, 분석하는 단계는, 3차원 표현을 생성하기 위하여 기계 학습을 포함하는 단계를 포함하고, 객체의 제2 부분의 3차원 표현을 출력하기 위하여 복수의 투영의 각각 사이의 교차 부분을 분석하는 단계를 더 포함한다.Embodiments may further include: emitting light from the light source comprises emitting light at a wavelength selected from one of approximately 1260 nanometers, approximately 805 nanometers or approximately 770 nanometers; The step of utilizing machine learning to generate a three-dimensional representation of the second part includes machine learning using a deep convolutional neural network to process image data; Analyzing the image data using the processor includes utilizing machine learning to output a plurality of two-dimensional silhouettes corresponding to the image data of the second portion; Analyzing the image data using the processor includes utilizing machine learning to generate a plurality of projections, each projection corresponding to a respective one of the plurality of two-dimensional silhouettes; And, the step of analyzing includes the step of including machine learning to generate a three-dimensional representation, and analyzing the intersection between each of the plurality of projections to output a three-dimensional representation of the second part of the object. It further includes.
구현예를 더 잘 이해하기 위하여, 첨부된 도면을 단지 예로서 참조할 것이다. 도면에서, 동일한 참조 번호는 유사한 요소 또는 동작을 식별한다. 도면에서 요소의 크기와 상대적 위치는 반드시 축척에 따라 도시되지 않는다. 예를 들어, 다양한 요소와 형상 및 각도는 반드시 축척에 맞게 그려지는 것은 아니며, 이러한 요소 중 일부는 도면의 가독성을 높이기 위해 확대되어 배치될 수 있다. 또한, 도시된 요소의 특정 형상은 반드시 특정 요소의 실제 형상을 대한 정보를 전달하기 위한 것은 아니며, 도면에서의 쉬운 인식을 위하여만 선택되었을 수 있다.
도 1은 시스템의 제1 컨베이어와 제2 컨베이어 사이에 갭을 갖는 본 개시 내용에 따른 컨베이어 벨트 시스템의 예시적인 구현예의 사시도이다.
도 2는 투과 이미징 모드를 예시하는 본 개시 내용에 따른 이미징 시스템의 예시적인 구현예의 개략도이다.
도 3은 상호 작용 이미징 모드를 예시하는 본 개시 내용에 따른 이미징 시스템의 예시적인 구현예의 개략도이다.
도 4는 지지 링과, 지지 링에 결합된 복수의 이미징 장치 및 광원을 갖는 본 개시 내용에 따른 이미징 시스템의 예시적인 구현예의 사시도이다.
도 5는 도 4의 이미징 시스템의 제어 유닛의 개략도이다.
도 6은 지지 링과, 지지 링에 결합된 단일 이미징 장치 및 광원을 갖는 본 개시 내용에 따른 이미징 시스템의 대안적이고 예시적인 구현예의 사시도이고, 지지 링은 적어도 제1 위치와 제2 위치 사이에서 회전한다.
도 7은 외부 하우징 내의 이미징 시스템으로의 환경 광을 감소시키기 위한 본 개시 내용에 따른 외부 하우징의 예시적인 구현예의 사시도이다.
도 8은 본 개시 내용에 따른 투영된 실루엣으로부터의 3차원 모델의 재구성에 대한 예시적인 구현예의 개략도이다.
도 9는 객체의 내부 부분의 경계를 결정하기 위하여 객체의 이미지 데이터를 캡처 및 처리하기 위한 본 개시 내용에 따른 방법의 예시적인 구현예의 순서도이다.
도 10은 객체의 내부 부분의 경계를 결정하기 위하여 객체의 이미지 데이터를 캡처 및 처리하기 위한 본 개시 내용에 따른 방법의 대안적이고 예시적인 구현예의 순서도이다.In order to better understand the embodiments, reference will be made to the accompanying drawings by way of example only. In the drawings, the same reference numbers identify similar elements or actions. The sizes and relative positions of elements in the drawings are not necessarily drawn to scale. For example, various elements, shapes, and angles are not necessarily drawn to scale, and some of these elements may be enlarged and arranged to enhance the readability of the drawings. In addition, the specific shape of the illustrated element is not necessarily for conveying information on the actual shape of the specific element, and may be selected only for easy recognition in the drawings.
1 is a perspective view of an exemplary embodiment of a conveyor belt system according to the present disclosure having a gap between a first conveyor and a second conveyor of the system.
2 is a schematic diagram of an exemplary implementation of an imaging system according to the present disclosure illustrating a transmission imaging mode.
3 is a schematic diagram of an exemplary implementation of an imaging system according to the present disclosure illustrating an interactive imaging mode.
4 is a perspective view of an exemplary embodiment of an imaging system according to the present disclosure having a support ring and a plurality of imaging devices and light sources coupled to the support ring.
5 is a schematic diagram of a control unit of the imaging system of FIG. 4;
6 is a perspective view of an alternative exemplary embodiment of an imaging system according to the present disclosure having a support ring, a single imaging device coupled to the support ring and a light source, wherein the support ring rotates between at least a first position and a second position. do.
7 is a perspective view of an exemplary implementation of an outer housing according to the present disclosure for reducing ambient light to an imaging system within the outer housing.
8 is a schematic diagram of an exemplary implementation for reconstruction of a three-dimensional model from a projected silhouette according to the present disclosure.
9 is a flowchart of an exemplary implementation of a method according to the present disclosure for capturing and processing image data of an object to determine the boundary of an inner portion of the object.
10 is a flowchart of an alternative and exemplary implementation of a method according to the present disclosure for capturing and processing image data of an object to determine the boundary of an inner portion of the object.
다음의 설명에서, 다양한 개시된 구현예에 대한 완전한 이해를 제공하기 위하여 소정의 특정 상세 사항이 설명된다. 그러나, 관련 기술 분야에서의 통상의 기술자는 이러한 특정 상세 사항 중 하나 이상 없이 또는 다른 방법, 컴포넌트, 재료 등과 함께 구현예가 실행될 수 있다는 것을 인식할 것이다. 다른 경우에, 이미징 시스템, 식품 가공에 있어서의 비침습적 검사, 기계 학습 및 신경망과 연관된 알려진 구조는 구현예에 대한 설명을 불필요하게 모호하게 하는 것을 방지하기 위하여 자세히 도시되거나 설명되지 않는다.In the following description, certain specific details are set forth in order to provide a thorough understanding of the various disclosed implementations. However, one of ordinary skill in the art will recognize that implementations may be practiced without one or more of these specific details or in conjunction with other methods, components, materials, and the like. In other instances, known structures associated with imaging systems, non-invasive testing in food processing, machine learning, and neural networks have not been shown or described in detail in order to avoid unnecessarily obscuring the description of the implementation.
문맥이 달리 요구하지 않는 한, 이어지는 명세서 및 청구범위 전체에 걸쳐, "포함하다"라는 단어 및 "포함한다" 및 "포함하는"과 같은 이의 변형이 개방적이고, 포괄적인 의미, 즉 "~을 포함하지만, 그에 한정되지 않는" 것으로 해석되어야 한다. 또한, "제1", "제2"라는 단어 및 유사한 순서를 표시하는 단어는 문맥이 명확하게 달리 명시하지 않는 한 상호 교환 가능한 것으로 해석되어야 한다.Unless the context otherwise requires, throughout the specification and claims that follow, the word "comprises" and variations thereof such as "comprises" and "comprising" are in an open and inclusive sense, i.e., "includes However, it should be construed as "not limited thereto." Further, the words "first", "second", and words denoting a similar order are to be construed as interchangeable unless the context clearly dictates otherwise.
본 명세서 전반에 걸쳐 통해 "하나의 구현예" 또는 "일 구현예"에 대한 언급은 그 구현예와 관련하여 설명된 특정 특징, 구조 또는 특성이 적어도 하나의 구현예에 포함된다는 것을 의미한다. 따라서, 본 명세서 전반에 걸쳐 다양한 위치에서 "하나의 구현예에서" 또는 "일 구현예에서"라는 문구의 출현은 반드시 모두 동일한 구현을 지칭하는 것은 아니다. 더욱이, 특정 특징, 구조 또는 특성은 하나 이상의 구현예에서 임의의 적절한 방식으로 결합될 수 있다.Reference throughout this specification to “one embodiment” or “an embodiment” means that a particular feature, structure, or characteristic described in connection with that embodiment is included in at least one embodiment. Thus, appearances of the phrases “in one embodiment” or “in an embodiment” in various places throughout this specification are not necessarily all referring to the same implementation. Moreover, certain features, structures or properties may be combined in any suitable manner in one or more embodiments.
본 명세서 및 첨부된 청구 범위에서 사용된 바와 같이, 단수 형태인 "a", "an"및 "the"는 문맥이 명백하게 달리 명시하지 않는 한 복수의 지시 대상을 포함한다. 또한, "또는(or)"이라는 용어는 일반적으로 가장 넓은 의미로, 즉 문맥이 명확하게 달리 명시하지 않는 한 "및/또는"을 의미하는 것으로 사용된다는 점에 유의하여야 한다.As used in this specification and the appended claims, the singular forms “a”, “an” and “the” include plural referents unless the context clearly dictates otherwise. It should also be noted that the term "or" is generally used in its broadest sense, ie, meaning "and/or" unless the context clearly dictates otherwise.
상대적 용어인 "대략(approximately)" 및 "실질적으로(substantially)"는, 값, 양, 수량 또는 치수를 설명하는 데 사용될 때, 문맥이 명백하게 달리 명시하지 않는 한, 일반적으로 명시된 값의 +/-3% 내에 있는 값, 양, 수량 또는 치수를 나타낸다. 본 명세서에 제공된 컴포넌트의 임의의 특정 치수는 단지 본 명세서에 설명된 예시적인 구현예를 참조한 예시를 위한 것이며, 따라서 본 개시 내용은 문맥이 명백하게 달리 명시하지 않는 한, 언급된 치수보다 많거나 적은 양을 포함한다는 것이 추가로 이해되어야 한다.The relative terms “approximately” and “substantially”, when used to describe a value, quantity, quantity, or dimension, are generally +/- of the stated value, unless the context clearly dictates otherwise. Represents a value, quantity, quantity, or dimension within 3%. Any specific dimensions of the components provided herein are for illustrative purposes only, with reference to the exemplary embodiments described herein, and thus the disclosure is intended to be in an amount greater or less than the stated dimensions, unless the context clearly dictates otherwise. It should be further understood that it includes.
본 개시 내용은 가공 및 검사를 위한 식품 재료의 시각적 데이터를 획득할 수 있는 빠르고 비침습적인 이미징 시스템을 위한 솔루션을 제공한다. 특히, 본 개시 내용의 구현예는 상이한 재료층에 의해 둘러싸인 임의의 형상의 객체의 3차원 구조를 캡처한다. 예를 들어, 분석될 객체가 생선 살코기(fillet)인 구현예에서, 본 명세서에 개시된 이미징 시스템 및 방법은 외부 흰 살 층 내에 포함된 어두운 살 부분(예를 들어, 재료의 다른 층)의 3차원 구조를 캡처하고, 어두운 살은 연속하는 살코기 사이에서 변동하는 임의의 3차원 형상을 가진다.The present disclosure provides a solution for a fast, non-invasive imaging system capable of acquiring visual data of food ingredients for processing and inspection. In particular, embodiments of the present disclosure capture a three-dimensional structure of an object of any shape surrounded by different layers of material. For example, in embodiments where the object to be analyzed is a fillet of fish, the imaging systems and methods disclosed herein provide a three-dimensional view of a dark flesh portion (e.g., another layer of material) contained within the outer white flesh layer. Capturing the structure, the dark flesh has an arbitrary three-dimensional shape that fluctuates between successive lean meats.
본 개시 내용의 구현예는 상이한 탁한 재료 및 스펙트럼 대역에 대해 상이한 흡수, 반사, 투과 및 산란의 광학적 특성을 활용할 수 있는 다양한 시스템, 장치 및 관련 방법을 포함한다. 각각의 발생(occurrence)의 상대적인 비율과 양은 재료의 화학적 구성과 물리적 파라미터에 따라 달라질 수 있다. 광이 물질과 상호 작용할 때, 광자의 특정 부분이 정반사(specularity), 확산 또는 후방 산란을 통해 반사된다. 처음 두 가지인 정반사와 확산은 표면의 거칠기에 따라 달라지며, 광의 산란 또는 후방 산란은 재료 내부의 위상 변화 또는 상이한 인터페이스에서의 다중 굴절로 인해 발생한다. 또한, 산란은 재료 전체에 무작위로 분포된 기공 공간 또는 모세관과 같은 이질성과, 상이한 입자들의 크기, 모양 및 미세 구조로 인하여 나타날 수 있다.Embodiments of the present disclosure include various systems, devices, and related methods that can utilize the optical properties of different absorption, reflection, transmission and scattering for different hazy materials and spectral bands. The relative proportion and amount of each occurrence can vary depending on the chemical composition and physical parameters of the material. When light interacts with a material, certain portions of the photons are reflected through specularity, diffusion, or backscatter. The first two, specular and diffuse, depend on the roughness of the surface, and scattering or backscattering of light occurs due to phase shifts inside the material or multiple refractions at different interfaces. In addition, scattering may appear due to heterogeneity such as pore spaces or capillaries randomly distributed throughout the material, and the size, shape, and microstructure of different particles.
반사되지 않은 나머지 광자는 흡수되거나 재료를 통해 투과된다. 흡수 계수가 낮을수록 광자가 흡수되기 전에 광이 더 깊이 재료에 침투할 수 있고 따라서 광이 재료의 반대쪽으로 나갈 확률이 더 높아진다. 따라서, 본 명세서에 설명된 시스템, 장치 및 관련 방법의 다양한 구현예에 따른 비침습적 이미징에 대하여, 산란되는 광과 재료를 통과하는 광 모두 내부 특성에 대한 유용한 정보를 제공할 수 있다. 예를 들어, 산란되는 광 및 물질을 통과하는 광과 같은 이러한 정보는 각각 상호 작용(interactance) 이미지 또는 투과(transmittance) 이미징을 통해 캡처되지만, 반사(reflectance) 이미징은 예시적인 구현예를 참조하여 본 명세서에 설명된 바와 같이 표면으로부터 직접 반사된 광에 주로 초점을 맞춘다.The remaining photons that are not reflected are either absorbed or transmitted through the material. The lower the absorption coefficient, the deeper the light can penetrate the material before the photons are absorbed, and thus the more likely the light will exit the other side of the material. Thus, for non-invasive imaging according to various implementations of the systems, devices, and related methods described herein, both scattered light and light passing through a material can provide useful information about internal properties. For example, such information, such as scattered light and light passing through a material, is captured through interaction images or transmittance imaging, respectively, whereas reflectance imaging is described with reference to exemplary embodiments. It focuses primarily on the light reflected directly from the surface as described in the specification.
광학 특성 및 탁한 재료와의 상호 작용으로부터의 결과는 광의 각각의 파장에 대하여 상이하다. 일부 파장이 빠르게 흡수되는 반면, 다른 파장은 재료 내로 깊게 투과하고 두께에 따라 완전히 또는 부분적으로 투과될 수 있다. 아래에서 더욱 상세히 설명되는 바와 같이, 시스템, 장치 및 관련 방법의 구현예의 일부는 자외선(UV), 가시 광선 및 근적외선(NIR) 광 스펙트럼의 상이한 파장에 대하여 광학 특성 현상을 조사하기 위한 다중 또는 초분광(hyperspectral) 이미징 도구를 포함할 수 있다.The optical properties and results from the interaction with the cloudy material are different for each wavelength of light. Some wavelengths are absorbed quickly, while other wavelengths penetrate deeply into the material and may be completely or partially transmitted depending on the thickness. As described in more detail below, some of the implementations of systems, devices and related methods include multiple or hyperspectral phenomena for investigating optical property phenomena for different wavelengths of the ultraviolet (UV), visible and near infrared (NIR) light spectrum. (hyperspectral) imaging tools may be included.
또한, 본 명세서에 설명된 일부 구현예는 광이 분산되고 각각의 파장의 강도가 본 명세서에 설명된 센서(들)의 다양한 구현예에 의해 캡처되는 회절 격자를 포함하거나 활용할 수 있다. 또한, 본 명세서에 설명된 시스템, 장치 및 관련 방법의 구현예는 2차원으로 저장된 공간 데이터와 3차원의 스펙트럼 데이터를 갖는 3차원 큐브를 구비하거나 포함할 수 있는 연관 데이터를 획득할 수 있다. 개별의 적절한 파장 또는 적절한 파장의 조합의 선택은 가공된 식품 재료에 따라 달라질 수 있으며 사전에 결정될 수 있다. 예를 들어, 적절한 파장의 선택은 스캐닝될 특정 식품에 대한 투과율 및 반사율 정보를 포함하는 데이터베이스와, 특정 파장의 광의 스펙트럼 특성을 가진 데이터베이스를 기반으로 선택될 수 있거나, 또는 처리 전에 시스템은 스캐닝될 특정 객체 또는 식품에 기초하여 적절한 이미징 데이터를 캡처하는 것에 대응하는 파장을 결정하기 위하여 캘리브레이션될 수 있다.In addition, some implementations described herein may include or utilize a diffraction grating in which light is scattered and the intensity of each wavelength is captured by various implementations of the sensor(s) described herein. In addition, implementations of the systems, apparatuses, and related methods described herein may have spatial data stored in two dimensions and a three-dimensional cube having three-dimensional spectral data, or obtain associated data that may include them. The choice of an individual suitable wavelength or combination of suitable wavelengths may depend on the processed food material and may be determined in advance. For example, the selection of the appropriate wavelength may be selected based on a database containing transmittance and reflectance information for a particular food to be scanned, and a database with spectral properties of light of a particular wavelength, or prior to processing, the system may be Based on the object or food, it can be calibrated to determine the wavelength corresponding to capturing the appropriate imaging data.
본 명세서에 설명된 시스템, 장치 및 방법의 다양한 구현예에서, 낮은 흡수 계수 및 최소 산란을 갖지만 가지며 관심 대상인 내부 객체와는 완전히 다른 재료의 외부층(예를 들어, 각각 참치 살코기의 흰 살 및 어두운 살)을 통한 우수한 침투 능력을 갖는 특정 파장이 선택된다. 더욱이, 본 명세서에 설명된 시스템, 장치 및 방법의 다양한 구현예에서, 식품 재료 검사에 알맞은 적합한 파장을 선택하는 것에 더하여, 적합한 조명원이 또한 시스템 설계 변수로서 선택될 수 있다. 예를 들어, 광원은 특정 스펙트럼에 대해 방출되는 광의 강도가 다를 수 있다. 따라서, 최적의 결과를 얻기 위하여 애플리케이션에 적합한 파장을 갖는 광원이 선택될 수 있다. 특정 파장의 할로겐, LED 및 레이저 광을 포함하는 여러 유형의 조명원이 본 명세서에 개시된다.In various embodiments of the systems, devices, and methods described herein, an outer layer of material that has but has a low absorption coefficient and minimal scatter, and is completely different from the inner object of interest (e.g., the white and dark flesh of tuna meat, respectively). A specific wavelength is selected that has good penetration ability through flesh). Moreover, in various implementations of the systems, apparatus and methods described herein, in addition to selecting a suitable wavelength for food ingredient inspection, a suitable illumination source may also be selected as a system design parameter. For example, a light source may have a different intensity of emitted light for a particular spectrum. Thus, a light source having a wavelength suitable for the application can be selected in order to obtain optimal results. Several types of illumination sources are disclosed herein, including halogen, LED, and laser light of specific wavelengths.
검사된 식품 재료의 고품질 이미지 데이터의 획득이 본 개시 내용의 한 양태이다. 전술된 바와 같이, 처리되고 있는 재료가 3차원이지만, 전통적인 이미징 센서는 장면의 깊이를 파악하는 수단이 부족한 경향이 있어, 실제 객체의 복잡성을 인식하는 능력을 제한한다. 객체의 3차원 표현을 구성하기 위하여, 본 명세서에서 설명된 시스템, 장치 및 관련 방법의 다양한 구현예는 다수의 뷰(view)로부터 정보를 전달하는 이미지의 모음을 캡처할 수 있다. 체적 이미징 기술을 통해 획득되는 완전한 3D 표현과 달리, 종래의 이미징 시스템의 3D 표면 재구성 기술은 객체의 표면에 위치된 개별 지점의 3D 좌표, 또는 이 경우에는, 객체의 2개의 재료 사이의 경계의 3D 좌표만 캡처하는 경향이 있다. 따라서, 이러한 방법은 종종 문맥이 명백하게 달리 명시하지 않는 한 본 명세서에서 상호 교환적으로 사용될 수 있는 표면 측정, 거리 감지, 깊이 매핑 또는 표면 스캐닝으로 지칭된다.Acquisition of high quality image data of inspected food ingredients is an aspect of the present disclosure. As mentioned above, although the material being processed is three-dimensional, traditional imaging sensors tend to lack means of determining the depth of the scene, limiting the ability to perceive the complexity of real objects. In order to construct a three-dimensional representation of an object, various implementations of the systems, devices, and related methods described herein can capture a collection of images conveying information from multiple views. Unlike the full 3D representation obtained through volumetric imaging technology, the 3D surface reconstruction technology of conventional imaging systems is the 3D coordinates of individual points located on the surface of the object, or, in this case, 3D of the boundary between the two materials of the object. It tends to capture only the coordinates. Thus, this method is often referred to as surface measurement, distance sensing, depth mapping, or surface scanning, which can be used interchangeably herein unless the context clearly dictates otherwise.
3D 표면 재구성에 관한 하나의 종래 기술은 뷰 사이의 충분한 중첩을 고려하여 이미지 내의 대응하는 특징점을 일치시키는 다중 뷰 스테레오(multi-view stereo(MVS))이다. 그 결과는 표면이 피팅될 수 있는 3D 클라우드(cloud)이다. 이러한 접근 방식은 일반적으로 특징이 풍부한 텍스처(texture)를 필요로 하며, 이 텍스처는 특정 유형의 식품에서는 이용 가능하지 않거나 존재하지 않을 수 있다. 또한, MVS는 수반되는 적은 마진으로 인하여 식품 가공 업계에서 소정의 애플리케이션에 대하여는 효율성이 부족하다.One prior art for 3D surface reconstruction is multi-view stereo (MVS), which matches corresponding feature points in an image, taking into account sufficient overlap between views. The result is a 3D cloud to which the surface can be fitted. This approach generally requires a feature-rich texture, which may or may not be available in certain types of foods. In addition, MVS lacks efficiency for certain applications in the food processing industry due to the small margins involved.
구조 광(structured-light) 3D 표면 재구성 기술은 3차원 정보를 획득하기 위한 다른 기술이다. 구조 광 방법은 객체에 투영되는 공간적으로 가변하는 1D 또는 2D 구조 조명을 사용한다. 평면형 장면에서 조명 패턴은 표면 상으로 동일하게 투영되는 반면, 비평면형 장면에서는 카메라가 보는 패턴은 왜곡될 것이다. 3D 정보는 일반적으로 표면 경계에서 광의 직접 반사에서 획득되는 왜곡된 패턴의 특성에서 추출된다.The structured-light 3D surface reconstruction technique is another technique for obtaining 3D information. The structured light method uses spatially variable 1D or 2D structured illumination projected onto an object. In a planar scene, the light pattern is projected equally onto the surface, whereas in a non-planar scene, the pattern viewed by the camera will be distorted. 3D information is usually extracted from the characteristics of distorted patterns obtained from the direct reflection of light at the surface boundary.
양 접근 방식은 3D 표면에 대한 상세한 설명을 제공할 수 있지만, 이 중 어느 것도 상호 작용 모드 또는 투과 모드를 통해 캡처된 비침습적 이미징 데이터에 대하여는 실용적이지 않을 것이다. 한편, 실루엣으로부터의 형상은 객체의 윤곽에 의존할 것이고, 이로부터 3D 표현이 복구될 수 있다. 아래에서 더욱 상세히 설명되는 바와 같이, 시스템, 장치 및 관련 기술의 다양한 구현예는 각각의 카메라가 보는 실루엣을 3차원 장면으로 다시 투영하여 이의 교차 부분(intersection)으로부터 3D 형상을 추출하도록 동작 가능하다. 오목 영역(concavity)이 일반적으로 실루엣에서는 보이지 않으므로 폐기될 것이기 때문에, 재구성은 단지, 일반적으로 비주얼 헐(visual hull)로 알려진, 진정한 3D 구조의 근사이다. 그러나, 본 명세서에 설명된 다양한 구현예에서, 투과 이미징과 함께 상호 작용 이미징을 이용하여, 객체의 정밀한 3D 형상이 오목 영역을 고려하여 추출될 수 있다.Both approaches can provide detailed descriptions of 3D surfaces, but none of them will be practical for non-invasive imaging data captured via interactive mode or transmission mode. On the other hand, the shape from the silhouette will depend on the contour of the object, from which the 3D representation can be restored. As described in more detail below, various implementations of systems, devices, and related technologies are operable to project the silhouette viewed by each camera back into a three-dimensional scene to extract 3D shapes from its intersection. The reconstruction is just an approximation of a true 3D structure, commonly known as a visual hull, since the concavity is generally not visible in the silhouette and will be discarded. However, in various implementations described herein, using interactive imaging together with transmission imaging, a precise 3D shape of an object can be extracted taking into account the concave area.
아래에서 더욱 상세히 설명되는 바와 같이, 3D 형상 재구성 및 다중 뷰 이미지 데이터의 획득과 연계한 양태는 카메라의 위치 설정이다. 실루엣을 장면 내로 역투영하기 위하여, 카메라가 어디에 위치되었는지와 장면이 이미지 평면 상으로 원래 어떻게 투영되었는지를 판단하는 것이 중요하다. 본 명세서에 설명된 다양한 시스템, 장치 및 관련 방법은 카메라 캘리브레이션으로부터 이 정보를 수신 및/또는 처리하도록 동작할 수 있다. 이러한 정보는 광이 렌즈를 통해 이미징 센서 상으로 어떻게 투영되고 있는지와 이 과정을 통해 발생하는 임의의 왜곡에 관련된 내적인 파라미터와, 현실에서의 카메라의 위치에 관련된 외적인 파리미터를 포함할 수 있다. 본 명세서에 설명된 다양한 시스템, 장치 및 관련 방법은, 시스템의 다중 뷰 이미지 데이터 획득에 기여하는 각각의 카메라 및 위치에 대하여, 위에서 논의된 내적인 파라미터를 포함하여, 캘리브레이션 프로세스를 구현할 수 있고, 바이너리 기점(fiducial) 마커를 사용에 의해 효율적으로 성취될 수 있다.As will be described in more detail below, the aspect associated with 3D shape reconstruction and acquisition of multi-view image data is the positioning of the camera. In order to project the silhouette back into the scene, it is important to determine where the camera is positioned and how the scene was originally projected onto the image plane. The various systems, devices, and related methods described herein may operate to receive and/or process this information from camera calibration. This information may include how the light is projected through the lens onto the imaging sensor, internal parameters related to any distortion that occurs through this process, and external parameters related to the camera's position in reality. The various systems, devices, and related methods described herein can implement a calibration process, including the internal parameters discussed above, for each camera and position contributing to the acquisition of multi-view image data of the system, and This can be accomplished efficiently by using fiducial markers.
일부 구현예에서, 이미지 데이터를 획득할 때, 타겟 객체의 실루엣은 3차원 모델이 생성되기 전에 결정될 수 있다. 예를 들어, 본 개시 내용의 양태는 이미지 데이터에서 어느 것이 식품 재료를 나타내고 있는지 인식한 후, 외부층 및 내부층을 형성하는 상이한 성분들을 구별하는 것을 포함할 수 있다. 예를 들어, 객체가 생선 살코기인 구현예에서, 외부층 또는 제1 부분은 제1 유형의 살(meat)에 대응하고, 내부층 또는 제2 부분은 보통 제1 유형의 살 내에 포함된 제2 유형의 살에 대응한다. 일부 양태에서, 기계 학습, 더욱 구체적으로는 인공 신경망이 이러한 작업을 수행하는데 구현될 수 있다.In some implementations, when obtaining image data, the silhouette of the target object may be determined before the three-dimensional model is generated. For example, aspects of the present disclosure may include recognizing which one represents a food ingredient in the image data, and then distinguishing between the different components forming the outer layer and the inner layer. For example, in embodiments where the object is lean fish, the outer layer or first portion corresponds to a first type of meat, and the inner layer or second portion is usually contained within the first type of flesh. Corresponds to the type of flesh. In some aspects, machine learning, more specifically artificial neural networks, can be implemented to perform these tasks.
예를 들어, 신경망에서, 가중치와 연관된 연결(connection)을 통해 연결된 상이한 층 내에 여러 노드가 있다. 이 가중치는, 일반적으로, 알려진 입력을 고려하여 노드의 어느 출력이 예측되는지를 특정함으로써 여러 번의 반복을 통해 조정되고 학습된다. 관심 대상인 식품 재료 및 내부 결함 또는 객체를 나타내는 라벨링된 이미지의 대규모 데이터 세트를 수집합으로써, 딥 컨벌루션 신경망(deep convolutional neural network)은 특정 객체의 위치 및 정확한 경계를 인식하는 방법을 학습하도록 훈련될 수 있다. 증가하는 훈련 데이터 세트와 신경망 아키텍처의 세심한 설계로, 훨씬 복잡한 작업이 본 명세서에 설명된 다양한 시스템, 장치 및 관련 방법을 이용하여 효율적으로 해결될 수 있다. 더욱이, 일부 구현예에서, 다양한 상이한 모드가 상이한 특정 애플리케이션에 대하여 구현될 수 있다.For example, in a neural network, there are multiple nodes within different layers connected through connections associated with weights. These weights are generally adjusted and learned over multiple iterations by specifying which outputs of the node are predicted, taking into account known inputs. By collecting large data sets of labeled images representing food ingredients and internal defects or objects of interest, deep convolutional neural networks can be trained to learn how to recognize the location and precise boundaries of specific objects. have. With increasing training data sets and meticulous design of neural network architectures, even more complex tasks can be efficiently solved using the various systems, devices and related methods described herein. Moreover, in some implementations, a variety of different modes may be implemented for different specific applications.
본 명세서에 설명된 바와 같이, 본 개시 내용은 검사된 결함 또는 처리된 제품의 3차원 구조의 검출 및 추출을 위하여 컨베이어 벨트 시스템을 포함한다. 연속으로 이동하는 벨트로 인하여, 데이터 획득 및 분석은 매우 효율적인 것이 바람직하다. 일부 구현예에서, 적용 가능한 광 스펙트럼의 파장은 식품 재료 및 애플리케이션의 과제에 기초하여 사전에 결정될 수 있다. 특정 스펙트럼 대역은 초분광(hyperspectral) 이미징이나, 특정 필터 또는 레이저 광의 사용을 통해 획득될 수 있고, 이는 라인 스캔 시스템을 시사한다.As described herein, the present disclosure includes a conveyor belt system for detection and extraction of inspected defects or three-dimensional structures of processed products. Due to the continuously moving belt, it is desirable that the data acquisition and analysis is very efficient. In some embodiments, the wavelength of the applicable light spectrum can be predetermined based on the challenges of the food material and application. Certain spectral bands can be obtained through hyperspectral imaging, or through the use of specific filters or laser light, suggesting a line scan system.
아래에서 더욱 상세히 설명되는 바와 같이, 투과 데이터를 획득하기 위하여, 광원은 이미징 센서의 반대편에 위치되며, 이는 광이 투과되어 식품 재료를 통해 통과되게 하는 투명 매체에 의해 메워지는 컨베이어 벨트 내의 작은 갭(gap)을 필요로 한다. 다른 광원이 상호 작용 이미징 모드를 위하여 이미징 센서 옆에 평행하게 위치된다. 양 이미징 모드는 각각의 모드에 의해 캡처되는 이미지 데이터를 모호하게 하는 것을 방지하기 위하여 고주파수로 교대한다.As will be explained in more detail below, in order to obtain transmission data, a light source is positioned opposite the imaging sensor, which is a small gap in the conveyor belt that is filled by a transparent medium that allows the light to be transmitted and passed through the food material. gap). Another light source is placed parallel next to the imaging sensor for the interactive imaging mode. Both imaging modes alternate at high frequencies to avoid obscuring the image data captured by each mode.
아래에서 더욱 상세히 설명되는 바와 같이, 본 개시 내용에서, (본 명세서에 더욱 상세히 설명되는 바와 같이, 이미징 장치의 컴포넌트일 수 있고, 대안적으로는, 일반적으로 이미징 장치라 하고 일부 실시예에서는 이미징 장치에 결합된 개별 컴포넌트라 할 수 있는) 다수의 광원 및 카메라 센서의 조합이 다수의 뷰로부터 이미지 데이터를 수집하기 위하여 컨베이어 벨트에 또는 그 주위에 장착된다. 대안적으로, 일부 구현예에서, 단일 카메라 센서 또는 이미징 장치가 대신에 사용될 수 있다. 그러나, 이러한 구현예에서, 단일 카메라는 컨베이어 벨트 주위에 광 및 카메라를 재배치하는 것을 허용하는 회전 프레임 상에 위치될 수 있다. 카메라 시스템의 재배치로 인한 감소된 획득 시간 또는 빠른 컨베이어 벨트 속도로, 이미지 데이터는 나선형 정렬로 획득된다. 따라서, 나선형 이미지 데이터는 횡단 경로(transversal path)를 따라 획득 지점 사이에서 보간된다(interpolated). 뷰의 개수는 애플리케이션 및 타겟 객체의 필요한 상세 사항에 따라 달라질 수 있다. 구조는 이미징 장치 주위에 구성되고, 이미징 동안 조명을 제어하고 이에 따라 더 나은 이미지 품질을 성취하도록, 외부로부터 어떠한 광도 차단한다.As described in more detail below, in the present disclosure, (may be a component of an imaging device, as described in more detail herein, alternatively, generally referred to as an imaging device, and in some embodiments, an imaging device A combination of multiple light sources and camera sensors (which can be referred to as individual components coupled to) is mounted on or around a conveyor belt to collect image data from multiple views. Alternatively, in some implementations, a single camera sensor or imaging device may be used instead. However, in this implementation, a single camera may be placed on a rotating frame that allows relocating the light and camera around the conveyor belt. With a fast conveyor belt speed or reduced acquisition time due to relocation of the camera system, image data is acquired in a spiral arrangement. Thus, the helical image data is interpolated between acquisition points along a transversal path. The number of views may vary depending on the application and required details of the target object. The structure is constructed around the imaging device and blocks any light from outside to control the illumination during imaging and thus achieve better image quality.
본 개시 내용은, 일부 구현예에서, 타겟 객체의 위치 및 경계를 검출하도록 훈련된 딥 컨벌루션 신경망을 이용한다. 그러나, 본 개시 내용의 검토에 따라, 딥 컨벌루션 신경망의 적용은 애플리케이션에 의존하고 그에 따라 달라질 수 있으며, 이러한 모델은 이 작업을 달성하기 위하여 사전이 훈련될 수 있다는 것이 이해되어야 한다. 아래에서 더욱 상세히 설명되는 바와 같이, 추출된 실루엣은 타겟 객체의 3차원 형상에 대한 대략적인 근사를 생성하는데 사용된다. 이해되어야 하는 바와 같이, 본 개시 내용의 검토에 따라, 재구성된 모델의 해상도(resolution)는 의도되는 애플리케이션에 대한 필요한 속도 및 상세 사항(detail) 사이의 트레이드 오프(trade-off)이다. 예를 들어, 일부 구현예에서, 더 높은 해상도는 재구성을 위하여 더 많은 수의 이미지와 더 많은 계산 자원을 필요로 하고, 이는 결국 애플리케이션 속도에 영향을 미친다.The present disclosure, in some implementations, utilizes a deep convolutional neural network trained to detect the location and boundary of a target object. However, according to the review of the present disclosure, it should be understood that the application of a deep convolutional neural network is application dependent and may vary accordingly, and this model may be pre-trained to achieve this task. As described in more detail below, the extracted silhouette is used to generate a rough approximation to the three-dimensional shape of the target object. As should be understood, in accordance with the review of this disclosure, the resolution of the reconstructed model is a trade-off between the required speed and details for the intended application. For example, in some implementations, higher resolution requires a larger number of images and more computational resources for reconstruction, which in turn affects the application speed.
다른 구현예에서, 본 명세서에 설명되는 바와 같이, 카메라의 배열 및 개수는 달라질 수 있다. 위치 및 카메라 파라미터는 이미지 데이터를 캡처하기 전에 캘리브레이션될 수 있다. 컨베이어 벨트 상의 식품 재료의 이동 때문에, 카메라의 횡 방향 위치는 수송되는 재료를 참조하여 변경된다. 횡 방향 위치는 내부적으로 유지될 수 있거나, 애플리케이션에 따라 필요한 경우, 재료를 참조하여 설정되거나 컨베이어 벨트 상의 마커를 통해 명시적으로 정의될 수 있다.In other implementations, as described herein, the arrangement and number of cameras may vary. Position and camera parameters can be calibrated prior to capturing image data. Due to the movement of the food material on the conveyor belt, the transverse position of the camera is changed with reference to the material being transported. The transverse position can be maintained internally or, if necessary depending on the application, can be set with reference to the material or explicitly defined via a marker on the conveyor belt.
이제 도시된 예시적인 구현예들로 돌아가면, 도 1은 컨베이어 시스템(100)의 사시도이다. 컨베이어 시스템(100)이 본 개시 내용의 구현예들의 쉬운 이해를 위하여 단순화되었고, 따라서, 컨베이어 시스템(100)과 연관된 소정의 특징은 설명되지 않았다는 것이 이해되어야 한다. 컨베이어 시스템(100)은 제2 컨베이어(104)로부터 이격된 제1 컨베이어(102)를 포함한다. 다른 말로 하면, 공간 또는 갭(114)이 제1 컨베이어(102)를 제2 컨베이어(104)로부터 분리한다. 제1 컨베이어(102)는 본 명세서에서 일반적으로 컨베이어 시스템(100)의 제1 부분이라 할 수 있고, 유사하게, 제2 컨베이어(104)는 본 명세서에서 일반적으로 컨베이어 시스템(100)의 제2 부분이라 할 수 있다. 더욱이, 공간 또는 갭(114)과 플레이트(110)의 크기 및 형상은 특정 애플리케이션에 따라 다를 수 있고, 따라서 본 개시 내용은 공간 또는 갭(114)에 대응하는 컨베이어(102, 104) 사이의 거리나 플레이트(110)의 크기 또는 형상에 의해 제한되지 않는다.Turning now to the illustrated exemplary implementations, FIG. 1 is a perspective view of a
플레이트(110)는 갭(114) 내에 또는 그에 근접하게 위치되어, 연속 컨베이어 라인을 형성한다. 바람직하게는, 플레이트(110)는 광이 방해 없이 플레이트(110)를 통과할 수 있게 하도록 투명하다. 예를 들어, 플레이트(110)는 다른 것들 중에서도 투명 플라스틱, 폴리머 또는 유리로 형성될 수 있고, 대안적인 구현예에서는, 플레이트(110)는 반투명하고, 예를 들어, 반투명 플라스틱, 폴리머 또는 유리로 유사하게 형성된다. 플레이트(110)는 컨베이어 시스템(100)에 결합되거나, 더욱 구체적으로는, 제1 컨베이어(102) 및 제2 컨베이어(104) 중 적어도 하나에 결합된다. 더욱이, 시스템(100)의 각각의 컨베이어(102, 104)는 지지 구조체(106)에 의해 지지되고, 컨베이어 표면(112)은 롤러(108) 및 종래의 구동 기구(도시되지 않음)에 의해 병진한다. 또한, 컨베이어 표면(112)은 고형체이거나(solid), 도 1에 도시된 바와 같이, 한 줄로 배열되거나 컨베이어 표면(112)에 걸쳐 균일하게 분산되는 복수의 구멍(perforation)(116)을 포함할 수 있다. 다른 구현예에서, 컨베이어 표면(112)은 고형체이고, 이는 표면(112)에 이러한 구멍이 없다는 것을 의미한다.
도 2는 투과 이미징 모드(200)에 대응하는 개략도이다. 투과 이미징 모드(200)는 광원(202)과 이미징 장치(204)를 포함한다. 도 2는 스캐닝될 객체(206)를 더 도시하고, 객체(206)는 플레이트(110) 상에 위치된다. 광원(202)은 플레이트(110)를 향하여 지향되고 플레이트(110)를 향하여 이동함에 따라 바깥을 향하여 전파하는 광(208)을 방출한다. 광(208)이 플레이트(110) 및 객체(206)를 투과함에 따라, 광은 수렴 경로 또는 부분(210)으로 표시되는 바와 같이 수렴한다. 객체(206)를 빠져나온 후, 광(208)은 이미징 장치(204)에 의해 캡처된다. 본 명세서에 설명되는 바와 같이, 이미징 장치(204)는 객체(206)를 통해 투과된 캡처된 광(208)에 대응하는 투과 이미지 데이터를 수신하고, 투과 이미지 데이터는 이어서 추가 처리 및 재구성을 위하여 신호를 통해 이미징 장치(204)와 전자적으로 통신하는 프로세서 또는 제어 유닛(예를 들어, 도 4에 도시된 제어 유닛(248))에 전송된다.2 is a schematic diagram corresponding to the
도시된 구현예에서, 컨베이어 시스템(100)은 일반적으로 도 2에 도시된 방향(orientation)에 대하여 오른쪽에서 왼쪽으로 객체(206)를 병진시키고 있지만, 컨베이어 시스템(100)이 다른 방향으로도 병진시킬 수 있다는 것이 이해되어야 한다. 더욱이, 광원(202)으로부터 출력된 광(208)이 이미징 장치를 향하여 직선 방식으로 객체(206)를 통해 전파하도록, 이미징 장치(204) 및 광원(202)은 바람직하게는 수직 축을 따라 정렬되고, 이미징 장치(204)는 광원(202) 위에 정렬된다. 또한, 객체(206)와 광(208)의 특성 또는 정렬에서의 작은 변동으로 인하여, 이미징 장치(204)와 광원(202)의 정렬은 엄밀히 수직이지 않을 수 있고, 대신에 수직의 10도 이내에 있거나, 수직의 5도 이내에 있거나, 실질적으로 수직(즉, 수직의 3도 이내)일 수 있다.In the illustrated embodiment, the
광원(202)은, 예를 들어, 레이저, 발광 다이오드(light emitting diode(LED)), LED 어레이 또는 패널, 백열등, 소형 형광등, 할로겐 램프, 메탈 할라이드 램프, 형광 튜브, 네온 램프, 저압 나트륨 램프 또는 HID(high intensity discharge lamp)과 같이, 다양한 구현예에서 다양한 소스 중 하나로부터 선택될 수 있다. 광원(202)이 레이저인 구현예에서, 본 개시 내용의 구현예는 고체 상태 레이저, 가스 레이저, 엑시머 레이저, 색소(dye) 레이저 또는 반도체 레이저를 포함하는 광원(202)을 더 포함할 수 있다. 레이저가 레이저 방출 지속 시간을 특징으로 하는 정도까지, 레이저는 또한 연속파 레이저, 단일 펄스 레이저, 단일 펄스 q-스위치드(q-switched) 레이저, 반복 펄스 레이저 또는 모드 잠금 레이저일 수 있다.The
더욱이, 위에서 논의된 바와 같이, 바람직하게는, 상이한 광원(202)이 객체(206)에 상대적으로 상이한 관통 특성을 갖는 광(208)을 출력하기 때문에, 광원(202)은 구체적으로 애플리케이션 또는 스캐닝될 객체(206)에 대하여 선택된다. 객체(206)가 생선 살코기인 구현예에서, 바람직하게는, 광원(202)은 투과 이미징 모드(200)에서 790 및 820 나노미터(nm) 사이의 파장을 갖는 광을 출력하지만, 더욱 바람직하게는, 파장은 805 nm 또는 대략 805 nm(즉, 800 nm 내지 810 nm)이며, 이는 일반적으로 대략 400 및 750 nm 사이인 스팩트럼의 가시 광선 부분의 외부에 있는 전자기 스펙트럼의 적외선 부분의 파장에 대응한다. 더욱이, 이 파장은, 적어도 참치 살코기에 대하여, 산란을 최소화하면서, 살코기 내로 깊은 통과를 허용하는 광의 파장에 대응하며, 산란이 투과 이미징 모드(200)에 대응하는 이미지 데이터의 정확성을 감소시키기 때문에, 산란은 일반적으로 투과 이미징 모드(200)에서 바람직하지 않다.Moreover, as discussed above, preferably, since different
750 nm보다 더 크거나 대략 805 nm에서의 근적외선 스펙트럼은 물이 참치 생선 살코기에서의 생물학적 조직에서의 실질적인 부분에 기여하는 헤모글래빈이 그러한 것처럼 이러한 파장에 여전히 다소 투과성인 때문에, 참치 가공에 대하여 유용하다. 상대적으로, 가시 광선 스펙트럼(즉, 400 nm 내지 750nm)에서, 헤모글로빈은 광의 대부분을 흡수한다. 이 파장에서 광이 흰 살(white meat)을 통과하지만 어두운 살은 통과하지 않는 이유에 관한 하나의 가능성 있는 설명은 2개의 재료 사이의 상이한 밀도의 근섬유 때문이라는 것이며, 어두운 살에 대한 근섬유 밀도는 흰 살보다 훨씬 더 높다. 이 파장 범위(즉, 근적외선 또는 대략 805 nm)에서 어두운 살에 대한 흡수 계수는 여전히 매우 높은 반면, 흰 살에 대한 흡수 계수는 더 낮다. 물리적 특성 이외에, 이러한 특성은, 예를 들어, 화학적 조성에서의 차이에 의해 설명될 수 있다. 따라서, 흰 살에 대하여, 관통은 다소 깊은 상태를 유지한다. 거동에 있어서의 이러한 차이는 파장(즉, 대략 805 nm)의 이러한 특별한 선택이 스캐닝되는 객체가 참치 생선 살코기인 애플리케이션에 대하여 바람직하게 한다.The near-infrared spectrum greater than 750 nm or at approximately 805 nm is useful for tuna processing, as water is still somewhat permeable to these wavelengths as hemoglobin, which contributes to a substantial part of the biological tissue in tuna fish lean. . Relatively, in the visible spectrum (i.e. 400 nm to 750 nm), hemoglobin absorbs most of the light. One possible explanation for why light passes through white meat at this wavelength but not dark flesh is that it is due to the different density of muscle fibers between the two materials, and the muscle fiber density for dark flesh is white. Much higher than flesh. In this wavelength range (i.e., near infrared or approximately 805 nm) the absorption coefficient for dark flesh is still very high, while the absorption coefficient for white flesh is lower. In addition to physical properties, these properties can be explained, for example, by differences in chemical composition. Thus, for white flesh, the penetration remains rather deep. This difference in behavior makes this particular choice of wavelength (ie, approximately 805 nm) desirable for applications where the object being scanned is a tuna fish lean.
특정 구현예에서, 이미징 장치(204)는, 한정하지 않으면서, 다른 것들 중에서도, 분광기(spectrograph), 카메라 또는 센서를 포함하는 다수의 상업적으로 입수 가능한 이미징 장치(204) 중 하나이다. 이미징 장치(204)가 센서인 구현예에서, 바람직하게는, 이미징 장치(204)는 300 nm 및 1000 nm 사이의 파장을 캡처하는 CMOS(complementary metal oxide semiconductor) 센서이다. 대안적으로, 센서는 유사한 파장을 캡처하는 CCD(charged-coupled device) 또는 900 및 1700 nm 사이의 파장을 캡처하는 인듐 갈륨 비화물(InGaAs) 센서이다. 이미징 장치(204)가 카메라 또는 분광기인 구현예에서, 카메라 또는 분광기는, 다른 전자 부품 및 다른 유형의 센서에 더하여, 임의의 상술한 센서를 포함할 수 있다는 것이 더 이해되어야 한다.In certain implementations, the
투과 이미징 모드(200)를 캘리브레이션하는데 있어서, 또는 상이한 애플리케이션에 대하여 모드(200)를 변경하는데 있어서, 바람직하게는, 어느 파장이 최상의 투과율을 가지며 객체(206)에 대한 특성을 캡처하는지 조사하기 위하여, 광(208)은 개별 파장으로 분할된다. 구체적으로 예시되지 않지만, 회절 격자를 갖는 분광기가 광(208)을 개별 파장으로 분할하는데 사용될 수 있다. 대안적으로, 분광기가 민감하고 비싸기 때문에, 모드(200)가 캘리브레이션되면, 효율을 증가시키고 비용을 절감하기 위하여, 애플리케이션에 대응하는 이미징 장치(204)에 의해 캡처 광의 소정의 선택된 파장만이 통과하게 하는 차단 필터가 사용될 수 있다. 또 다른 대안에서, 바람직하게는, 캘리브레이션을 통해 선택된 바람직한 파장에 대응하는 특정 파장을 갖거나 특정 파장 범위 내의 광만을 방출하는 레이저 광원(202)이 사용될 수 있으며, 이 또한 비용을 절감하고 효율을 증가시킨다. 비교하자면, 차단 필터는 일반적으로 더 넓은 범위의 통과 파장을 가지는 반면, 레이저는 특정 파장에 매우 특유하고, 따라서, 2개 사이의 선택은 문제의 재료에 대한 원하는 작동 파장에 따라 달라질 것이다.In calibrating the
도 3은 상호 작용 이미징 모드(300)의 예시적인 구현예의 개략도이다. 상호 작용 이미징 모드(300)는 광원(302)과 이미징 장치(304)를 포함한다. 일부 구현예에서, 이미징 장치(304)는 투과 모드의 이미징 장치(204)와 다를 수 있다; 일부 구현예에서, 상호 작용 이미징 모드(300)의 이미징 장치(304)는 투과 모드의 이미징 장치(204)와 동일할 수 있다. 다른 말로 하면, 동일한 이미징 장치가 투과 이미징 모드 및 상호 작용 이미징 모드 모두에 대하여 사용될 수 있다. 광원(302) 및 이미징 장치(304)는 각각 광원(202) 및 이미징 장치(204)를 참조하여 전술된 임의의 광원 및 이미징 장치일 수 있다. 스캐닝되는 객체(306)는 플레이트(110) 상에 있고, 광원(302)은 광(310)을 방출한다. 그러나, 투과 이미징 모드(200)에 비하여, 상호 작용 이미징 모드(300)에서, 광(310)은 광원(302)의 출력부(312)에서 광원(302)에 결합된 수렴 렌즈(308)를 통과한다. 수렴 렌즈(308)는 특정 애플리케이션에 따라 선택된 주축(principal axis), 초점, 초점 길이 및 수직면을 갖는 다수의 알려진 수렴 렌즈 중 임의의 하나일 수 있다. 수렴 렌즈(308)는, 다른 이점들 중에서도, 이미징 장치(304)에 의해 캡처된 이미지 데이터를 명백하게 하는데 도움을 준다.3 is a schematic diagram of an exemplary implementation of an
객체(306)가 생선 살코기이고 더욱 구체적으로는 참지 살코기인 구현예에 대한 상호 작용 이미징 모드(300)에서, 바람직하게는, 광원(302)은 대략 740 및 800 nm 사이에 있고, 더욱 바람직하게는, 770 nm 또는 대략 770 nm(즉, 765 및 775 nm 사이)인 파장의 광을 방출한다. 또한, 바람직하게는, 이미징 장치(304)는 본 명세서에 설명된 바와 같은 CMOS 센서 또는 CCD센서이고, 바람직하게는 이를 포함한다. 이 파장 범위는 투과 이미징 모드(200)의 바람직한 파장에 관하여 상술한 분석에 기초하여 상호 작용 이미징 모드(300)에 대하여 바람직한 것으로 밝혀졌다.In the
광(310)이 광원(302)에 의해 방출되고 수렴 렌즈(308)를 통과한 후, 광(310)은 객체(306)를 통과하는 광(310)의 부분(312)으로 나타낸 바와 같이 객체(306)와 접촉한다. 그러나, 상호 작용 이미징 모드(300)에서, 이미징 장치(304)는 객체(306)에 의해 후방 산란된 광을 측정한다. 다른 말로 하면, 광(310)의 부분(314)은 객체(306)에 진입한 후에 객체(306)를 빠져나오기 전에 객체(306)의 재료 조성과 광(310)으로 인하여 객체(306) 내에서 구부러지나, 휘어지거나, 방향을 바꾸는 광에 대응한다. 다른 말로 하면, 수렴 렌즈(308)를 통해 방출된 광(310)은 제1 방향(305)을 따라 전파하고 객체를 빠져나온 광(310)은 제2 방향(307)으로 전파하며, 일 구현예에서, 제1 및 제2 방향은 평행한 축을 따라 서로 반대 방향이다. 그러나, 본 개시 내용의 구현예는 또한, 도 4를 참조하여 설명되는 바와 같이, 광원(302)이 객체(306)에 대하여 비스듬할 때와 같이, 서로에 대하여 횡 방향으로 비스듬히 있을 수 있는 제1 및 제2 방향을 포함한다는 것이 이해되어야 한다. 광(310)은 객체(306)를 빠져나와 이미징 장치(304)를 향해 전파하고, 전파 동안, 광은 분산 부분(316)으로 표시된 바와 같이 분산한다. 광(310)이 이미징 장치(304)에 의해 수신될 때, 이미징 장치(304)는, 본 명세서에 설명된 바와 같이, 캡처된 광(310)의 양에 대응하는 상호 작용 이미징 데이터를 제어 유닛 또는 프로세서(예를 들어, 도 5에 도시된 제어 유닛(428))에 전송한다.After
도시된 구현예에서, 컨베이어(100)는 일반적으로, 화살표(318)로 표시된 바와 같이, 도 3에 도시된 배향에 대하여 오른쪽에서 왼쪽으로 객체(306)를 병진시킨다. 따라서, 광원(302)은 컨베이어 시스템(100)의 병진 방향에 대하여 상대적으로 이미징 장치(304)의 상류에 위치된다. 다른 말로 하면, 광원(302)은 일반적으로 이미징 장치(304)에 근접하게 그리고 바람직하게는 그에 평행하게 위치된다. 이미징 장치(304)로부터 하류에 있는 광원(302)을 가지는 것이 가능할 수 있지만, 이 배열은 처리 동안 보정될 필요가 있을 수 있는 덜 정확한 이미징 데이터를 초래할 수 있다. 더욱이, 컨베이어(100)가 화살표(318)로 표시된 방향에 반대로 객체(306)를 병진시키는 것이 또한 가능하며, 이 경우에, 바람직하게는, 광원은 도시된 배향에서 이미징 장치(304)의 왼쪽(즉, 상류)에 있다. 또한, 광원(302)과 이미징 장치(304)는 모두 객체(306) 위에 위치되고, 따라서, 실질적으로 수직 축을 따라 객체(206)를 통해 직접 병진하는 광 부분을 캡처하는 투과 이미징 모드(200)에 반대로, 상호 작용 이미징 모드(300)는 객체(306)에 진입한 후에 이미징 장치(304)를 향하여 후방 산란하는 광(310)의 부분(314)을 캡처한다.In the illustrated embodiment, the
도 4는 컨베이어 시스템(402), 컨베이어 시스템(402)에 결합된 지지 링(414), 지지 링(414)에 결합된 복수의 이미징 장치(422) 및 지지 링(414)에 결합된, 제1 광원(424)과 같은, 적어도 하나의 광원을 포함하는 이미징 시스템(400)의 예시적인 실시예의 사시도를 도시한다.FIG. 4 is a first diagram of a
컨베이어 시스템(402)은 도 1의 컨베이어 시스템(100)을 참조하여 전술된 특징을 전부 또는 상당한 부분을 포함할 수 있다. 그러나, 간단히, 컨베이어 시스템(402)은 제1 컨베이어 또는 부분(404) 및 제2 컨베이어 또는 부분(406)을 포함하고, 제1 컨베이어(404)는 갭 또는 공간(410)에 의해 제2 컨베이어(406)로부터 분리된다. 바람직하게는 투명한 플레이트(412)가 갭(410) 내에 위치되고, 연속 컨베이어 라인을 형성하도록 컨베이어 시스템(402)에 결합된다.
전술된 바와 같이, 지지 링 또는 프레임(414)은 지지부(support)(416, 418)로 컨베이어 시스템(402)에 결합되고, 바람직하게는, 지지 링(414)은 이미징 시스템(400)의 캘리브레이션 동안 지지 링(414)의 회전을 용이하게 하도록 원형이다. 바람직하게는, 지지부(416)는 컨베이어 시스템(402), 더욱 구체적으로는, 제1 및 2제2 컨베이어(404, 406)의 각각에 결합된 플레이트(420)에 결합되고 플레이트(420)로부터 연장하는 조정 가능한 칼라(collar)이다. 바람직하게는, 지지부(418)는, 시스템의 캘리브레이션 동안 지지 칼라(416)를 조정함으로써 지지 링(414)이 수동으로 회전될 수 있도록, 컨베이어 시스템(402)에 결합된 지지 링(414)을 수용하기 위한 개방 채널을 갖는 베이스이다. 지지부(416)가 칼라로 도시되고, 지지부(118)가 지지 링(414)을 수용하기 위한 채널을 갖는 베이스로서 도시되지만, 다수의 다른 장치 또는 배열이 지지 링(414)을 컨베이어 시스템(402)에 결합하기 위하여 본 개시 내용에서 고려될 수 있다는 것이 이해되어야 한다. 예를 들어, 다른 구현예에서, 결합은 컨베이어 시스템(402)으로부터 연장하는 하나 이상의 중심에 배치된 스포크(spoke) 또는 공간(410) 내에 위치되고 컨베이어 시스템(402)에 결합된 다른 구조를 포함하거나, 대안적으로, 지지 링(414)이 도 6에 도시된 하우징과 같은 하우징에 결합되어 그에 의해 지지될 수 있다.As described above, the support ring or
지지 링(414)은 지지 링(414)에 결합되고 이로부터 연장하는 복수의 이미징 장치(422)를 더 포함한다. 각각의 이미징 장치(422)는 도 2를 참조하여 설명된 이미징 장치(422) 및 이의 임의의 변형과 동일하지는 않더라도 실질적으로 유사할 수 있다. 또한, 지지 링(414)은, 적어도, 도 2에서 광원(204)을 참조하여 위에서 논의된 임의의 광원일 수 있는 제1 광원(424)을 포함한다. 도 4에 도시된 바와 같이, 제1 광원(424)은 컨베이어 시스템(402) 사이에 위치되고, 제1 광원(424)에 의해 방출된 광이 플레이트(412) 및 이미징되거나 스캐닝될 플레이트(412) 상의 객체(408)를 향하여 지향되도록 배열된다. 광은 플레이트(412)와 객체(408)를 통과하여 복수의 이미징 장치(422) 중 적어도 하나에 수신되고, 제1 광원(424)으로부터 수신된 광에 대응하는 데이터는 투과 이미징 데이터에 대응한다.The
예시된 구현예에서, 지지 링은 복수의 이미징 장치(422) 근처에 지지 링(414)에 결합되고 그로부터 연장하는 제2 광원(426)을 더 포함한다. 바람직하게는, 제2 광원(426)은 상호 작용 이미징 모드에서 사용되고, 제2 광원(426)은 이미징 장치(422)에 근접하고 그에 평행하게 위치된다. 또 다른 실시예에서, 제2 광원(426)은 이미징 장치(422)에 근접하게 위치되지만, 도 4에 도시되고 여기에서 설명되는 바와 같이, 이미징 장치(422)의 시야를 횡단하는 각도로 기울여져 있다. 제2 광원(426)은 유사하게 도 2에서 광원(202)을 참조하여 논의된 임의의 상술한 광원일 수 있다. 제2 광원(426)은 도 3을 참조하여 설명된 상호 작용 이미징 모드(300)에 대응하는 광을 방출한다. 따라서, 제2 광원(426)에 의해 방출된 광은 제1 방향으로 객체(408)를 향하여 지향되고, 객체(408) 내에서 방향을 바꾸고, 제2 방향으로 객체(408)를 빠져나와, 복수의 이미징 장치(422) 중에서, 전부는 아니더라도, 적어도 하나에서 수신되며, 제2 광원(426)으로부터 수신된 광에 대응하는 데이터는 상호 작용 이미징 데이터에 대응한다. 예시된 구현예에서, 제1 및 제2 방향 사이의 각도는 90도 미만이고, 바람직하게는, 45도 미만이지만, 각도는 특정 애플리케이션(즉, 스캐닝되는 객체(408)의 유형)에 따라 달라질 것이라는 점이 이해되어야 한다.In the illustrated embodiment, the support ring further includes a second
도 4에 도시된 바와 같이, 복수의 이미징 장치(422)는 5개의 이미징 장치(422)를 포함하고, 이미징 장치(422)는 지지 링(414)의 둘레, 원주 또는 내부 에지를 따라 서로 동일한 간격으로 이격되고, 입력부가 광원(424, 426) 중 하나로부터 광을 수신하기 위하여 플레이트(412)와 객체(408)를 향하여 지향된다. 따라서, 각각의 이미징 장치(422)는 객체(408)의 상이한 뷰에 대응하는 이미징 데이터를 수신할 것이다. 다른 말로 하면, 배열로 인하여 각각의 이미징 장치(422)로부터의 뷰 또는 데이터 사이에 차이가 있을 것이며, 이는 객체(408)의 실루엣과 3차원 이미지 데이터를 생성하는 것을 도울 것이다. 따라서, 예시된 구현예에서, 복수의 이미징 장치(422)의 배열 및 선택이 기계 학습 시스템에 입력되는 다수의 뷰를 제공하기 때문에, 정상적인 작동 동안 지지 링(414)을 회전시킬 필요가 없고, 기계 학습 시스템은, 본 명세서에 설명되는 바와 같이, 다수의 뷰에 기초하여 3D 모델을 결정하기 위한 기초인 실루엣을 생성한다. 그러나, 이미징 장치(422)의 특정 개수, 배열 및 배향은, 본 명세서에 논의되는 바와 같이, 스캐닝되는 객체(408) 및 시스템(400)의 캘리브레이션에 따라 다르다는 것이 이해되어야 한다.As shown in FIG. 4, the plurality of
더욱이, 각각의 이미징 장치(422)는 제2 광원(426)으로부터 반사(reflectance) 이미징 데이터를 수신할 수 있고, 반사 이미징 데이터는 1230 및 1290 nm 사이에 있거나, 더욱 바람직하게는 1260 nm 또는 대략 1260 nm(즉 1255 nm 및 1265 nm 사이)인 파장의 광을 출력하는 제2 광원(426)에 대응하고, 이 파장으로 방출되는 광은 객체(408)의 외부 표면으로부터 반사되어 복수의 이미징 장치(422)에 의해 수신되거나 캡처된다. 물이 1000 nm 이상의 파장에 대하여 고흡수성이더라도, 어두운 살이 대략 1260 nm에서 광을 반사하기 시작하는 반면, 흰 살은 그렇지 않기 때문에, 이 파장(즉, 대략 1260 nm)은 바람직하게는 반사 이미징 모드에 대한 것이다. 반사 이미징 모드에서, 각각의 이미징 장치(422)는 이러한 더 긴 파장의 광을 캡처하기 위하여, 전술된 바와 같은, InGaAs 센서를 더 포함할 수 있다. 반사 이미징 데이터는 객체가 외부층 내에 부분적으로만 포함되어 있는 상황(즉, 객체의 일부가 외부층으로부터 연장하는 상황)에서 특히 유용할 것이지만, 다른 구현예에서, 반사 이미징 데이터는 상호 작용 이미징 모드에 추가하여 보정 기준으로서 사용될 수 있다.Moreover, each
도 4는 시스템(400)과 전기적으로 통신하는 제어 유닛(428)을 더 도시한다. 도 5는 하나의 예시적이고 비한정적인 구현예에 따른 제어 유닛(428)을 상세히 도시한다. 특히, 제어 유닛(428)은 일반적으로 시스템(400)에 전력을 제공하고 이미징 장치(422)로부터 수신된 이미징 데이터를 처리하거나 전송하도록 동작 가능하다. 도 5는 이미징 장치(422)와 제어 유닛(428) 사이의 데이터 교환을 포함하여 시스템(400)을 제어하도록 동작하는 다양한 제어 시스템, 모듈 또는 기타 서브 시스템을 개략적으로 도시한다.4 further shows a
제어 유닛(428)은 예를 들어 마이크로프로세서인 컨트롤러(422), 디지털 신호 프로세서, PGA(programmable gate array) 또는 ASIC(application specific integrated circuit)을 포함한다. 제어 유닛(428)은 하나 이상의 비일시적인 저장 매체, 예를 들어 ROM(read only memory)(440), RAM(random access memory)(438), 플래시 메모리(도시되지 않음) 또는 기타 물리적인 컴퓨터 또는 프로세서 판독 가능한 저장 매체를 포함한다. 비일시적인 저장 매체는 컨트롤러(422)에 의해 사용되는 명령어 및/또는 데이터, 예를 들어, 운영 체제(OS) 및/또는 애플리케이션을 저장할 수 있다. 명령어는, 컨트롤러(422)에 의해 실행될 때, 이미징 장치(422)로부터 데이터를 캡처하고 처리하는 것을 포함하지만 이에 한정되지 않는, 본 명세서에 설명된 시스템(400, 500)의 다양한 구현예의 기능을 수행하기 위한 로직을 실행할 수 있다.The
시스템(500)(도 6 참조)이 회전하는 지지 링 또는 프레임(504)을 포함하는 구현예에서, 컨트롤러(428)는 링(504)의 회전을 제어하기 위하여 하나 이상의 액추에이터(도시되지 않음)에 통신적으로 결합될 수 있다. 대안적으로, 컨트롤러(428)는 링(504)을 회전시키기 위하여 하나 이상의 벨트(도시되지 않음)에 통신적으로 결합될 수 있다. 더욱이, 컨트롤러(442)는 미리 정해진 제조 속도 또는 컨베이어 속도에 따라 지지 링(504)을 자동으로 회전시키기 위하여 액추에이터 또는 벨트에 전송되는 특정 위치(즉, 도 6을 참조하여 논의되는 제1 위치 및 제2 위치)에 대응하는 명령어를 포함할 수 있다.In embodiments in which the system 500 (see FIG. 6) includes a rotating support ring or
제어 유닛(428)은 최종 사용자가 시스템(500, 600)을 동작시키거나 시스템(500, 600)의 동작 상태 또는 조건에 관한 입력을 시스템(500, 600)에 제공할 수 있게 하는 사용자 인터페이스(436)를 포함할 수 있다. 사용자 인터페이스(436)는 시스템(500, 600)으로부터 액세스 가능한 다수의 사용자 선택 가능한 제어 수단(control)을 포함할 수 있다. 예를 들어, 사용자 인터페이스(436)는 시스템(400, 500)을 ON 및 OFF시키고, 그리고/또는 시스템(400, 500)의 다양한 동작 파라미터를 설정하도록 동작 가능한 다수의 스위치 또는 키를 포함할 수 있다.The
추가적으로 또는 대안적으로, 사용자 인터페이스(436)는 디스플레이, 예를 들어, 터치 패널 디스플레이를 포함할 수 있다. 터치 패널 디스플레이(예를 들어, 터치 민감 오버레이를 갖는 LCD)는 최종 사용자를 위한 입력 및 출력 인터페이스를 모두 제공할 수 있다. 터치 패널 디스플레이는 시스템(400, 500)의 동작 상태 또는 조건을 설정하기 위하여 사용자에 의해 선택 가능한 다양한 사용자 선택 가능한 아이콘, 메뉴, 체크 박스, 다이얼로그 박스 또는 기타 컴포넌트 또는 요소를 갖는 그래픽 사용자 인터페이스를 제공할 수 있다. 또한, 사용자 인터페이스(436)는 하나 이상의 청각적 트랜스듀서, 예를 들어, 하나 이상의 스피커 및/또는 마이크를 포함할 수 있다. 이는 청각적 경고 통지 또는 신호가 최종 사용자에게 제공될 수 있게 한다. 이는, 추가적으로 또는 대안적으로, 최종 사용자가 청각적 명령 또는 지시를 제공할 수 있게 한다. 사용자 인터페이스(436)는 예시되거나 설명된 것 이외의 추가 컴포넌트 및/또는 다른 컴포넌트를 포함할 수 있고, 그리고/또는 일부 컴포넌트를 생략할 수 있다.Additionally or alternatively, the
스위치 및 키 또는 그래픽 사용자 인터페이스는, 예를 들어, 토글 스위치, 키패드 또는 키보드, 로커(rocker) 스위치, 트랙볼, 조이스틱 또는 썸스틱(thumbstick)을 포함할 수 있다. 스위치 및 키 또는 그래픽 사용자 인터페이스는, 예를 들어, 최종 사용자가 시스템(400, 500)을 ON시키고, 투과 이미징 모드 또는 상호 작용 이미징 모드를 시작 또는 종료하고, 원격 액세서리 및 프로그램에 통신적으로 결합 또는 결합 해제하고, 이미징 데이터를 액세스, 전송 또는 처리하고, 모터 또는 오디오 서브 시스템을 활성화 또는 비활성화하고, 컨베이어 시스템의 동작 상태를 시작 또는 종료하는 등을 할 수 있게 한다.Switches and keys or graphical user interfaces may include, for example, toggle switches, keypads or keyboards, rocker switches, trackballs, joysticks or thumbsticks. Switches and keys or graphical user interfaces can be used, for example, by the end user turning on
제어 유닛(428)은 개인용 컴퓨터 또는 프로세스 등과 같은 하나 이상의 외부 장치의 다양한 컴포넌트와의 통신을 용이하게 하는 하나 이상의 통신 모듈 또는 컴포넌트를 포함할 수 있는 통신 서브 시스템(444)을 포함한다. 통신 서브 시스템(444)은 하나 이상의 외부 장치에 대한 유선 또는 무선 연결을 제공할 수 있다. 통신 서브 시스템(444)은 하나 이상의 페어링된 장치의 다양한 원격 컴포넌트 또는 시스템으로의 무선 신호 경로를 제공하기 위하여 무선 수신기, 무선 송신기 또는 무선 송수신기를 포함할 수 있다. 통신 서브 시스템(444)은, 예를 들어, (예를 들어, 블루투스 또는 NFC(field communication), RFID(frequency identification) 컴포넌트 및 프로토콜을 통한) 단거리 무선 통신 또는 (예를 들어, 무선 LAN, LPWAN(Low-Power-Wide-Area Network), 위성 또는 휴대 전화 네트워크를 통한) 장거리 무선 통신을 포함할 수 있고, 하나 이상의 모뎀, 하나 이상의 이더넷 또는 그렇게 하기 위한 다른 종류의 통신 카드 또는 컴포넌트를 포함할 수 있다. 통신 서브 시스템(444)은 교환 패킷형(switched packet type) 통신 프로토콜(TCP/IP), 이더넷 또는 다른 네트워킹 프로토콜을 포함하는 네트워크 트래픽을 처리하기에 적합한 하나 이상의 브릿지 또는 라우터를 포함할 수 있다. 일부 구현예에서, 외부 장치와의 유선 또는 무선 통신은 다양한 재료 특성 및 광 파장 특성을 나타내는 룩업 테이블에 대한 액세스를 제공할 수 있다. 예를 들어, 최종 사용자는 외부 장치에서 룩업 테이블 또는 유사한 것에 저장될 수 있는 사용자 인터페이스(436)에 디스플레이된 다양한 재료로부터 재료를 선택할 수 있다.The
제어 유닛(428)은 전원(도시되지 않음)로부터 컨트롤러(428), 예를 들어, 시스템(400, 500)에 통합되거나 부착된 컨트롤러(428)의 다양한 컴포넌트로의 전력 공급을 관리하는 전력 인터페이스 관리자(432)를 포함한다. 전력 인터페이스 관리자(432)는 컨트롤러(442) 및 전원에 결합될 수 있다. 대안적으로, 일부 구현예에서, 전력 인터페이스 관리자(432)는 컨트롤러(442)에 통합될 수 있다. 전원은 다른 것들 중에서도 외부 전원을 포함할 수 있다. 전력 인터페이스 관리자(432)는 전력 변환기, 정류기, 버스, 게이트, 회로 등을 포함할 수 있다. 특히, 전력 인터페이스 관리자(432)는 시스템(400, 500)의 다양한 동작 상태에 기초하여 전원으로부터의 전력 공급을 제어, 한정, 제한할 수 있다.The
일부 실시예 또는 구현예에서, 예를 들어, ROM(440), RAM(438) 및 플래시 메모리(도시되지 않음)와 같은, 컨트롤러에 의해 사용될 수 있는 비일시적인 저장 매체에 저장된 명령어 및/또는 데이터는, 컨트롤러(428)의 하나 이상의 기능에 대한 프로그램적 액세스를 제공하는 API(application program interface)를 포함하거나 제공한다. 예를 들어, 이러한 API는, 사용자 인터페이스(436)의 하나 이상의 기능, 또는 이미징 장치 또는 장치들(422)로부터 수신된 이미징 데이터의 처리를 포함하지만 이에 한정되지 않는 시스템(400, 500)의 하나 이상의 동작 특성을 제어하기 위한 프로그램 인터페이스를 포함할 수 있다. 이러한 제어는 다른 프로그램, 다른 원격 장치 또는 시스템(도시되지 않음) 또는 일부 다른 모듈 중 하나에 의해 호출될 수 있다. 이러한 방식으로, API는 다른 장치, 플러그인 및 어댑터 등을 위한 다양하고 상이한 사용자 인터페이스 및 제어 시스템과 같은 서드 파티 소프트웨어의 개발을 용이하게 하여, 시스템(400, 500) 내의 동작 및 장치의 커스터마이징 및 상호 작용을 용이하게 할 수 있다.In some embodiments or implementations, instructions and/or data stored on a non-transitory storage medium that can be used by a controller, such as, for example,
예시적인 실시예 또는 구현예에서, 시스템(400, 500) 내의 컨트롤러(428) 및 다른 장치의 컴포넌트 또는 모듈은 표준 프로그래밍 기술을 이용하여 구현될 수 있다. 예를 들어, 본 명세서에 설명되는 다양한 실시예 또는 구현예의 기능을 수행하기 위한 로직은 하나 이상의 정적 또는 동적 라이브러리와 함께 컨트롤러, 예를 들어, 마이크로프로세서(442)에서 실행되는 "네이티브(native)" 실행 가능 명령어로서 구현될 수 있다. 다른 실시예에서, 컨트롤러(428)의 다양한 기능은 명령어가 ROM(440) 및/또는 RAM(438)에 저장된 하나 이상의 프로그램으로서 실행되는 가상 기계에 의해 처리되는 명령어로서 구현될 수 있다. 일반적으로, 당해 업계에서 알려진 다양한 프로그래밍 언어가 이러한 예시적인 실시예를 구현하기 위하여 채용될 수 있으며, 객체 지향 언어(예를 들어, Java, C++, C#, Visual Basic.NET, Smalltalk 등), 기능적 언어(예를 들어, ML, Lisp, Scheme 등), 절차적 언어(예를 들어, C, Pascal, Ada, Modula 등), 스크립트 언어(예를 들어, Perl, Ruby, Python, JavaScript, VBScript 등) 또는 서술형 언어(예를 들어, SQL, Prolog)를 포함하지만 이에 한정되지 않는 다양한 프로그래밍 언어 패러다임의 대표적인 구현예를 포함한다.In an exemplary embodiment or implementation, components or modules of
소프트웨어 또는 펌웨어 구현예에서, 메모리에 저장된 명령어는, 실행될 때, 제어 유닛(428)의 기능을 수행하도록 마이크로프로세서(422)와 같은 제어 유닛(428)의 하나 이상의 프로세서를 구성한다. 명령어는, 마이크로프로세서(422) 또는 I/O 컨트롤러/프로세서와 같은 일부 다른 프로세서가, 이미징 데이터에 기초하여 3D 모델을 구성하는 기능 및 동작을 제공하도록 하나 이상의 이미징 장치(들)(422)로부터 수신된 정보를 처리하고 그에 작용하게 한다.In software or firmware implementations, instructions stored in memory configure one or more processors of
또한, 전술된 실시예 또는 구현예는 잘 알려져 있나 다른 동기 또는 비동기 클라이언트-서버 컴퓨팅 기술을 이용할 수 있다. 그러나, 다양한 컴포넌트는, 예를 들어, 단일 마이크로프로세서에서 실행되는 실행 가능한 기술뿐만 아니라 더 많은 모놀리식(monolithic) 프로그래밍 기술을 이용하여 구현될 수 있거나, 대안적으로는, 각각 하나 이상의 중앙 처리 유닛(central processing unit(CPU)) 또는 다른 프로세서를 갖는 하나 이상의 컴퓨터 시스템에서 실행되는, 멀티 프로그래밍(multiprogramming), 멀티 스레딩(multithreading), 클라이언트-서버 또는 피어-투-피어(peer-to-peer)(예를 들어, 시스템(400, 500) 내에서 장치들 사이의 통신 채널을 제공하는 블루투스®, NFC, 또는 RFID 기술, 메쉬(mesh) 네트워크 등)을 포함하지만 이에 한정되지 않는 당해 업계에서 알려진 다양한 구조화(structuring) 기술을 이용하여 분해될 수 있다. 일부 실시예는 동시에 비동기식으로 실현될 수 있고, 메시지 패싱(passing) 기술을 이용하여 통신할 수 있다. 또한, 다른 기능이 상이한 순서로 상이한 컴포넌트/모듈에 의해 구현되고 그리고/또는 수행될 수 있지만, 제어 유닛(428)의 기능을 여전히 성취할 수 있다.Further, the embodiments or implementations described above are well known, but other synchronous or asynchronous client-server computing techniques may be used. However, the various components may be implemented using, for example, more monolithic programming techniques as well as executable technologies running on a single microprocessor, or alternatively, each one or more central processing units. (central processing unit (CPU)) or multiprogramming, multithreading, client-server or peer-to-peer ( Various structuring known in the art, including but not limited to, for example, Bluetooth®, NFC, or RFID technology that provides a communication channel between devices within the
또한, 제어 유닛(428)에 저장된 데이터 및 그에 의해 제공된 기능에 대한 프로그래밍 인터페이스는, 예를 들어, C, C++, C# 및 Java API; 파일, 데이터베이스 또는 다른 데이터 저장소에 액세스하기 위한 라이브러리; 스크립트 언어; 또는 웹 서버, FTP 서버 또는 저장된 데이터에 대한 액세스를 제공하는 다른 종류의 서버를 통하는 것과 같이, 표준 메커니즘에 의해 사용 가능하다. 제어 유닛(428) 및 전체적인 이미징 시스템에 의해 저장되고 활용되는 데이터는, 데이터베이스 시스템, 파일 시스템, 이러한 정보를 저장하는 임의의 다른 기술, 또는 분산 컴퓨팅 기술을 이용하는 구현예를 포함하는 상술한 것의 임의의 조합으로서 구현될 수 있다.Further, programming interfaces for the data stored in the
프로그램 및 데이터의 다른 구성 및 위치가 본 명세서에 설명된 기술과 함께 사용하기 위하여 고려된다. 다양한 분산 컴퓨팅 기술이 TCP/IP 소켓, RPC, RMI, HTTP 및 웹 서비스(XML-RPC, JAX-RPC, SOAP 등)을 포함하지만 이에 한정되지 않는 분산 방식으로 예시된 실시예의 컴포넌트를 구현하기에 적합하다. 다른 변형이 가능하다. 또한, 다른 기능이 각각의 컴포넌트/모듈에 의해 제공될 수 있거나, 또는 기존의 기능이 다른 방식으로 시스템(400, 500) 내의 컴포넌트/모듈 사이에 분산되지만, 제어 유닛(428) 및 이미징 시스템(400, 500)의 기능을 여전히 성취할 수 있다.Other configurations and locations of programs and data are contemplated for use with the techniques described herein. Various distributed computing technologies are suitable for implementing the components of the illustrated embodiments in a distributed manner, including but not limited to TCP/IP sockets, RPC, RMI, HTTP and web services (XML-RPC, JAX-RPC, SOAP, etc.) Do. Other variations are possible. In addition, different functions may be provided by each component/module, or existing functions may be distributed among components/modules in
또한, 일부 실시예에서, 시스템(400, 500) 내의 제어 유닛(428)의 컴포넌트와 다른 장치의 컴포넌트의 일부 또는 전부는 다른 방식으로 구현되거나 제공될 수 있으며, 예를 들어, 하나 이상의 ASIC(application-specific integrated circuit), 표준 집적 회로, 컨트롤러(예를 들어, 적합한 명령어를 실행시킴으로써, 그리고 마이크로컨트롤러 및/또는 임베디드 컨트롤러를 포함함), FPGA(field-programmable gate array, CPLD(complex programmable logic device) 등을 포함하지만 이에 한정되지 않는 펌웨어 및/또는 하드웨어에 내에 적어도 부분적으로 구현되거나 제공될 수 있다. 또한, 시스템 컴포넌트 및/또는 데이터 구조의 일부 또는 전부는, 컴퓨터 판독 가능한 매체(예를 들어, 하드 디스크; 메모리; 컴퓨터 네트워크, 휴대 전화 무선 네트워크 또는 기타 데이터 전송 매체; 또는 DVD 또는 플래시 메모리 장치와 같은 적합한 드라이브에 의해서나 적합한 연결을 통해 판독되는 휴대용 매체 물품) 및/또는 하나 이상의 연관된 컴퓨터 시스템 또는 장치가 설명된 기술의 적어도 일부를 수행하기 위하여 콘텐츠(예를 들어, 실행 가능하거나 기타 기계 판독 가능한 소프트웨어 명령어 또는 구조화된 데이터로서)를 실행하거나 아니면 사용하거나 제공할 수 있게 하도록, 컴퓨터 판독 가능한 매체 상의 콘텐츠로서 저장될 수 있다.Further, in some embodiments, some or all of the components of the
도 4 및 5를 참조하면, 제어 유닛(428)은 컨베이어 시스템(402), 지지부(418) 및 지지 링(414)에 대하여 내부 또는 외부에 위치될 수 있는 배선(430)을 통하여 복수의 이미징 장치(422)의 각각 및 지지 링(414)과 전기적으로 통신한다. 대안적으로, 제어 유닛(428)은, 도 5를 참조하여 전술된 바와 같이, 이미징 장치(422)로부터 이미징 데이터를 무선으로 수신하기 위하여 시스템(400)과 무선 통신할 수 있다. 또한, 제어 유닛(428)은 시스템에 결합되거나, 시스템 외부에 위치될 수 있다. 일 구현예에서, 제어 유닛(428)은 시스템(400)에 전력을 제공하고, 또한 이미징 장치(422)로부터 이미징 데이터를 수신한다. 제어 유닛(428)은 이미징 데이터를 처리하기 위하여, 표준 컴퓨터에서와 같이, 적어도 하나의 프로세서를 포함할 수 있거나, 대안적으로, 제어 유닛(428)은 명확성을 위하여 구체적으로 예시되지 않은 추가 외부 프로세서 또는 컴퓨터로 이미징 데이터를 전송할 수 있다.4 and 5, the
도 6은 컨베이어 시스템(402)과, 프레임(504)에 결합된 프레임 또는 링(504)과, 프레임(504)에 결합되고 그로부터 연장하는 이미징 장치(510)와, 제1 및 제2 광원(512, 414)를 포함하는 이미징 시스템(500)의 대안적이고 예시적인 구현예를 도시한다. 시스템(500)의 구현예의 소정의 특징들은 시스템(400)을 참조하여 전술된 특징들과 유사하거나 동일하고, 따라서, 이러한 특징들은 효율성을 고려하여 반복되지 않는다.6 shows a
이 구현예에서, 프레임(504)은 지지부(506, 508)를 이용하여 컨베이어 시스템(502)에 결합되고, 지지부(506)는 프레임(504)을 수용하기 위한 채널을 갖는 베이스와 프레임(504)을 둘러싸는 적어도 하나의 칼라(508)이다. 그러나, 이 구현예가 단일 이미징 장치(510)를 활용하기 때문에, 시스템(500)은, 이미징 장치(510)가 3D 재구성을 용이하게 하기 위하여 다수의 시각, 각도 또는 뷰로부터 객체(516)의 이미징 데이터를 캡처할 수 있도록, 컨베이어 시스템(502)을 중심으로 프레임(504)을 회전시키기 위한 메커니즘을 더 포함한다. 예를 들어, 베이스(506)는 채널 내에 회전하는 벨트를 포함할 수 있고, 벨트는 제어 유닛(428)(도 4 참조)일 수 있는 외부 제어 장치로부터 수신된 입력에 따라 프레임(504)을 회전시키도록 프레임(504)과 접촉한다. 그러나, 프레임(504)을 회전시키기 위한 다른 상업적으로 사용 가능한 메커니즘이 본 명세서에서 구체적으로 고려될 수 있다. 더욱이, 프레임이 자동으로 회전되는 것이 바람직하지만, 회전이 칼라(508)를 조작하는 것에 의한 수동 회전에 기초하는 것이 가능하며, 칼라(508)는 회전을 방지하는 닫힌 위치와 프레임(504)이 회전될 수 있는 열린 위치 사이에서 조정 가능하다.In this embodiment, the
따라서, 이 구현예에서, 프레임(504)은 적어도 제1 위치 및 제2 위치 사이에서 회전하고, 제1 위치에서, 이미징 장치(510)는 제1 광원(512) 또는 제2 광원(514)으로부터 각각 투과 또는 상호 작용 이미징 데이터에 대응하는 제1 이미징 데이터 세트를 캡처한다. 그 다음, 프레임(504)은 제2 위치로 회전하고, 제2 이미징 데이터를 위한 캡처 과정을 반복한다. 이 과정은, 특정 에플리케이션에 대하여 필요한 만큼(즉, 객체(516)에 대하여 상이한 위치에 기초하는 제3 뷰, 제4 뷰, 제5 뷰, 제6 뷰 또는 이보다 많은 뷰) 많은 배향으로부터 많은 뷰를 생성하기 위하여 반복될 수 있다. 더욱이, 프레임(504)이 자동으로 회전되는 구현예에서, 프레임(504)의 회전은 시스템(500)의 캘리브레이션 동안 설정된 위치에 따라 효율적으로 수행될 수 있지만, 더 적은 이미징 장치(510)의 사용으로 인하여 시스템(500)의 비용을 감소시킨다.Thus, in this embodiment, the
도 7은 시스템(400, 500)과 실질적으로 유사하거나 동일할 수 있는 시스템(600)의 예시적인 도면을 도시하고, 시스템(600)은 외부 하우징 또는 커버(604)를 포함하고, 외부 하우징(604)의 벽(612)은 고형체(solid)이고 불투명하다. 하우징(604)의 입구 부분 또는 개구부(610)는 광이 하우징(604)에 들어갈 수 없도록 각각의 입구 부분(610)의 적어도 80%에 걸쳐 연장하는 불투명 재료의 스트립을 포함하는 커버(608)를 포함한다. 또한, 구체적으로 예시되지는 않지만, 지지 링 또는 프레임(414, 504)이 하우징(604)에 연결되고 그에 의해 지지될 수 있고, 제어 유닛(606)이 하우징(604)의 외벽(612)에 결합될 수 있으며, 제어 유닛(606)은, 다양한 구현예에서, 시스템(600)에 전력을 제공하거나, 회전하는 프레임(504)의 위치에 대응하는 좌표를 제공하거나, 회전하는 프레임(504)의 회전을 제어하거나, 시스템(600)으로부터 수신된 이미징 데이터에 기초하여 3D 모델을 생성하기 위한 프로세서를 포함한다.FIG. 7 shows an exemplary view of a
도 8은 1차원(1D) 이미징 데이터 및 2차원(2D) 실루엣으로부터 3D 모델(702)을 생성하기 위하여 기계 학습 시스템 또는 딥 컨벌루션 신경망에 의해 활용되는 재구성 방법 또는 시스템(700)에 대한 개략도이다.8 is a schematic diagram of a reconstruction method or
일반적으로, 기계 학습 및 컨벌루션 신경망(convolutional neural network(CNN))은 일반적으로 일련의 연산층(operational layer)으로서 구현될 수 있다. 하나 이상의 컨벌루션층 다음에 하나 이상의 풀링층(pooling layer)이 이어질 수 있고, 선택적으로 하나 이상의 풀링층 다음에 하나 이상의 정규화층이 이어질 수 있다. 컨벌루션층은 단일의 알려지지 않은 이미지로부터, 다르게는 필터링된 이미지라 불리는, 복수의 커널 맵을 생성한다. 복수의 필터링된 이미지에서의 대량의 데이터는 하나 이상의 풀링층을 이용하여 감소되고, 데이터의 양은 데이터를 정규화하는 하나 이상의 ReLU(rectified linear unit layer)에 의해 더 감소된다. 바람직하게는, 본 개시 내용의 구현예는 시맨틱 세그멘테이션(semantic segmentation)에 의존하며, CNN을 훈련시키기 위한 파라미터는 애플리케이션에 종속적이고, 검사될 식품에 의존하는 이미지 데이터의 복잡성에 따라 조정될 필요가 있다.In general, machine learning and convolutional neural networks (CNNs) can generally be implemented as a series of operational layers. One or more convolutional layers may be followed by one or more pooling layers, and optionally one or more pooling layers may be followed by one or more normalization layers. The convolutional layer creates a plurality of kernel maps, otherwise called filtered images, from a single unknown image. A large amount of data in the plurality of filtered images is reduced using one or more pooling layers, and the amount of data is further reduced by one or more rectified linear unit layers (ReLUs) that normalize the data. Preferably, implementations of the present disclosure rely on semantic segmentation, and the parameters for training CNNs are application dependent and need to be adjusted according to the complexity of the image data depending on the food to be inspected.
다른 말로 하면, 커널은 알려진 이미지로부터 선택된다. 알려진 이미지의 모든 커널이 신경망에 사용될 필요는 없다. 대신, "중요한" 특징인 것으로 판단되는 커널이 선택될 수 있다. 컨벌루션 프로세스가 커널 맵(즉, 특징 이미지)을 생성한 후에, 커널 맵은 풀링층을 및 정규화층(즉, ReLU)을 통해 통과된다. 출력 맵에서의 모든 값이 평균되고(즉, 더하고 나눔), 평균 계산으로부터의 출력 값이 알려지지 않은 이미지가 알려진 이미지에서 발견되는 특정 특징을 포함하는지 여부에 대한 예측으로서 사용된다.In other words, the kernel is chosen from known images. Not all kernels of known images need to be used for neural networks. Instead, a kernel that is judged to be an "important" feature may be selected. After the convolution process generates a kernel map (ie, feature image), the kernel map is passed through a pooling layer and a normalization layer (ie, ReLU). All values in the output map are averaged (i.e., added and divided), and the output value from the averaging calculation is used as a prediction as to whether an unknown image contains a specific feature found in a known image.
예시적인 경우에, 출력 값은 알려지지 않은 이미지가, 일 구현예에서, 참치 살코기의 흰 살(즉, 제1 부분)에 의해 둘러싸이는 어두운 살(즉, 제2 부분)과 같은 객체의 제1 부분 내부에 위치되는 객체의 제2 부분인, 중요한 특징을 포함하는지 여부를 예측하는데 사용된다. 그 후, 이 출력을 이용하여, CNN은 이미지로부터 관심 대상인 식별된 영역에 대응하는 실루엣을 생성할 수 있다.In an exemplary case, the output value is that the unknown image is the first portion of the object, such as dark flesh (i.e., the second portion) surrounded by the white flesh (i.e., the first portion) of a tuna lean, in one embodiment. It is used to predict whether it contains an important feature, which is the second part of the object that is located inside. Then, using this output, the CNN can generate a silhouette corresponding to the identified region of interest from the image.
도시된 시스템(700)에서, 기계 학습 프로그램 또는 딥 컨벌루션 신경망은, 입력으로서, 시스템(400, 500)으로부터 캡처된 다수의 뷰로부터 이미지 데이터(704)를 수신할 것이며, 각각의 이미지 데이터 세트는 제2 부분(708)을 둘러싸는 제1 부분(706)을 갖는 참치 살코기의 사진에 대응한다. 카메라 또는 분광기가 1D 데이터를 획득하기 위하여 라인 스캔을 사용할 수 있지만, 1D 데이터는, 본 명세서에 설명되는 바와 같이, 실루엣을 복구하기 위하여 CNN에서 사용되기 전에, 2D 이미지 데이터로 조합된다.In the illustrated
스캐닝된 객체가 참치 살코기인 구현예에서, 제1 부분(706)은 제1 특성 세트를 갖는 살의 제1의 외부층에 대응하고, 제2 부분(708)은 상이한 제2 특성 세트를 갖는 살의 제2의 내부층에 대응하고, 제2 부분(708)은 제1 부분(706) 내에 위치된다. 도 7에 도시된 바와 같이, 각각의 이미지 데이터 세트(704)는 이미징 데이터, 바람직하게는, 더 밝은 픽셀이 제1 부분(706)에 할당되고, 더 어두운 부분이 제2 부분(708)에 할당되는 강도 값을 나타낼 수 있는 투과 이미징 데이터에 대응한다. 따라서, 2D 이미지의 단일 라인이라는 의미에서, 또는 다른 말로 하면, CNN에 의해 분석되는 각각의 픽셀 또는 커널이 강도 값에 대응한다는 의미에서, 이미지 데이터(704)는 1D이다.In embodiments where the scanned object is a tuna lean meat, the
가장 높은 수준의 기계 학습 프로그램 또는 딥 컨벌루션 신경망에서, CNN은 제2 부분(708)(즉, 참치 살코기에서의 어두운 살)의 일반적인 모습을 식별하기 위하여 수천 개의 대표적인 샘플 이미지의 풀(pool)에 기초하여 훈련된다; 예를 들어, 제2 부분(708)은 참치 살코기의 수천 개의 이미지를 포함할 수 있는 기준 이미지의 대형 풀에 기초하여 살코기의 중심을 통해 이의 주축에 평행하게 지나간다. 다른 수준에서, CNN은 대표적인 샘플 이미지에 기초하여 에지, 라인 및 곡선에 대한 정보를 획득할 것이며, CNN의 정확도는 더 많은 이미지가 스캐닝됨에 따라 개선될 것이다. 따라서, 강도 값에서의 차이에 기초하여, CNN은 제2 부분(708)에 대응하는 사진의 부분을 식별할 것이다. 이러한 부분이 식별되면, CNN은 복수의 실루엣(710)을 만들어 낼 것이며, 각각의 실루엣은 2D로 표현된 각각의 뷰에서 식별된 제2 부분(708)에 대응한다.In the highest level machine learning programs or deep convolutional neural networks, the CNN is based on a pool of thousands of representative sample images to identify the general appearance of the second part 708 (i.e. dark flesh in tuna lean meat). To be trained; For example, the
예를 들어, CNN은 많은 층으로 구성되며, 입력 및 출력 사이의 층은 "은닉층(hidden layer)"라 한다. 각각의 층은 층 사이에 완전하게 연결된 다수의 뉴런을 가진다. 이 연결은 기준 이미지에 기초하여 학습되는 가중치에 대응한다. 뉴런 또는 노드는 입력 값을 취하고, 이를 연관된 가중치와 곱하고, 이를 활성화 함수(예를 들어, 본 명세서에 설명된 바와 같은 ReLU)를 통해 지나가게 하여, 출력 값을 전달하는 계산 유닛이다. 이 출력은 다른 연결부를 통해 연결된 다음 뉴런의 입력을 형성한다. 또한, CNN은 뉴런과 유사하게 사용되지만 다른 기능을 갖는 컨벌루션, 풀링, 정규화 및 드롭아웃(dropout)과 같은 다른 층을 포함할 수 있다.For example, a CNN is made up of many layers, and the layer between the input and the output is called a "hidden layer." Each layer has a number of neurons fully connected between the layers. This connection corresponds to the weights that are learned based on the reference image. A neuron or node is a computational unit that takes an input value, multiplies it with an associated weight, and passes it through an activation function (e.g., ReLU as described herein), passing the output value. This output is connected through another connection and then forms the input of the neuron. In addition, CNNs are used similarly to neurons, but may include other layers such as convolution, pooling, normalization and dropout, which have different functions.
네트워크가 훈련되기 전에, 노드 사이의 연결부 또는 가중치는 임의로 할당된다. 네트워크를 훈련시킬 때, 라벨링되거나 주석이 달린 데이터가 사용된다. 예를 들어, 입력 데이터(예를 들어, 이미지 데이터)는 예측되는 출력 데이터(예를 들어, 실루엣)과 상관된다. 제1 층에서 입력 노드를 통해 입력 데이터(예를 들어, 이미지 데이터)를 제공하고, 출력층의 예측된 값(예를 들어, 라벨링된 실루엣)을 아는 것으로, 여러 반복을 통해 연결부의 가중치를 조정하는 것이 가능하여, 어떤 입력 데이터라도, CNN은 예측된 출력을 리턴한다. 이것은 기본적으로 많은 개수의 파라미터를 이용한 최적화 프로세스이다. 하나의 가중치가 변경될 때마다, 이는 전체 네트워크에 영향을 미칠 것이며, 따라서, CNN을 훈련시키는 것은, 수십, 수백 또는 수천 번의 반복을 포함할 수 있다.Before the network is trained, the weights or connections between the nodes are randomly assigned. When training the network, labeled or annotated data is used. For example, input data (eg, image data) is correlated with predicted output data (eg, silhouette). By providing input data (e.g., image data) through an input node in the first layer and knowing the predicted value (e.g., labeled silhouette) of the output layer, adjusting the weight of the connection through several iterations. It is possible, so for any input data, the CNN returns the predicted output. This is basically an optimization process using a large number of parameters. Whenever one weight is changed, it will affect the entire network, so training a CNN may involve tens, hundreds or thousands of iterations.
CNN의 컨벌루션층은 보여지거나 평가될 수 있는 영역을 결정하는 이미지의 크기를 감소시킨다. 예를 들어, 9×9 픽셀의 작은 윈도우가 분석되는 전체 이미지 위로 이동된다. 그 윈도우에서, 관찰자는 전체 객체의 작은 부분(예를 들어, 라인 및 코너)을 볼 것이다. 이미지의 크기가 감소되지만 윈도우 크기는 동일하게 유지되기 때문에, 더 많은 객체 특징이 인식된다. 이미지가 매우 작고 윈도우 내에 거의 맞는다면, 관찰자는 단일 단계에서 어두운 살뿐만 아니라 전체 살코기를 볼 것이다.The convolutional layer of the CNN reduces the size of the image, which determines the area that can be viewed or evaluated. For example, a small window of 9×9 pixels is moved over the entire image being analyzed. In that window, the observer will see a small portion of the entire object (eg, lines and corners). Since the size of the image is reduced but the window size remains the same, more object features are recognized. If the image is very small and fits almost within the window, the observer will see the whole lean meat as well as dark flesh in a single step.
이것은 신경망이 참조하는 것의 예이다. 네트워크의 초기 층에서, 예를 들어, 참치 생선 살코기에서 어두운 살을 식별하는데 있어서 관련되는 라인 및 코너를 검출하는 것을 허용하는 가중치가 학습될 것이다. 전체 어두운 살이 객체로서 인식되고 기준으로서 이의 주변과 관련될 때까지(예를 들어, 어두운 살은 흰 살의 경계들 사이에 있고, 주축을 따라 지나간다), 나중의 층에서 이 라인은 곡선을 형성할 것이다. 이러한 특징은 동시에 학습되지만 모두 관련된다. 라인과 코너 없이는, 어두운 살의 경계는 어두운 살에 전체적인 모습에 기초하여 위치를 찾기는 어렵다. 유사하게, 어두운 살에 대응하는 많은 라인과 코너가 있지만, 어두운 살의 전체 모습이 알려져 있지 않다면, 어느 라인과 코너가 관련되는지 구별하기 어렵다. 그러나, 이러한 높은 수준과 낮은 수준의 특징 모두를 알고 있는 것은 이미지 데이터에서 어두운 살의 검출을 가능하게 한다.This is an example of what the neural network refers to. In the initial layer of the network, weights will be learned that allow to detect the lines and corners involved in identifying dark flesh, for example in tuna fish lean. Until the entire dark flesh is recognized as an object and is related to its periphery as a reference (e.g., the dark flesh is between the boundaries of white flesh and passes along the main axis), in later layers this line will form a curve . These features are learned at the same time, but all are related. Without lines and corners, the boundaries of dark flesh are difficult to locate based on the overall appearance of dark flesh. Similarly, there are many lines and corners corresponding to dark flesh, but if the overall appearance of the dark flesh is not known, it is difficult to distinguish which lines and corners are involved. However, knowing both of these high and low level features makes it possible to detect dark flesh in image data.
그 다음, 계산 시스템은 알고리즘을 이용함으로써 각각의 실루엣(710)을 복수의 투영(712)으로 역투영하고, 일 구현예에서, 도 7에 도시된 바와 같이, 알고리즘은 각각의 실루엣(710)의 외부 경계에 대응하는 라인을 더 높은 차원의 장면으로 연장한다. 각각의 실루엣(710)을 역투영하고 투영(712) 사이의 교차 부분을 분석함으로써, 제2 부분(708)의 3D 모델(702)이 결정될 수 있다. 일 구현예에서, 역투영은 원추 형상의 시야에 기초한다. 이미징 모드(300)와 같은 상호 작용 이미징 모드에 대응하는 이미징 데이터는 관심 객체의 깊이에 기초하여 모델을 개선하는데 활용될 수 있다. 예를 들어, 관심 객체의 특성이 그에 대응하는 정보 데이터베이스에 기초하여 알려져 있다면, 상호 작용 이미징 모드에서 캡처될 산란하는 광의 양은, 일 구현예에서는 참치 살코기의 어두운 살인 관심 객체의 깊이에 따라 달라질 것이다. 더욱이, 상호 작용 이미징 데이터는 캡처된 광이 위에서와 같이 객체의 깊이에 따라 달라질 것이기 때문에 스캐닝된 객체의 표면에서 오목 영역(concavity)을 보정하는데 도움을 준다. 따라서, 객체가 오목 영역을 가지고 있으면, 상호 작용 이미징 데이터는 재료가 더 두꺼운 오목 영역을 갖지 않은 객체의 부분에 반대로 재료가 더 얇은 오목 영역을 갖는 객체의 부분에 대하여 달라질 것이다(즉, 더 낮은 값의 캡처된 강도는 더 적은 광이 산란되어 캡처되기 때문에 더 얇은 재료에 대응하고, 더 높은 값의 캡처된 강도는 더 두꺼운 재료를 관통 또는 투과할 수 없을 때 더 많은 광이 산란되어 캡처되기 때문에 더 두꺼운 재료에 대응한다).The computational system then backprojects each
도 9는 이미징 시스템(예를 들어, 이미징 시스템(400, 500))에 의해 캡처된 이미지 데이터에 기초하여 관심 객체의 3D 모델을 생성하는 예시적인 방법(800)을 나타내는 순서도이다. 방법(800)은 802에서 시작하고, 804에서 컨베이어가 활성화되고, 스캐닝되는 객체는 컨베이어 상으로 적재된다. 컨베이어의 활성화는 외부 스위치를 통해 또는 제어 유닛이나 프로그램을 통해 발생할 수 있다. 유사하게, 806에서, 200을 참조하여 설명된 투과 이미징 모드(200)와 실질적으로 유사할 수 있는 광 투과 시스템이 외부 스위치를 통해 수동으로 또는 제어 유닛이나 프로세서를 통해 활성화된다. 808에서, 광 투과 시스템의 일부인 이미징 장치가 자체에서 또는 투과 시스템과 전자적으로 통신하는 제어 유닛과 연관된 프로그램을 통해, 컨베이어 상의 객체를 통과한 광에 대응하는 투과 이미지 데이터가 이미징 장치에 의해 수신되는지 판단하고, 일 구현예에서, 이미징 장치는 분광기, 카메라 또는 센서이다.9 is a flow chart illustrating an
이미지 데이터가 수신되지 않으면, 프로세스는 806으로 돌아가고, 이미지 데이터가 수신될 때까지 반복된다. 투과 이미지 데이터가 수신되면, 이는 프로세서로 전송되고, 방법(800)은 투과 모드가 비활성화되고 상호 작용 이미징 모드가 활성화되는 810으로 진행한다. 상호 작용 이미징 모드는 도 3을 참조하여 설명된 상호 작용 모드(300)와 실질적으로 유사하다. 다시, 812에서, 이미징 장치 또는 분광기가 상호 작용 이미징 데이터를 수신하는지 판단된다. 수신하지 않는다면, 이미징 장치가 상호 작용 이미징 데이터를 수신할 때까지 810으로 돌아가는 것으로 프로세스가 반복된다. 상호 작용 이미징 데이터가 검출되면, 814에서, 상호 작용 이미징 데이터가 프로세서에 전송된다. 다수의 이미징 장치가 있는 구현예에서, 상술한 프로세스는 각각의 고유 이미징 장치에 대하여 반복되어 복수의 뷰를 생성할 수 있다. 대안적으로, 이미징 장치가 회전하는 구현예에서, 이 프로세스는 복수의 뷰 또는 복수의 투과 이미징 데이터 및 복수의 상호 작용 이미징 데이터를 생성하기 위하여 이미징 장치가 고유 위치에 위치될 때마다 반복된다.If image data is not received, the process returns to 806 and repeats until image data is received. When transmission image data is received, it is transmitted to the processor, and the
프로세서는 기계 학습 프로그램 또는 CNN을 포함하고, 816에서, CNN은 각각의 뷰에 대응하는 투과 이미지 데이터를 입력으로서 수신한다. 그 다음, 818에서, CNN은 각각의 투과 이미지 세트에서, 일 실시예에서 식품 조각 내에 위치된 객체 또는 생선의 제1 부분 내에 위치된 생성의 제2 부분인, 관심 특징에 대응하는 복수의 실루엣을 생성한다. 818에서, 실루엣의 각각은 복수의 투영으로 역투영되고, 교차 부분에 기초하여 3D 구조를 결정하기 위하여 각각의 투영의 공통 교차 부분이 분석된다. 그 다음, 822에서, 프로세스는 이 3D 구조를 출력하고, 수동으로 또는 추가 프로세서 단계를 통해, 관심 객체가 스캐닝된 객체의 표면 근처에 있는지 판단된다. 근처에 있지 않다면, 투과 이미징 데이터에 기초하여 3D 구조가 출력되며, 828에서 방법(800)은 종료된다.The processor includes a machine learning program or CNN, and at 816, the CNN receives as input transmitted image data corresponding to each view. Then, at 818, the CNN creates, in each set of transmission images, a plurality of silhouettes corresponding to the feature of interest, which in one embodiment is an object positioned within a piece of food or a second portion of the creation positioned within a first portion of a fish. Generate. At 818, each of the silhouettes is backprojected into a plurality of projections, and a common intersection portion of each projection is analyzed to determine a 3D structure based on the intersection portion. Then, at 822, the process outputs this 3D structure and, either manually or through an additional processor step, is determined whether the object of interest is near the surface of the scanned object. If not nearby, a 3D structure is output based on the transmission imaging data, and at 828 the
관심 객체가 표면 근처에 있다면, 프로세스는 824로 계속되고, CNN은 투과 이미징 데이터에 기초하여 3D 구조를 보정하거나 명확하게 하기 위하여 상호 작용 이미징 데이터를 이용한다. 824에서 3D 구조가 보정되면, 826에서 프로세서 또는 CNN은 보정된 3D 구조를 출력하고, 828에서 프로세스는 종료된다.If the object of interest is near the surface, the process continues to 824, and the CNN uses the interactive imaging data to correct or clarify the 3D structure based on the transmission imaging data. If the 3D structure is corrected at 824, the processor or CNN outputs the corrected 3D structure at 826, and the process ends at 828.
도 10은 이미징 시스템에 의해 캡처된 이미지 데이터에 기초하여 관심 객체의 3D 모델을 생성하기 위한 방법(900)의 대안적이고 예시적인 구현예이다. 방법(900)은 902에서 시작하고, 컨베이어 및 광 투과 시스템(904)이 활성화된다. 906에서, 이미징 장치 또는 분광기는 투과 이미징 데이터에 대응하는 이미징 데이터가 이미징 장치에 의해 수신되거나 캡처되는지 판단한다. 수신되거나 캡처되지 않는다면, 데이터가 수신될 때까지 프로세서는 904로 돌아간다. 수신되거나 캡처된다면, 방법(900)은 908로 계속되고, 908에서, 투과 이미징 데이터가 프로세서에 전송된다. 그 다음, 910에서, 프로세서는, 컨벌루션 신경망을 통해, 1D 투과 이미지 데이터로부터 복수의 2D 실루엣을 결정한다. 912에서, 각각의 실루엣이 역투영되고 교차 부분이 분석된다. 그 다음, 914에서, 프로세서는 각각의 투영 사이의 공통 교차 부분에 기초하여 3D 구조를 출력한다.10 is an alternative and exemplary implementation of a
그 다음, 916에서, 프로세서 또는 CNN을 이용하여, 관심 객체가 스캐닝된 객체의 표면 근처에 있는지 판단된다. 근처에 있지 않다면, 926에서 방법(900)은 종료하고, 3D 모델은 투과 이미징 데이터에 기초한다. 근처에 있다면, 단계 918에서, 방법(900)은 계속하여 상호 작용 이미징 시스템을 활성화하고, 920에서, 이미징 장치는 상호 작용 이미징 데이터에 대응하는 이미징 데이터가 이미징 장치 또는 분광기에 의해 수신되는지 판단한다. 수신되지 않는다면, 방법(900)은 이러한 데이터가 수신되거나 캡처될 때까지 918로 돌아간다. 수신된다면, 방법(900)은 922으로 진행하고, 상호 작용 이미징 데이터가 프로세서에 전송되고, 필요하다면, 상호 작용 이미징 데이터에 기초하여 3D이 보정된다. 마지막으로, 924에서 보정된 3D 모델이 출력되고, 926에서 방법(900)은 종료된다.Then, at 916, a processor or CNN is used to determine whether the object of interest is near the surface of the scanned object. If not, at 926 the
3차원 정보의 획득을 통해, 본 개시 내용은 특정 식품 재료가 불량 처리될 필요가 있는지 여부에 관한 품질 관리 검사에 영향을 미칠 수 있는, 내부 불량의 부피 및 형상을 더 정밀하게 판단할 수 있게 한다. 또한, 객체의 3차원 구조를 아는 것으로, 2차 제품의 처리 및 제거가 더욱 정확하게 수행될 수 있고, 따라서 1차 제품의 손실을 최소화할 수 있다.Through the acquisition of three-dimensional information, the present disclosure makes it possible to more accurately determine the volume and shape of internal defects, which may affect the quality control inspection as to whether or not a particular food material needs to be defective. . In addition, by knowing the three-dimensional structure of the object, processing and removal of the secondary product can be performed more accurately, and thus the loss of the primary product can be minimized.
예시된 구현예에 대한 상술한 설명은, 요약서에 설명되는 것을 포함하여, 구현예들을 개시된 정확한 형태로 제한하거나 소진적인 것으로 되도록 의도되지 않는다. 예들에 대한 특정 구현예가 본 명세서에서 예시적인 목적으로 사용되지만, 관련 업계에서의 통상의 기술자에 의해 인식되는 바와 같이, 다양한 균등한 수정이 본 개시 내용의 사상 및 범위를 벗어나지 않으면서 이루어질 수 있다. 다양한 구현예에 대하여 본 명세서에 개시된 교시 내용은 반드시 전술된 예시적인 이미징 시스템 및 방법이 아닌 식품 처리의 상황 외에도 적용될 수 있다.The foregoing description of the illustrated embodiments, including those described in the Abstract, is not intended to be exhaustive or to limit the implementations to the precise form disclosed. Although specific implementations of the examples are used for illustrative purposes herein, various equivalent modifications may be made without departing from the spirit and scope of the present disclosure, as recognized by those skilled in the relevant art. The teachings disclosed herein for various embodiments may apply beyond the context of food processing, not necessarily the exemplary imaging systems and methods described above.
예를 들어, 전술한 상세한 설명은 블록도, 개략도 및 예를 통하여 장치 및/또는 프로세스의 다양한 구현예를 설명하였다. 이러한 블록도, 개략도 및 예가 하나 이상의 기능 및/또는 동작을 포함하는 한, 이러한 블록도, 순서도 또는 예 내의 각각의 기능 및/또는 동작이 광범위한 하드웨어, 소프트웨어, 펌웨어 또는 이들의 사살상의 임의의 조합에 의해 개별적으로 그리고/또는 집합적으로 구현될 수 있다는 것이 당해 업계에서의 통상의 기술자에 의해 이해될 것이다. 일 구현예에서, 본 내용은 주문형 집적 회로(ASIC)를 통해 구현될 수 있다. 그러나, 당해 업계에서의 통상의 기술자는 본 명세서에 개시된 구현예가 전체적으로 또는 부분적으로 하나 이상의 컴퓨터에 의해 실행되는 하나 이상의 컴퓨터 프로그램으로서(예를 들어, 하나 이상의 컴퓨터 시스템에서 실행되는 하나 이상의 프로그램으로서), 하나 이상의 컨트롤러(예를 들어, 마이크로컨트롤러))에 의해 실행되는 하나 이상의 프로그램으로서, 하나 이상의 프로세서(예를 들어, 마이크로프로세서))에 의해 실행되는 하나 이상의 프로그램으로서, 펌웨어로서, 또는 이들의 사살상의 임의의 조합으로서 표준 집적 회로에서 동등하게 구현될 수 있으며, 회로를 설계하고 그리고/또는 소프트웨어 및/또는 펌웨어를 위한 코드를 작성하는 것이 본 개시 내용의 교시에 비추어 당해 업계에서의 통상의 기술자의 기술 내에 있을 것이라는 점을 인식할 것이다.For example, the foregoing detailed description has described various implementations of devices and/or processes through block diagrams, schematic diagrams, and examples. As long as such block diagrams, schematics and examples contain one or more functions and/or operations, each function and/or operation within such block diagrams, flow charts or examples may be applicable to a wide range of hardware, software, firmware, or any combination thereof. It will be understood by one of ordinary skill in the art that it may be implemented individually and/or collectively by. In one implementation, the present disclosure may be implemented through an application specific integrated circuit (ASIC). However, one of ordinary skill in the art would understand that the implementations disclosed herein are, in whole or in part, as one or more computer programs executed by one or more computers (e.g., as one or more programs executed on one or more computer systems), One or more programs executed by one or more controllers (e.g., microcontrollers), as one or more programs executed by one or more processors (e.g., microprocessors), as firmware, or Any combination may be implemented equally in a standard integrated circuit, and designing the circuit and/or writing code for software and/or firmware is the skill of a person skilled in the art in light of the teachings of this disclosure. You will recognize that you will be within.
로직이 소프트웨어로서 구현되고 메모리에 저장될 때, 로직 또는 정보는 임의의 프로세서 관련 시스템 또는 방법에 의한 사용 또는 이와 관련한 사용을 위하여 컴퓨터 판독 가능한 매체에 저장될 수 있다. 본 개시 내용과 연계하여, 메모리는 컴퓨터 및/또는 프로세서 프로그램을 포함하거나 저장하는 전자적, 자기적, 광학적 또는 기타 물리적 장치 또는 수단인 컴퓨터 판독 가능한 매체이다. 로직 및/또는 정보는 컴퓨터 기반 시스템과 같은 명령어 실행 시스템, 장치 또는 디바이스나, 프로세서 포함 시스템이나, 명령어 실행 시스템, 장치 또는 디바이스로부터 명령어를 페치하여 로직 및/또는 정보와 연관된 명령어를 실행할 수 있는 기타 시스템에 의한 사용 또는 이와 관련한 사용을 위하여 임의의 컴퓨터 판독 가능 매체에 구현될 수 있다.When logic is implemented as software and stored in memory, the logic or information may be stored on a computer-readable medium for use by or in connection with any processor-related system or method. In connection with the present disclosure, a memory is a computer-readable medium that is an electronic, magnetic, optical or other physical device or means containing or storing a computer and/or processor program. Logic and/or information is an instruction execution system, apparatus, or device, such as a computer-based system, or a system containing a processor, or any other capable of fetching instructions from an instruction execution system, apparatus, or device to execute instructions associated with the logic and/or information. It may be embodied in any computer-readable medium for use by or in connection with the system.
본 명세서와 연계하여, "컴퓨터 판독 가능한 매체"는 명령어 실행 시스템, 장치 및/또는 디바이스에 의한 사용 또는 이와 관련한 사용을 위하여 로직 및/또는 정보와 연관된 프로그램을 저장할 수 있는 임의의 요소일 수 있다. 컴퓨터 판독 가능한 매체는, 예를 들어, 전자적, 자기적, 광학적, 전자기적, 적외선 또는 반도체 시스템, 장치 또는 디바이스일 수 있지만, 이에 한정되지 않는다. 컴퓨터 판독 가능한 매체의 더욱 구체적인 예(비소진적인 리스트)는 다음을 포함할 수 있다: 휴대 가능한 컴퓨터 디스켓(자기, CFC(compact flash card), SD(secure digital) 등), RAM(random access memory), ROM(read-only memory), 삭제 가능한 프로그래머블 리드 온리 메모리(EPROM, EEPROM 또는 플래시 메모리), 휴대 가능한 CDROM(compact disc read-only memory), 디지털 테이프 및 기타 비일시적인 매체.In connection with this specification, a “computer-readable medium” may be any element capable of storing a program associated with logic and/or information for use by or in connection with an instruction execution system, apparatus, and/or device. The computer-readable medium may be, for example, an electronic, magnetic, optical, electromagnetic, infrared or semiconductor system, apparatus or device, but is not limited thereto. More specific examples (non-exhaustive list) of computer-readable media may include: portable computer diskettes (magnetic, compact flash card (CFC), secure digital (SD), etc.), random access memory (RAM), Read-only memory (ROM), removable programmable read-only memory (EPROM, EEPROM, or flash memory), portable compact disc read-only memory (CDROM), digital tape, and other non-transitory media.
본 명세서에 설명된 많은 방법은 변형으로 수행될 수 있다. 예를 들어, 많은 방법은 추가 동작을 포함할 수 있고, 일부 동작을 생략할 수 있고 그리고/또는 예시되거나 설명된 것과는 다른 순서로 동작을 수행할 수 있다.Many of the methods described herein can be performed in variations. For example, many methods may include additional operations, some operations may be omitted, and/or may perform operations in a different order than illustrated or described.
전술된 다양한 구현예는 다른 구현예를 제공하기 위하여 조합될 수 있다. 본 명세서의 특정 교시 및 정의와 모순되지 않는 한, 본 명세서에서 참조되고 그리고/또는 ADS(Application Data Sheet)에 열거된 미국 특허, 미국 특허 출원 공보, 미국 특허 출원, 외국 특허, 외국 특허 출원 및 비특허 간행물은 그 전체가 참조로서 본 명세서에 포함된다. 구현예들의 양태들은, 또 다른 구현예를 제공하기 위하여 다양한 특허, 출원 및 간행물의 개념을 채용하는데 필요하다면, 수정될 수 있다.The various implementations described above can be combined to provide other implementations. Unless contradicted by the specific teachings and definitions herein, U.S. patents, U.S. patent application publications, U.S. patent applications, foreign patents, foreign patent applications and non- Patent publications are incorporated herein by reference in their entirety. Aspects of the implementations may be modified as necessary to employ the concepts of various patents, applications, and publications to provide yet another implementation.
이러한 수정 및 다른 수정이 전술한 상세한 설명에 비추어 구현예에 이루어질 수 있다. 일반적으로, 이어지는 청구항에서, 사용된 용어는 본 명세서 및 청구항에 개시된 특정 구현예로 청구항을 한정하는 것으로 해석되어서는 안 되고, 이러한 청구항의 권리를 갖는 균등물의 전체 범위와 함께 모든 가능한 구현예를 포함하는 것으로 해석되어야 한다. 따라서, 청구항은 본 개시 내용에 의해 제한되지 않는다.These and other modifications may be made to the implementation in light of the foregoing detailed description. In general, in the claims that follow, the terms used should not be construed as limiting the claims to the specification and the specific embodiments disclosed in the claims, including all possible embodiments, along with the full scope of equivalents entitled to such claims. It should be interpreted as doing. Accordingly, the claims are not limited by the present disclosure.
Claims (17)
상기 제1 컨베이어로부터 갭(gap)에 의해 분리된 제2 컨베이어;
상기 갭 내에 위치되고 상기 제1 컨베이어 및 상기 제2 컨베이어 중 적어도 하나에 결합되는 투명 플레이트;
상기 갭 내에 적어도 부분적으로 위치되고, 상기 제1 컨베이어 및 상기 제2 컨베이어 중 적어도 하나에 결합되는 지지 링;
상기 지지 링에 결합되는 적어도 하나의 이미징 장치;
상기 지지 링에 결합되는 제1 광원; 및
상기 지지 링과 상기 적어도 하나의 이미징 장치와 전자적으로 통신하는 제어 유닛
을 포함하고,
작동 동안, 상기 제1 광원은 상기 투명 플레이트 상의 객체를 향하여 지향되는 광을 방출하고, 상기 제어 유닛은 상기 적어도 하나의 이미징 장치로부터 이미징 데이터를 수신하고, 상기 제어 유닛은 상기 객체의 제1 부분 내에 포함된 상기 객체의 제2 부분의 3D 모델을 구성하는, 시스템.A first conveyor;
A second conveyor separated from the first conveyor by a gap;
A transparent plate positioned within the gap and coupled to at least one of the first conveyor and the second conveyor;
A support ring located at least partially within the gap and coupled to at least one of the first conveyor and the second conveyor;
At least one imaging device coupled to the support ring;
A first light source coupled to the support ring; And
A control unit in electronic communication with the support ring and the at least one imaging device
Including,
During operation, the first light source emits light directed towards an object on the transparent plate, and the control unit receives imaging data from the at least one imaging device, and the control unit is within a first portion of the object. A system for constructing a 3D model of the second portion of the contained object.
상기 적어도 하나의 이미징 장치는 이미징 데이터를 상기 제어 유닛에 전송하고, 상기 이미징 데이터는 상호 작용(interactance) 이미징 데이터 및 투과(transmittance) 이미징 데이터를 포함하는, 시스템.The method of claim 1,
Wherein the at least one imaging device transmits imaging data to the control unit, the imaging data comprising interaction imaging data and transmittance imaging data.
상기 객체는 참치 살코기이고, 상기 제1 광원은 대략 1260 나노미터, 대략 805 나노미터 또는 대략 770 나노미터 중 하나인 파장의 광을 방출하는, 시스템.The method of claim 1,
Wherein the object is a tuna lean meat, and the first light source emits light at a wavelength of one of approximately 1260 nanometers, approximately 805 nanometers or approximately 770 nanometers.
상기 프로세서는 상기 이미징 데이터를 처리하기 위하여 컨벌루션 신경망(convolutional neural network)의 형태로 기계 학습을 사용하는, 시스템.The method of claim 1,
The system, wherein the processor uses machine learning in the form of a convolutional neural network to process the imaging data.
상기 컨벌루션 신경망은 상기 이미지 데이터를 수신하고, 상기 객체의 상기 제2 부분에 대응하는 상기 이미지 데이터에 기초하여 복수의 실루엣을 출력하고, 상기 프로세서는 상기 실루엣을 복수의 투영(projection)으로 투영하고 상기 복수의 투영 사이의 교차 부분(intersection)을 분석하여 상기 3D 모델을 구성하는, 시스템.The method of claim 4,
The convolutional neural network receives the image data and outputs a plurality of silhouettes based on the image data corresponding to the second part of the object, and the processor projects the silhouette into a plurality of projections, and the A system for constructing the 3D model by analyzing an intersection between a plurality of projections.
상기 지지 링은 상기 지지 링에 결합되는 복수의 카메라를 포함하고, 상기 복수의 카메라의 각각은 상기 제1 광원으로부터, 투과 이미징 데이터, 상호 교차 이미징 데이터 또는 반사 이미징 데이터 중 하나를 캡처하는, 시스템.The method of claim 1,
Wherein the support ring includes a plurality of cameras coupled to the support ring, each of the plurality of cameras capturing one of transmission imaging data, cross-cross imaging data or reflective imaging data from the first light source.
상기 지지 링은 상기 지지 링에 결합되는 제2 광원을 포함하고, 작동 동안, 상기 제2 광원은 상기 투명 플레이트로 지향되는 광을 방출하는, 시스템.The method of claim 6,
Wherein the support ring includes a second light source coupled to the support ring, and during operation, the second light source emits light directed to the transparent plate.
상기 공간 내에 위치되고 상기 컨베이어에 결합되는 플레이트;
상기 공간 내에 적어도 부분적으로 위치되고 상기 컨베이어에 결합되는 지지 링;
상기 지지 링에 결합되는 적어도 하나의 광원;
상기 지지 링에 결합되는 이미징 장치; 및
상기 이미징 장치와 전자적으로 통신하는 프로세서
를 포함하고,
작동 동안, 상기 지지 링은 적어도 제1 위치와 제2 위치 사이에 회전하고, 상기 적어도 하나의 광원은 상기 플레이트 상의 객체를 향하여 지향되는 광을 방출하고, 상기 이미징 장치는 상기 적어도 하나의 광원으로부터의 광을 상기 광이 상기 객체를 통과한 후에 수신하고,
상기 프로세서는, 상기 지지 링이 상기 제1 위치에 있을 때 상기 이미징 장치로부터의 제1 이미지 데이터 세트를 수신하고 상기 지지 링이 상기 제2 위치에 있을 때 상기 이미징 장치로부터의 제2 이미지 데이터 세트를 수신하며, 상기 제1 이미지 데이터 세트 및 상기 제2 이미지 데이터 세트로부터 상기 객체의 내부 부분에 대한 3차원(3D) 모델을 출력하는, 장치.A conveyor, the conveyor having a space between the first portion and the second portion of the conveyor;
A plate located in the space and coupled to the conveyor;
A support ring located at least partially within the space and coupled to the conveyor;
At least one light source coupled to the support ring;
An imaging device coupled to the support ring; And
Processor in electronic communication with the imaging device
Including,
During operation, the support ring rotates between at least a first position and a second position, the at least one light source emits light directed towards the object on the plate, and the imaging device is Receive light after the light passes through the object,
The processor is configured to receive a first set of image data from the imaging device when the support ring is in the first position and a second set of image data from the imaging device when the support ring is in the second position. Receiving and outputting a three-dimensional (3D) model of an interior portion of the object from the first image data set and the second image data set.
상기 프로세서는 상기 제1 이미지 데이터 세트 및 상기 제2 이미지 데이터 세트를 복수의 실루엣으로 처리하고 상기 복수의 실루엣을 복수의 투영(projection)으로 투영하기 위하여 기계 학습을 활용하고, 상기 3D 모델은 상기 복수의 투영의 각각 사이의 교차 부분(intersection)에 기초하는, 장치.The method of claim 8.
The processor uses machine learning to process the first image data set and the second image data set into a plurality of silhouettes and project the plurality of silhouettes into a plurality of projections, and the 3D model Based on the intersection between each of the projections of.
상기 지지 링에 결합되는 제2 광원을 더 포함하고, 상기 이미징 장치는 상기 지지 링이 상기 제1 위치 또는 상기 제2 위치에 있을 때 상기 제2 광원으로부터 제3 이미지 데이터 세트를 캡처하고, 상기 프로세서는 상기 3차원 모델의 경계를 명확하게 하기 위하여 상기 제3 이미지 데이터 세트를 활용하는, 장치.The method of claim 8.
A second light source coupled to the support ring, wherein the imaging device captures a third set of image data from the second light source when the support ring is in the first position or the second position, and the processor Utilizes the third image data set to demarcate the three-dimensional model.
상기 이미징 장치는 분광기(spectrograph)이고, 상기 적어도 하나의 광원은 대략 1260 나노미터, 대략 805 나노미터 또는 대략 770 나노미터 중 하나로부터 선택된 파장의 광을 방출하는, 장치.The method of claim 8.
Wherein the imaging device is a spectrograph, and the at least one light source emits light of a wavelength selected from one of approximately 1260 nanometers, approximately 805 nanometers or approximately 770 nanometers.
상기 광이 상기 객체를 통과한 후 이미징 장치로 상기 광원으로부터의 광을 캡처하는 단계 - 캡처된 상기 광은 상기 이미징 장치에 의해 수신된 상기 제1 부분 및 상기 제2 부분의 이미지 데이터에 대응함 - ;
상기 이미지 데이터를 프로세서에 전송하는 단계; 및
상기 제1 부분과 상기 제2 부분 사이의 경계를 검출하기 위하여 상기 프로세서를 이용하여 상기 이미지 데이터를 분석하는 단계 - 상기 분석하는 단계는, 상기 제2 부분의 3차원 표현을 생성하기 위하여 기계 학습을 활용하는 단계를 포함함 -
를 포함하는, 방법.Emitting light from a light source, the emitting step comprising directing the light through an object having a first portion and a second portion, the second portion enclosed within the first portion;
Capturing light from the light source with an imaging device after the light passes through the object, the captured light corresponding to image data of the first portion and the second portion received by the imaging device;
Transmitting the image data to a processor; And
Analyzing the image data using the processor to detect a boundary between the first portion and the second portion, wherein the analyzing step involves machine learning to generate a three-dimensional representation of the second portion. Including the steps to utilize-
Including, the method.
상기 광원으로부터 광을 방출하는 단계는, 대략 1260 나노미터, 대략 805 나노미터 또는 대략 770 나노미터 중 하나로부터 선택된 파장의 광을 방출하는 단계를 포함하는, 방법.The method of claim 12,
Emitting light from the light source comprises emitting light at a wavelength selected from one of approximately 1260 nanometers, approximately 805 nanometers or approximately 770 nanometers.
상기 제2 부분의 3차원 표현을 생성하기 위하여 기계 학습을 활용하는 단계는, 상기 이미지 데이터를 처리하기 위하여, 딥 컨벌루션 신경망(deep convolutional neural network)을 활용하여 기계 학습하는 단계를 포함하는, 방법.The method of claim 12,
The step of utilizing machine learning to generate a three-dimensional representation of the second part comprises machine learning utilizing a deep convolutional neural network to process the image data.
상기 프로세서를 이용하여 상기 이미지 데이터를 분석하는 단계는, 상기 제2 부분의 상기 이미지 데이터에 대응하는 복수의 2차원 실루엣을 출력하기 위하여 기계 학습을 활용하는 단계를 포함하는, 방법.The method of claim 12,
Analyzing the image data using the processor comprises utilizing machine learning to output a plurality of two-dimensional silhouettes corresponding to the image data of the second portion.
상기 프로세서를 이용하여 상기 이미지 데이터를 분석하는 단계는, 복수의 투영(projection)을 생성하기 위하여 기계 학습을 활용하는 단계를 포함하고, 각각의 투영은 상기 복수의 2차원 실루엣의 각각의 하나에 대응하는, 방법.The method of claim 15,
Analyzing the image data using the processor includes utilizing machine learning to generate a plurality of projections, each projection corresponding to each one of the plurality of two-dimensional silhouettes How to.
상기 분석하는 단계는, 3차원 표현을 생성하기 위하여 기계 학습을 포함하는 단계를 포함하고, 상기 객체의 상기 제2 부분의 3차원 표현을 출력하기 위하여 상기 복수의 투영의 각각 사이의 교차 부분(intersection)을 분석하는 단계를 더 포함하는, 방법.The method of claim 15,
The analyzing step includes the step of including machine learning to generate a three-dimensional representation, and an intersection between each of the plurality of projections to output a three-dimensional representation of the second portion of the object. ), the method further comprising the step of analyzing.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862765113P | 2018-08-16 | 2018-08-16 | |
US62/765,113 | 2018-08-16 | ||
PCT/US2018/066314 WO2020036620A1 (en) | 2018-08-16 | 2018-12-18 | Multi-view imaging system and methods for non-invasive inspection in food processing |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210041055A true KR20210041055A (en) | 2021-04-14 |
Family
ID=65003598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217007033A KR20210041055A (en) | 2018-08-16 | 2018-12-18 | Multi-view imaging system and method for non-invasive inspection in food processing |
Country Status (8)
Country | Link |
---|---|
EP (1) | EP3837533A1 (en) |
JP (1) | JP7324271B2 (en) |
KR (1) | KR20210041055A (en) |
CN (1) | CN113167740B (en) |
EC (1) | ECSP21013708A (en) |
MX (1) | MX2021001799A (en) |
PH (1) | PH12021550342A1 (en) |
WO (1) | WO2020036620A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019173283A1 (en) | 2018-03-05 | 2019-09-12 | Marquette University | Method and apparatus for non-invasive hemoglobin level prediction |
CN111337506B (en) * | 2020-03-30 | 2023-07-07 | 河南科技学院 | Intelligent device for clothing quality inspection |
US11363909B2 (en) * | 2020-04-15 | 2022-06-21 | Air Products And Chemicals, Inc. | Sensor device for providing control for a food processing system |
CN112763700B (en) * | 2021-02-18 | 2023-08-04 | 同济大学 | System and method for detecting quality of concrete precast beam finished product and constructing digital entity model |
LU501123B1 (en) | 2021-12-29 | 2023-06-29 | Analitica D O O | Apparatus and method for detecting polymer objects and/or chemical additives in food products |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5352153A (en) | 1993-07-13 | 1994-10-04 | The Laitram Corporation | Imaging system for use in processing transversely cut fish body sections |
JPH07306163A (en) * | 1994-05-13 | 1995-11-21 | Nippon Steel Corp | Flaw detecting device |
DE29518639U1 (en) * | 1995-11-24 | 1997-03-27 | Heuft Systemtechnik Gmbh | Device for transporting containers past a device for inspecting the bottom of the containers |
AU5967300A (en) * | 1999-07-28 | 2001-02-19 | Marine Harvest Norway As | Method and apparatus for determining quality properties of fish |
JP2002125581A (en) * | 2000-10-30 | 2002-05-08 | Nekusuko:Kk | Automatic quantitatively cutting apparatus |
US6563904B2 (en) | 2000-12-01 | 2003-05-13 | Fmc Technologies, Inc. | Apparatus and method for detecting and removing undesirable material from workpieces |
US6587575B1 (en) | 2001-02-09 | 2003-07-01 | The United States Of America As Represented By The Secretary Of Agriculture | Method and system for contaminant detection during food processing |
US7060981B2 (en) * | 2003-09-05 | 2006-06-13 | Facet Technology Corp. | System for automated detection of embedded objects |
JP2005158410A (en) | 2003-11-25 | 2005-06-16 | Hitachi Ltd | X-ray imaging apparatus |
WO2006129391A1 (en) * | 2005-06-03 | 2006-12-07 | Mayekawa Mfg.Co., Ltd. | Apparatus for detecting contaminants in food |
JP2007309780A (en) * | 2006-05-18 | 2007-11-29 | Web Tec Kk | Device and method for inspecting quality of printed matter |
WO2008016309A1 (en) | 2006-08-04 | 2008-02-07 | Sinvent As | Multi-modal machine-vision quality inspection of food products |
JP5274338B2 (en) | 2009-03-30 | 2013-08-28 | 富士フイルム株式会社 | Measuring object holder |
BRPI1015107B1 (en) * | 2009-04-03 | 2019-02-26 | Robotic Technologies Limited | Carcass cutting methods and apparatus |
JP2011085424A (en) * | 2009-10-13 | 2011-04-28 | Shimadzu Corp | X-ray inspection method and x-ray inspection device using the same |
CL2009002085A1 (en) | 2009-11-16 | 2011-03-11 | Univ Pontificia Catolica Chile | Method and system to automatically analyze in real time the quality of samples of fish meats that circulate on a conveyor belt, which allow surface defects to be detected and classify meats according to quality standards, based on the segmentation of the captured images. |
EP2353395A1 (en) | 2010-02-07 | 2011-08-10 | Valka Ehf | Food processing apparatus for detecting and cutting tissues from food items |
JP5712392B2 (en) | 2010-03-31 | 2015-05-07 | 株式会社 カロリアジャパン | Device for determining foreign matter contamination in an object |
FI125531B (en) * | 2010-04-29 | 2015-11-13 | Planmed Oy | Medical x-ray equipment |
EP2614773B1 (en) * | 2010-07-13 | 2018-01-03 | Takara Telesystems Corp. | X-ray tomogram imaging device |
JP2012098181A (en) * | 2010-11-02 | 2012-05-24 | Sumitomo Electric Ind Ltd | Device and method for detection |
CN102141525A (en) * | 2011-01-01 | 2011-08-03 | 上海创波光电科技有限公司 | Adjustable lighting detection device for front and back light sources |
US8515149B2 (en) * | 2011-08-26 | 2013-08-20 | General Electric Company | Inspection system and method for determining three dimensional model of an object |
US9996745B2 (en) | 2012-11-19 | 2018-06-12 | Altria Client Services Llc | Blending of agricultural products via hyperspectral imaging and analysis |
ES2819195T3 (en) | 2013-01-15 | 2021-04-15 | Nordischer Maschinenbau | Device and procedure for non-contact detection of red tissue structures, as well as arrangement to detach a band of red tissue structures |
US9420641B2 (en) * | 2013-01-23 | 2016-08-16 | Whirlpool Corporation | Microwave oven multiview silhouette volume calculation for mass estimation |
CH709896A2 (en) | 2014-07-18 | 2016-01-29 | Tecan Trading Ag | Monochromator with vibration movable optical elements. |
RU2705389C2 (en) * | 2014-07-21 | 2019-11-07 | 7386819 Манитоба Лтд. | Method and apparatus for scanning bones in meat |
US10252466B2 (en) * | 2014-07-28 | 2019-04-09 | Massachusetts Institute Of Technology | Systems and methods of machine vision assisted additive fabrication |
JP2018530338A (en) * | 2015-10-14 | 2018-10-18 | タイ ユニオン グループ パブリック カンパニー リミテッド | Combined high pressure and high temperature treatment (HPTP) process for producing organized meat products and improved meat products obtained from the process |
DE102015221299A1 (en) * | 2015-10-30 | 2017-05-04 | Voith Patent Gmbh | Spur gears |
WO2017093539A1 (en) | 2015-12-04 | 2017-06-08 | Marel Iceland Ehf. | A method for automatically processing fish fillets when they are in a frozen state |
JP6723061B2 (en) | 2016-04-15 | 2020-07-15 | キヤノン株式会社 | Information processing apparatus, information processing apparatus control method, and program |
CA2973074A1 (en) * | 2016-07-13 | 2018-01-13 | Sightline Innovation Inc. | System and method for surface inspection |
US10021369B2 (en) * | 2016-07-26 | 2018-07-10 | Qcify Inc. | In-flight 3D inspector |
CN108122265A (en) * | 2017-11-13 | 2018-06-05 | 深圳先进技术研究院 | A kind of CT reconstruction images optimization method and system |
-
2018
- 2018-12-18 MX MX2021001799A patent/MX2021001799A/en unknown
- 2018-12-18 CN CN201880098276.4A patent/CN113167740B/en active Active
- 2018-12-18 EP EP18830699.7A patent/EP3837533A1/en active Pending
- 2018-12-18 WO PCT/US2018/066314 patent/WO2020036620A1/en unknown
- 2018-12-18 KR KR1020217007033A patent/KR20210041055A/en not_active Application Discontinuation
- 2018-12-18 JP JP2021507475A patent/JP7324271B2/en active Active
-
2021
- 2021-02-16 PH PH12021550342A patent/PH12021550342A1/en unknown
- 2021-02-26 EC ECSENADI202113708A patent/ECSP21013708A/en unknown
Also Published As
Publication number | Publication date |
---|---|
JP2021535367A (en) | 2021-12-16 |
EP3837533A1 (en) | 2021-06-23 |
ECSP21013708A (en) | 2021-04-29 |
MX2021001799A (en) | 2021-06-15 |
CN113167740A (en) | 2021-07-23 |
PH12021550342A1 (en) | 2021-10-04 |
WO2020036620A1 (en) | 2020-02-20 |
JP7324271B2 (en) | 2023-08-09 |
CN113167740B (en) | 2024-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11120540B2 (en) | Multi-view imaging system and methods for non-invasive inspection in food processing | |
KR20210041055A (en) | Multi-view imaging system and method for non-invasive inspection in food processing | |
US9818232B2 (en) | Color-based depth smoothing of scanned 3D model to enhance geometry in 3D printing | |
US9562857B2 (en) | Specular object scanner for measuring reflectance properties of objects | |
JP6364777B2 (en) | Image data acquisition system and image data acquisition method | |
CN110998603A (en) | System and method for hyperspectral image processing to identify foreign objects | |
CN110832545A (en) | System and method for hyperspectral image processing to identify objects | |
US7352892B2 (en) | System and method for shape reconstruction from optical images | |
Veal et al. | A comparative study of methods for surface area and three‐dimensional shape measurement of coral skeletons | |
US11054370B2 (en) | Scanning devices for ascertaining attributes of tangible objects | |
US8233668B2 (en) | Distinguishing abutting food product | |
US10497136B2 (en) | Method for processing images having specularities and corresponding computer program product | |
JPWO2019151393A1 (en) | Food inspection system, food inspection program, food inspection method and food production method | |
Pediredla et al. | Ellipsoidal path connections for time-gated rendering | |
JP2024529423A (en) | Security inspection CT object recognition method and device | |
Siswantoro et al. | Monte Carlo method with heuristic adjustment for irregularly shaped food product volume measurement | |
CN114365024A (en) | Mobile phone imaging system and analysis method based on machine learning | |
ElMasry et al. | Effectiveness of specularity removal from hyperspectral images on the quality of spectral signatures of food products | |
EP3973447B1 (en) | Surface recognition | |
Medeiros et al. | Using physically based rendering to benchmark structured light scanners | |
Boffety et al. | Phenomenological marine snow model for optical underwater image simulation: Applications to color restoration | |
US10041885B2 (en) | Optical and chemical analytical systems and methods | |
Balacey et al. | Processing sequence for non-destructive inspection based on 3D terahertz images | |
Boscaini et al. | Localisation of defects in volumetric computed tomography scans of valuable wood logs | |
US11815441B2 (en) | Particulate matter imaging, identification, and analysis systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |