KR20230157856A - Machine vision camera based on deep learning - Google Patents

Machine vision camera based on deep learning Download PDF

Info

Publication number
KR20230157856A
KR20230157856A KR1020230014362A KR20230014362A KR20230157856A KR 20230157856 A KR20230157856 A KR 20230157856A KR 1020230014362 A KR1020230014362 A KR 1020230014362A KR 20230014362 A KR20230014362 A KR 20230014362A KR 20230157856 A KR20230157856 A KR 20230157856A
Authority
KR
South Korea
Prior art keywords
unit
sensor
fpga
embedded
interface
Prior art date
Application number
KR1020230014362A
Other languages
Korean (ko)
Inventor
박철우
김효창
박도현
주현철
박경석
김종민
Original Assignee
주식회사 아이코어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이코어 filed Critical 주식회사 아이코어
Priority to KR1020230014362A priority Critical patent/KR20230157856A/en
Publication of KR20230157856A publication Critical patent/KR20230157856A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Abstract

본 발명은 각각의 모듈로 구성되어, 각 모듈을 선택하여 조립하는 모듈부를 포함하고, 상기 모듈부는, 렌즈가 조립되고, 상기 렌즈의 사양에 따라 조립이 가능한 렌즈 마운트부와, 파장이나 밝기를 조절하는 조명부와, 상기 렌즈가 상기 렌즈 마운트부에서 통과하여 입사되는 빛을 수신하는 센서부와, 영상처리 동작 및 성능을 검증하는 FPGA부와, 영상을 분석하고 결과를 수신하는 임베디드부와, 상기 임베디드부에서 분석된 결과값을 외부로 출력신호를 보내주는 인터페이스부를 포함하는 딥러닝을 기반으로 하는 머신비전 카메라에 관한 것이다.The present invention is composed of individual modules and includes a module part for selecting and assembling each module, wherein the module part is a lens mount part where a lens is assembled and can be assembled according to the specifications of the lens, and a wavelength or brightness control unit. a lighting unit, a sensor unit that receives light incident upon the lens passing through the lens mount unit, an FPGA unit that verifies image processing operation and performance, an embedded unit that analyzes the image and receives the results, and the embedded It relates to a machine vision camera based on deep learning that includes an interface unit that sends output signals to the outside of the results analyzed in the unit.

Description

딥러닝을 기반으로 하는 머신비전 카메라{Machine vision camera based on deep learning}Machine vision camera based on deep learning}

본 발명은 딥러닝을 기반으로 하는 머신비전 카메라에 관한 것으로, 딥러닝을 기반으로 하는 머신비전 카메라로 각각의 모듈방식으로 사용환경에 맞게 각각의 모듈을 조합하여 최적의 스마트 카메라를 제작할 수 있는 딥러닝을 기반으로 하는 머신비전 카메라에 관한 것이다.The present invention relates to a machine vision camera based on deep learning. It is a deep learning-based machine vision camera that can produce an optimal smart camera by combining each module in a modular manner to suit the usage environment. This is about a machine vision camera based on learning.

일반적으로, 컴퓨터 기술의 발전에 따라 다양한 분야에서 딥러닝 기술 및 그에 기초한 머신비전 기능의 활용이 점점 더 증가하고 있다.In general, with the advancement of computer technology, the use of deep learning technology and machine vision functions based on it is increasing in various fields.

다양한 분야 중 카메라 분야를 보면, 디지털 기술의 발전에 따라 종래의 필름 카메라를 대신하여 디지털 카메라가 널리 보급되고 있다. Among various fields, looking at the camera field, with the development of digital technology, digital cameras are becoming widely used, replacing conventional film cameras.

특히 과거 고가로 판매되어 전문가들만 사용하는 것으로 알려져 있는 SLR(Single-lens Reflex) 카메라를 디지털 방식으로 전환한 DSLR이 상대적으로 저렴하게 보급되고 있다.In particular, DSLRs, which are digital conversions of SLR (single-lens reflex) cameras, which were sold at high prices in the past and were known to be used only by professionals, are becoming popular relatively inexpensively.

렌즈 교환식 카메라'라고도 불리는 DSLR 카메라는 디지털 일안 리플렉스(Digital single-lens Reflex) 카메라의 약칭으로서, 일반적인 디지털 카메라가 이안식 렌즈를 구비한 것과 달리 한 개의 렌즈를 통해서 뷰파인더로 이미지를 보내 사진을 찍는 일안 반사식 카메라를 의미한다. DSLR cameras, also called 'interchangeable lens cameras', are an abbreviation for digital single-lens reflex cameras. Unlike typical digital cameras that have a double lens, DSLR cameras take pictures by sending images to the viewfinder through a single lens. It refers to a single-lens reflex camera.

DSLR은 렌즈의 광축 상으로 소정 각도 내에서 회전가능하게 형성되는 미러(mirror)를 구비하여 렌즈를 통과한 빛이 미러(mirror)에서 반사되고 펜타프리즘과 뷰파인더(view-finder)를 통해 촬영자가 확인할 수 있다. A DSLR is equipped with a mirror that can be rotated within a predetermined angle on the optical axis of the lens, so that light passing through the lens is reflected from the mirror and is viewed by the photographer through a pentaprism and viewfinder. You can check it.

이때, 셔터-릴리스 신호가 입력되면 미러가 축을 중심으로 회전 구동하여 렌즈의 광축 상에서 이탈하기 위하여 상승되고, 셔터가 오픈 상태가 되면 촬상 소자 상에 피사체의 상이 형성된다. At this time, when a shutter-release signal is input, the mirror is rotated around its axis and raised to deviate from the optical axis of the lens, and when the shutter is opened, an image of the subject is formed on the imaging device.

DSLR은 일반 디지털 카메라와 비교해서도 화질이나 색감이 훨씬 좋기 때문에 보다 선명한 이미지를 얻고자 하는 사용자들로부터 많은 인기를 얻고 있다.DSLR has much better image quality and color than regular digital cameras, so it is gaining popularity among users who want to obtain clearer images.

일반적으로 DSLR의 경우에는 카메라 본체(바디)와 별도로 이에 탈부착 가능한 교환 렌즈로 구성되어 있다. In general, a DSLR consists of a camera body (body) and separate, attachable and detachable interchangeable lenses.

교환렌즈가 바디와 결합하게 되면, 본체로부터 렌즈로 전원이 공급되어 렌즈와 바디 사이에서 전기적 신호가 송수신된다. When the interchangeable lens is combined with the body, power is supplied from the main body to the lens, and electrical signals are transmitted and received between the lens and the body.

일반적인 디지털 카메라와 마찬가지로, DSLR 카메라의 바디에는 셔터-릴리스 버튼을 비롯하여 촬영 모드를 설정하기 위한 모드 다이얼이나 광각-줌 버튼이나 망원-줌 버튼 및 기능 버튼과 LCD 창과 같은 디스플레이부를 비롯하여 촬영할 피사체를 부고 구도를 설정하기 위한 작은 창인 뷰파인더를 구비하고 있다.Like a typical digital camera, the body of a DSLR camera includes a shutter-release button, a mode dial for setting the shooting mode, a wide-angle-zoom button or a telephoto-zoom button, and a display unit such as a function button and an LCD window to indicate the subject to be shot and the composition. It is equipped with a viewfinder, a small window for setting settings.

그런데 DSLR 카메라의 경우 필요에 따라 다양한 교환 렌즈를 몸체에 장착하여 이미지를 촬상하게 되는데, DSLR카메라의 몸체는 일반 디지털 카메라에 비하여 훨씬 무거울 뿐만 아니라 상대적으로 고가로 판매되고 있다. However, in the case of a DSLR camera, various interchangeable lenses are mounted on the body as needed to capture images. The body of a DSLR camera is not only much heavier than that of a regular digital camera, but is also sold at a relatively high price.

따라서 DSLR 등급의 양호한 이미지를 구현하기 위해서는 교환 렌즈는 물론이고 몸체를 구입하여야 하는 문제점이 있었다.Therefore, in order to produce a good DSLR-grade image, there was a problem in that one had to purchase a body as well as an interchangeable lens.

즉, 스마트 카메라가 필요한 실제 제조업체의 사용환경은 너무도 다양하며, 각각의 상황에 맞는 해상력의 센서 선정, 영상처리 등의 난이도에 따른 임베디드의 선택, 외부로 출력값을 전송하기 위한 인터페이스의 결정, 조명의 파장이나 밝기 선정, 렌즈의 배율과 심도 선정 등 고려해야할 것이 많다.In other words, the actual usage environment of manufacturers who need smart cameras is very diverse, and the selection of sensors with resolution suitable for each situation, selection of embedded devices according to the difficulty of image processing, determination of interface for transmitting output values to the outside, and lighting There are many things to consider, such as selection of wavelength or brightness, and selection of lens magnification and depth of field.

또한 출시되어 있는 스마트 카메라의 종류는 극히 제한적이며, 특히 센서와 조명을 포함하여 스마트 카메라를 구성하는 모든 하드웨어 부품은 고정되어 있다.Additionally, the types of smart cameras on the market are extremely limited, and in particular, all hardware components that make up a smart camera, including sensors and lights, are fixed.

따라서 실제 제조환경에 맞는 스마트 카메라를 선정하기가 여러울 뿐만 아니라, 스마트 카메라의 구성 중 일부분을 변경하기에도 어려움이 있었다.Therefore, not only was it difficult to select a smart camera suitable for the actual manufacturing environment, but it was also difficult to change some of the configuration of the smart camera.

이러한 문제점으로 새로운 모델로 신규 개발이 필요한 경우가 많으나, 실제 이런 경우에 제조사에서 모두 대응하는 것은 현실적으로 큰 어려움이 있었다.These problems often necessitate the development of new models, but in reality, it is very difficult for manufacturers to respond to all of these cases.

고로 중소 제조업체에서 생산이나 품질검사를 위해 머신비전을 적용하여 스마트 팩토리를 구성하는 것은 극히 제한적일 수 있는 문제점이 있다.Therefore, there is a problem in that small and medium-sized manufacturers can be extremely limited in forming a smart factory by applying machine vision for production or quality inspection.

특허문헌1 : 대한민국공개특허 제10-2005-00869976호(공개일: 2005.08.30)Patent Document 1: Republic of Korea Patent Publication No. 10-2005-00869976 (Publication Date: 2005.08.30)

본 발명은 상술한 문제점을 해결하기 위한 것으로, 딥러닝을 기반으로 하는 머신비전 카메라로 각각의 모듈방식으로 사용환경에 맞게 각각의 모듈을 조합하여 최적의 스마트 카메라를 제작할 수 있는 딥러닝을 기반으로 하는 머신비전 카메라를 제공하는 것에 그 목적이 있다.The present invention is intended to solve the above-mentioned problems. It is a deep learning-based machine vision camera that can produce an optimal smart camera by combining each module according to the usage environment in each module method. The purpose is to provide a machine vision camera that

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

상술한 문제점을 해결하기 위해 본 발명에 따른 각각의 모듈로 구성되어, 각 모듈을 선택하여 조립하는 모듈부를 포함하고,In order to solve the above-mentioned problem, it is composed of each module according to the present invention, and includes a module part for selecting and assembling each module,

상기 모듈부는, 렌즈가 조립되고, 상기 렌즈의 사양에 따라 조립이 가능한 렌즈 마운트부와, 파장이나 밝기를 조절하는 조명부와, 상기 렌즈가 상기 렌즈 마운트부에서 통과하여 입사되는 빛을 수신하는 센서부와, 영상처리 동작 및 성능을 검증하는 FPGA부와, 영상을 분석하고 결과를 수신하는 임베디드부와, 상기 임베디드부에서 분석된 결과값을 외부로 출력신호를 보내주는 인터페이스부를 포함한다.The module part includes a lens mount part on which a lens is assembled and can be assembled according to the specifications of the lens, a lighting part that adjusts the wavelength or brightness, and a sensor part that receives light incident on the lens through the lens mount part. It includes an FPGA unit that verifies image processing operations and performance, an embedded unit that analyzes the image and receives the results, and an interface unit that sends an output signal to the outside of the results analyzed by the embedded unit.

상기 인터페이스의 모양에 따라 형성되는 후면커버부를 더 포함할 수 있다.It may further include a rear cover formed according to the shape of the interface.

상기 모듈부는 조립이 가능도록 구성된 기구부를 포함할 수 있다.The module part may include a mechanism configured to enable assembly.

상기 센서부와, FPGA부와, 임베디드부와, 인터페이스부는 내측벽이 PCB BOARD로 구성될 수 있다.The inner walls of the sensor unit, FPGA unit, embedded unit, and interface unit may be composed of a PCB BOARD.

각각의 모듈로 구성되어, 각 모듈을 선택하여 조립하는 모듈부; 상기 모듈부를 결합하는 결합부를 포함하고, 상기 모듈부는, 렌즈가 조립되고, 상기 렌즈의 사양에 따라 조립이 가능한 렌즈 마운트부와, 파장이나 밝기를 조절하는 조명부와, 상기 렌즈가 상기 렌즈 마운트부에서 통과하여 입사되는 빛을 수신하는 센서부와, 영상처리 동작 및 성능을 검증하는 FPGA부와, 영상을 분석하고 결과를 수신하는 임베디드부와, 상기 임베디드부에서 분석된 결과값을 외부로 출력신호를 보내주는 인터페이스부를 포함하며, 상기 결합부는, 상기 센서부와 결합되는 후면커버부를 포함한다.A module unit composed of each module and selecting and assembling each module; It includes a coupling part that combines the module part, wherein the module part includes a lens mount part on which a lens is assembled and can be assembled according to the specifications of the lens, a lighting part that adjusts the wavelength or brightness, and the lens is mounted in the lens mount part. A sensor unit that receives incident light, an FPGA unit that verifies image processing operation and performance, an embedded unit that analyzes the image and receives the results, and outputs the results analyzed by the embedded unit to the outside. It includes an interface unit that sends the sensor, and the coupling unit includes a rear cover unit that is coupled to the sensor unit.

이와 같이 본 발명은 딥러닝을 기반으로 하는 머신비전 카메라로 각각의 모듈방식으로 사용환경에 맞게 각각의 모듈을 조합하여 최적의 스마트 카메라를 제작할 수 있는 효과를 갖는다.As such, the present invention is a machine vision camera based on deep learning, and has the effect of producing an optimal smart camera by combining each module in a modular manner to suit the usage environment.

즉, 수백가지 이상의 조합을 만들어 낼 수 있어서, 다양한 제조 환경에 맞는 스마트 카메라를 제공할 수 있는 효과를 갖는다.In other words, more than hundreds of combinations can be created, which has the effect of providing smart cameras suitable for various manufacturing environments.

또한 이미 조립이 완성되어 현장에서 설치되어 있는 경우에도 모듈 중 한개 또는 다수개의 모듈의 변경이 필요할 때에도 쉽게 교체할 수 있는 효과를 갖는다.In addition, even if assembly has already been completed and installed in the field, it has the effect of being easily replaced when one or multiple modules need to be changed.

이는, 제조업체에서 고객의 다양한 요구에 맞는 맞춤형 스마트 카메라를 제작할 수 있는 효과를 갖는다.This has the effect of enabling manufacturers to produce customized smart cameras that meet the diverse needs of customers.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1 내지 도 3은 본 발명의 일 실시예에 따른 딥러닝을 기반으로 하는 머신비전 카메라를 나타낸 도면이다.
도 4는 도 1의 딥러닝을 기반으로 하는 머신비전 카메라와 렌즈를 결합하는 상태를 나타낸 도면이다.
도 5는 도 4의 딥러닝을 기반으로 하는 머신비전 카메라에 렌즈가 결합된 상태를 나타낸 도면이다.
도 6은 도 1의 딥러닝을 기반으로 하는 머신비전 카메라의 분해된 상태를 나타낸 도면이다.
도 7 및 도 8은 본 발명의 다른 실시예에 따른 딥러닝을 기반으로 하는 머신비전 카메라를 나타낸 도면이다.
1 to 3 are diagrams showing a machine vision camera based on deep learning according to an embodiment of the present invention.
Figure 4 is a diagram showing the state of combining a machine vision camera and lens based on deep learning of Figure 1.
Figure 5 is a diagram showing a state in which a lens is coupled to the deep learning-based machine vision camera of Figure 4.
FIG. 6 is a diagram showing the disassembled state of the deep learning-based machine vision camera of FIG. 1.
Figures 7 and 8 are diagrams showing a machine vision camera based on deep learning according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. While describing each drawing, similar reference numerals are used for similar components.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

이하, 첨부된 도면을 참조하여, 본 발명의 실시예들을 설명하기로 한다. 각 도면에 제시된 동일한 부호는 동일한 부재를 나타낸다. 본 발명을 설명함에 있어, 관련된 공지 기능 혹은 구성에 관한 구체적인 설명은 본 발명의 요지를 모호하지 않게 하기 위하여 생략한다.Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. The same symbols shown in each drawing represent the same members. In describing the present invention, detailed descriptions of related known functions or configurations are omitted in order to not obscure the gist of the present invention.

도 1 내지 도 3은 본 발명의 일 실시예에 따른 딥러닝을 기반으로 하는 머신비전 카메라를 나타낸 도면이고, 도 4는 도 1의 딥러닝을 기반으로 하는 머신비전 카메라와 렌즈를 결합하는 상태를 나타낸 도면이고, 도 5는 도 4의 딥러닝을 기반으로 하는 머신비전 카메라에서 렌즈가 결합된 상태를 나타낸 도면이며, 도 6은 도 1의 딥러닝을 기반으로 하는 머신비전 카메라의 분해된 상태를 나타낸 도면이다.Figures 1 to 3 are diagrams showing a machine vision camera based on deep learning according to an embodiment of the present invention, and Figure 4 shows a state of combining the machine vision camera and lens based on deep learning of Figure 1. Figure 5 is a diagram showing a state in which a lens is combined in the machine vision camera based on deep learning in Figure 4, and Figure 6 is a diagram showing the disassembled state of the machine vision camera based on deep learning in Figure 1. This is the drawing shown.

도 1을 참조하면, 딥러닝을 기반으로 하는 머신비전 카메라(1)는, 모듈부(10)를 포함한다.Referring to FIG. 1, a machine vision camera 1 based on deep learning includes a module unit 10.

모듈부(10)는 각각의 모듈로 구성되어, 각 모듈을 원하는 사양을 환경, 상황에 따라 선택적으로 조립이 가능하다.The module unit 10 is composed of individual modules, and each module can be selectively assembled to desired specifications according to the environment and situation.

이를 위해 모듈부(10)는, 렌즈 마운트부(11)와, 조명부(12)와, 센서부(13)와, FPGA부(14)와, 임베디드부(15)와, 인터페이스부(16)를 포함할 수 있다.For this purpose, the module unit 10 includes a lens mount unit 11, a lighting unit 12, a sensor unit 13, an FPGA unit 14, an embedded unit 15, and an interface unit 16. It can be included.

여기서 렌즈 마운트부(11)는 렌즈가 조립되고, 렌즈(11a)의 사양에 따라 조립이 가능할 수 있다.Here, the lens mount unit 11 is assembled with a lens, and assembly may be possible depending on the specifications of the lens 11a.

또한 렌즈 마운트부(11)는 렌즈(11a)의 여러 종류로, 선택적으로 사용될 수 있다.Additionally, the lens mount unit 11 can be selectively used with various types of lenses 11a.

또한 렌즈 마운트부(11)는 렌즈(11a)가 장착되는 장착부를 포함할 수 있다.Additionally, the lens mount unit 11 may include a mounting unit on which the lens 11a is mounted.

또한 렌즈 마운트부(11)는 장착된 렌즈(11a)를 고정시키는 렌즈 체결부(11b)를 포함할 수 있다.Additionally, the lens mount unit 11 may include a lens fastening unit 11b that secures the mounted lens 11a.

렌즈 체결부(11b)는 렌즈 마운트부(11)와 체결될 수 있는 체결수단이면 모두 가능할 수 있다.The lens fastening part 11b may be any fastening means that can be fastened to the lens mount part 11.

또한 렌즈 마운트부(11)는 중앙이 관통형성되되, 영상센서(13a)로 이물질이 유입되는 것을 방지하기 위해 관통형성된 부분에 투명판(11c)이 결합될 수 있다.Additionally, the lens mount portion 11 has a penetrating center, and a transparent plate 11c may be coupled to the penetrating portion to prevent foreign substances from entering the image sensor 13a.

이때 투명판(11c)은 유리, 플라스틱 등 다양한 투명으로 형성된다면 어떤 재질이든 가능할 수 있다.At this time, the transparent plate 11c can be made of any material as long as it is made of various transparent materials such as glass and plastic.

또한 렌즈 마운트부(11)는 후술할 센서기구부(17b) 내측과 조립될 수 있다. 이때 조립은 나사산을 통한 체결로도 가능할 뿐만 아니라, 별도의 볼트를 사용하는 것 또한 가능할 수 있다.Additionally, the lens mount unit 11 can be assembled with the inside of the sensor mechanism unit 17b, which will be described later. At this time, assembly is not only possible through fastening through threads, but it may also be possible to use separate bolts.

조명부(12)는 파장이나, 밝기를 조절할 수 있다. 또한 조명부(12)는 조명의 종류와 수량에 따라 여러 종류로, 선택적으로 사용될 수 있다.The lighting unit 12 can adjust wavelength or brightness. Additionally, the lighting unit 12 may be selectively used in various types depending on the type and quantity of lighting.

또한 조명부(12)는 일측에, 렌즈 마운트부(11) 방향으로 상단과 하단에 각각 조명부(12)가 결합될 수 있다. In addition, the lighting unit 12 may be coupled to one side and to the top and bottom in the direction of the lens mount unit 11, respectively.

그리고 조명부(12)는 타측에 센서부(13) 방향으로 돌출형성되어 센서부(13)와 전기적 결합되는 조명커넥터(12a)를 포함할 수 있다.In addition, the lighting unit 12 may include a lighting connector 12a on the other side that protrudes in the direction of the sensor unit 13 and is electrically coupled to the sensor unit 13.

센서부(13)는 렌즈가 렌즈 마운트부(11)에서 통과하여 입사되는 빛을 수신할 수 있다. 이러한 센서부(13)는 영상센서(13a; Image sensor)를 포함할 수 있다.The sensor unit 13 may receive light incident on the lens as it passes through the lens mount unit 11. This sensor unit 13 may include an image sensor (13a).

또한 센서부(13)는 센서의 해상력의 따라 여러 종류로, 선택적으로 사용될 수 있다.Additionally, the sensor unit 13 can be selectively used in various types depending on the resolution of the sensor.

또한 센서부(13)는 상단 일측에 조명커넥터(12a)와 전기적 결합되도록 제1센서커넥터(13b)가 돌출형성될 수 있다.Additionally, the sensor unit 13 may have a first sensor connector 13b protruding from one upper side so as to be electrically coupled to the lighting connector 12a.

또한 센서부(13)는 하단 일측에 FPGA부(14)와 전기적 결합되기위해 FPGA부(14) 방향으로 제2센서커넥터(13c)가 돌출형성될 수 있다.Additionally, the sensor unit 13 may have a second sensor connector 13c protruding in the direction of the FPGA unit 14 on one side of the bottom to be electrically coupled to the FPGA unit 14.

또한 영상센서(13a)는 제1센서커넥터(13b)와 제2센서커넥터(13c) 사이에 위치될 수 있다. 즉 영상센서(13a)는 투명판(11c)과 대응되게 위치될 수 있다.Additionally, the image sensor 13a may be located between the first sensor connector 13b and the second sensor connector 13c. That is, the image sensor 13a can be positioned to correspond to the transparent plate 11c.

FPGA부(14)는 영상처리 동작 및 성능을 검증할 수 있다. 또한 FPGA부(14)는 성능과 용량에 따라 여러 종류로, 선택적으로 사용될 수 있다.The FPGA unit 14 can verify image processing operation and performance. Additionally, the FPGA unit 14 can be selectively used in various types depending on performance and capacity.

또한 FPGA부(14)는 상단 일측에 임베디드부(15)와 전기적 결합되도록 임베디드부(15) 방향으로 제1FPGA커넥터(14a)가 돌출형성될 수 있다.Additionally, the FPGA unit 14 may have a first FPGA connector 14a protruding on one upper side in the direction of the embedded unit 15 so as to be electrically coupled to the embedded unit 15.

또한 FPGA기구부(17c)는 하단 일측에 제2센서커넥터(13c)와 전기적 결합되기위해 제2센서커넥터(13c) 방향으로 제2FPGA커넥터(14b)가 돌출형성될 수 있다.Additionally, the FPGA mechanism unit 17c may have a second FPGA connector 14b protruding on one side of the lower end in the direction of the second sensor connector 13c to be electrically coupled to the second sensor connector 13c.

임베디드부(15)는 영상을 분석하고 결과를 수신할 수 있다. 또한 임베디드부(15)는 성능, 기능에 따라 여러 종류로, 선택적으로 사용될 수 있다.The embedded unit 15 can analyze the image and receive the results. Additionally, the embedded portion 15 can be selectively used in various types depending on performance and function.

또한 임베디드부(15)는 상단 일측에 제1FPGA커넥터(14a)와 전기적 결합되도록 제1FPGA커넥터(14a) 방향으로 제1임베디드커넥터(15a)가 돌출형성될 수 있다.Additionally, the embedded portion 15 may have a first embedded connector 15a protruding on one upper side in the direction of the first FPGA connector 14a so as to be electrically coupled to the first FPGA connector 14a.

또한 임베디드부(15)는 하단 일측에 인터페이스부(16)와 전기적 결합되기위해 인터페이스부(16) 방향으로 제2임베디드커넥터(15b)가 돌출형성될 수 있다.Additionally, the embedded portion 15 may have a second embedded connector 15b formed on one bottom side protruding in the direction of the interface portion 16 to be electrically coupled to the interface portion 16.

인터페이스부(16)는 임베디드부(15)에서 분석된 결과값을 외부로 출력신호를 보내줄 수 있다. 또한 인터페이스부(16)는 USB, GigE 등 출력 방식에 따라 여러 종류로, 선택적으로 사용될 수 있다.The interface unit 16 can send an output signal of the result value analyzed by the embedded unit 15 to the outside. Additionally, the interface unit 16 can be selectively used in various types depending on the output method, such as USB or GigE.

또한 인터페이스부(16)는 하단 일측에 제2임베디드커넥터(15b)와 전기적 결합되도록 인터페이스커넥터(16a)가 형성될 수 있다.Additionally, the interface unit 16 may have an interface connector 16a formed on one lower side thereof to be electrically coupled to the second embedded connector 15b.

또한 인터페이스부(16)는 상단 일측에 후면커버와 결합되도록 후면커버 방향으로 돌출 형성되는 인터페이스결합부(16b)를 포함할 수 있다.Additionally, the interface portion 16 may include an interface coupling portion 16b on one upper side that protrudes in the direction of the rear cover to be coupled to the rear cover.

한편, 센서부(13)와, FPGA부(14)와, 임베디드부(15) 및 인터페이스부(16)는 PCB BOARD로 구성될 수 있다.Meanwhile, the sensor unit 13, the FPGA unit 14, the embedded unit 15, and the interface unit 16 may be composed of a PCB BOARD.

즉 후술할 기구부(17)는 PCB BOARD 상단 및 하단에 각각 체결될 수 있다.That is, the mechanism part 17, which will be described later, can be fastened to the top and bottom of the PCB BOARD, respectively.

또한 기구부(17)와 PCB BOARD가 체결되어 맞닿는 곳에 PCB BOARD의 손상 등을 방지하기 위해 기구부(17) 내측에 보호캡(미도시)이 형성될 수 있다.In addition, a protective cap (not shown) may be formed inside the mechanism 17 to prevent damage to the PCB BOARD at a place where the mechanism 17 and the PCB BOARD come into contact.

이러한 보호캡은 탄성재질 등으로 제작되어 외부 충격 등으로부터 PCB BOARD를 보호할 수 있다.These protective caps are made of elastic materials and can protect the PCB BOARD from external shocks.

또한 딥러닝을 기반으로 하는 머신비전 카메라(1)는 인터페이스부(16)의 모양에 따라 형성되는 후면커버부(20)를 더 포함할 수 있다.Additionally, the machine vision camera 1 based on deep learning may further include a rear cover portion 20 formed according to the shape of the interface portion 16.

더불어 모듈부(10)는 조립이 가능하도록 구성된 기구부(17)를 포함할 수 있다.In addition, the module unit 10 may include a mechanical unit 17 configured to enable assembly.

기구부(17)는, 조명기구부(17a)와, 센서기구부(17b)와, FPGA기구부(17c)와, 임베디드기구부(17d)와, 인터페이스기구부(17e) 및 후면커버기구부(18f)를 포함할 수 있다.The mechanism portion 17 may include a lighting mechanism portion 17a, a sensor mechanism portion 17b, an FPGA mechanism portion 17c, an embedded mechanism portion 17d, an interface mechanism portion 17e, and a back cover mechanism portion 18f. there is.

또한 조명기구부(17a)는 상단과 하단 일측에 각각 센서부(13)와 결합되기 위해 센서부(13) 방향으로 돌출 형성되는 조명요철부(17a-1)를 포함할 수 있다.In addition, the lighting device unit 17a may include lighting uneven parts 17a-1 on one of the upper and lower sides, respectively, that protrude in the direction of the sensor unit 13 to be coupled to the sensor unit 13.

센서기구부(17b)는 센서부(13)를 고정시키도록 상단 및 하단에 각각 결합될 수 있다.The sensor mechanism portion 17b may be coupled to the upper and lower ends respectively to fix the sensor portion 13.

또한 센서기구부(17b)는 상단과 하단 일측에 각각 조명요철부(17a-1)와 결합되는 제1센서요철홈(17b-1)이 형성될 수 있다.In addition, the sensor mechanism portion 17b may be formed with a first sensor groove 17b-1 coupled to the lighting uneven portion 17a-1 on one side of the upper and lower sides, respectively.

또한 센서기구부(17b)는 상단과 하단 일측에 형성된 제1센서요철홈(17b-1)의 반대방향인 FPGA기구부(17c) 방향으로 제2센서요철홈(17b-2)이 형성될 수 있다.Additionally, the sensor mechanism portion 17b may have a second sensor groove 17b-2 formed in the direction of the FPGA mechanism portion 17c, which is opposite to the first sensor groove 17b-1 formed on one side of the upper and lower sides.

FPGA기구부(17c)는 양단에 각각 FPGA기구부(17c)를 고정시키도록 상단 및 하단에 각각 결합될 수 있다.The FPGA mechanism 17c may be coupled to the upper and lower ends respectively to secure the FPGA mechanism 17c at both ends.

또한 FPGA기구부(17c)는 상단과 하단 일측에 각각 제1센서요철홈(17b-1)에 결합되도록 돌출형성되는 FPGA요철부(17c-1)가 형성될 수 있다.In addition, the FPGA mechanism unit 17c may be formed with an FPGA convex-convex portion 17c-1 on one side of the upper and lower sides, respectively, which protrudes to be coupled to the first sensor concave-convex groove 17b-1.

또한 FPGA기구부(17c)는 상단과 하단 일측에 형성된 FPGA요철부(17c-1)의 반대방향인 임베디드기구부(17d) 방향으로 FPGA요철홈(17c-2)이 형성될 수 있다.Additionally, the FPGA mechanism portion 17c may have an FPGA convex-convex groove 17c-2 formed in the direction of the embedded mechanism portion 17d, which is opposite to the FPGA convex-convex portion 17c-1 formed on one side of the upper and lower sides.

임베디드기구부(17d)는 양단에 각각 임베디드부(15)를 고정시키도록 상단 및 하단에 각각 결합될 수 있다.The embedded mechanism portion 17d may be coupled to the upper and lower ends respectively to secure the embedded portion 15 at both ends.

또한 임베디드기구부(17d)는 상단과 하단 일측에 각각 FPGA요철홈(17c-2)과 결합되도록 돌출형성되는 임베디드요철부(17d-1)를 포함할 수 있다.Additionally, the embedded mechanism portion 17d may include an embedded concave-convex portion 17d-1 that protrudes to be coupled to the FPGA concave-convex groove 17c-2 on one side of the upper and lower sides, respectively.

또한 임베디드기구부(17d)는 상단과 하단 일측에 형성된 임베디드요철부(17d-1)의 반대방향인 인터페이스기구부(17e) 방향으로 임베디드요철홈(17d-2)이 형성될 수 있다.Additionally, the embedded mechanism portion 17d may have an embedded concave-convex groove 17d-2 formed in the direction of the interface mechanism portion 17e, which is opposite to the embedded concavo-convex portion 17d-1 formed on one side of the upper and lower sides.

인터페이스기구부(17e)는 양단에 각각 인터페이스부(16)를 고정시키도록 상단 및 하단에 각각 결합될 수 있다.The interface mechanism portion 17e may be coupled to the upper and lower ends respectively to secure the interface portion 16 at both ends.

또한 인터페이스기구부(17e)는 상단과 하단 일측에 각각 임베디드요철홈(17d-2)과 결합되도록 돌출형성되는 인터페이스요철부(17e-1)를 포함할 수 있다.In addition, the interface mechanism portion 17e may include an interface concave-convex portion 17e-1 that protrudes to engage the embedded concave-convex groove 17d-2 on one side of the upper and lower sides, respectively.

또한 인터페이스기구부(17e)는 상단과 하단 일측에 각각 인터페이스요철부(17e-1)의 반대방향인 후면커버 방향으로 인터페이스요철홈(17e-2)을 포함할 수 있다.In addition, the interface mechanism portion 17e may include an interface convex-convex groove 17e-2 on one side of the upper and lower sides, respectively, in the direction of the rear cover opposite to the interface concave-convex portion 17e-1.

후면커버부(20)는 인터페스요철홈(17e-2)과 결합되도록 인터페이스요철홈(17e-2) 방향으로 돌출 형성되는 후면커버요철부(18f-1)를 포함할 수 있다.The rear cover portion 20 may include a rear cover uneven portion 18f-1 that protrudes in the direction of the interface uneven groove 17e-2 so as to be coupled to the interface uneven groove 17e-2.

한편, 기구부(17) 상단 및 하단에 위치된 기구부(17)의 내부는 각각 볼트 결합이 가능하도록 관통형성될 수 있다.Meanwhile, the interior of the mechanism unit 17 located at the upper and lower ends of the mechanism unit 17 may be formed through penetration to enable bolt connection.

이때 볼트로 조명 결합용 볼트(19a)와, 카메라 결합용 볼트(19b)로 나뉘어질 수 있다.At this time, the bolt can be divided into a bolt for coupling lighting (19a) and a bolt for coupling a camera (19b).

여기서 조명 결합용 볼트(19a)는 조명기구부(17a)와 센서기구부(17b)를 관통하되, 센서기구부(17b)의 일부가 관통되고, 카메라 결합용 볼트(19b)는 후면커버부(20)부터 센서부(13)의 일부까지 관통될 수 있다.Here, the lighting coupling bolt (19a) penetrates the lighting fixture portion (17a) and the sensor mechanism portion (17b), but a portion of the sensor mechanism portion (17b) penetrates, and the camera coupling bolt (19b) extends from the rear cover portion (20). It may penetrate up to a portion of the sensor unit 13.

다만 이는 예시일 뿐, 조명 결합용 볼트(19a) 또는 카메라 결합용 볼트(19b) 하나로 기구부를 다 통과시켜 기구부를 결합시킬 수 있다.However, this is only an example, and the mechanism parts can be coupled by passing all of them through the lighting coupling bolt (19a) or the camera coupling bolt (19b).

도 7 및 도 8은 본 발명의 다른 실시예에 따른 딥러닝을 기반으로 하는 머신비전 카메라를 나타낸 도면이다.Figures 7 and 8 are diagrams showing a machine vision camera based on deep learning according to another embodiment of the present invention.

도 7 및 도 8을 참조하면, 각각의 모듈로 구성되어, 각 모듈을 선택하여 조립하는 모듈부(100)와, 모듈부(100)를 결합하는 결합부(200)를 포함할 수 있다.Referring to FIGS. 7 and 8 , it is composed of individual modules and may include a module unit 100 for selecting and assembling each module, and a coupling unit 200 for combining the module units 100.

이때 모듈부(100)는 렌즈(11a)가 조립되고, 렌즈(11a)의 사양에 따라 조립이 가능한 렌즈 마운트부(11)와, 파장이나 밝기를 조절하는 조명부(12)와, 렌즈(11a)가 상기 렌즈 마운트부(11)에서 통과하여 입사되는 빛을 수신하는 센서부(13)와, 영상처리 동작 및 성능을 검증하는 FPGA부(14)와, 영상을 분석하고 결과를 수신하는 임베디드부(15) 및 상기 임베디드부(15)에서 분석된 결과값을 외부로 출력신호를 보내주는 인터페이스부(16)를 포함할 수 있다.At this time, the module unit 100 includes a lens 11a assembled, a lens mount unit 11 that can be assembled according to the specifications of the lens 11a, a lighting unit 12 that adjusts the wavelength or brightness, and a lens 11a. a sensor unit 13 that receives light passing through the lens mount unit 11, an FPGA unit 14 that verifies image processing operation and performance, and an embedded unit that analyzes the image and receives the results ( 15) and an interface unit 16 that sends an output signal of the result value analyzed by the embedded unit 15 to the outside.

또한 결합부(200)는 센서부(13)와 결합되는 후면커버부(20)를 포함할 수 있다.Additionally, the coupling portion 200 may include a rear cover portion 20 coupled to the sensor portion 13.

또한 결합부(200)는 렌즈 마운트부(11)와, 조명부(12)와, 센서부(13)와, FPGA부(14)와, 임베디드부(15) 및 인터페이스부(16)를 결합시킬 수 있다.Additionally, the coupling unit 200 can combine the lens mount unit 11, the lighting unit 12, the sensor unit 13, the FPGA unit 14, the embedded unit 15, and the interface unit 16. there is.

이는 볼트부를 통해 결합 상태를 고정시킬 수 있다.This allows the coupled state to be fixed through the bolt portion.

이때 렌즈 마운트부(11)와, 조명부(12)와, 센서부(13)와, FPGA부(14)와, 임베디드부(15) 및 인터페이스부(16)의 각각의 상세 결합과, 전기적 결합은 도 1 내지 6을 참조하여 기재된 상술한 기술과 동일할 수 있다.At this time, the detailed coupling and electrical coupling of the lens mount unit 11, the lighting unit 12, the sensor unit 13, the FPGA unit 14, the embedded unit 15, and the interface unit 16 are It may be the same as the above-described technology described with reference to FIGS. 1 to 6.

따라서, 본 발명에 따른 딥러닝을 기반으로 하는 머신비전 카메라(10)를 통해 딥러닝을 기반으로 하는 머신비전 카메라로 각각의 모듈방식으로 사용환경에 맞게 각각의 모듈을 조합하여 최적의 스마트 카메라를 제작할 수 있다.Therefore, through the machine vision camera 10 based on deep learning according to the present invention, the optimal smart camera is created by combining each module in a modular manner to suit the usage environment. It can be produced.

즉, 수백가지 이상의 조합을 만들어 낼 수 있어서, 다양한 제조 환경에 맞는 스마트 카메라를 제공할 수 있다.In other words, more than hundreds of combinations can be created, providing smart cameras suitable for various manufacturing environments.

또한 이미 조립이 완성되어 현장에서 설치되어 있는 경우에도 모듈 중 한개 또는 다수개의 모듈의 변경이 필요할 때에도 쉽게 교체할 수 있다.In addition, even if assembly has already been completed and installed on site, it can be easily replaced when one or multiple modules need to be changed.

이는, 제조업체에서 고객의 다양한 요구에 맞는 맞춤형 스마트 카메라를 제작할 수 있다.This allows manufacturers to create customized smart cameras that meet the diverse needs of customers.

도면과 명세서에서 최적의 실시예들이 개시되었다. 여기서, 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면, 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Optimal embodiments are disclosed in the drawings and specification. Here, specific terms are used, but they are used only for the purpose of explaining the present invention and are not used to limit the meaning or scope of the present invention described in the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached patent claims.

1 : 딥러닝을 기반으로 하는 머신비전 카메라
10 : 모듈부
11 : 렌즈 마운트부
11a : 렌즈
11b : 렌즈 체결부
11c : 투명판
12 : 조명부
12a : 조명커넥터
13 : 센서부
13a : 영상센서
13b : 제1센서커넥터
13c : 제2센서커넥터
14 : FPGA부
14a : 제1FPGA커넥터
14b : 제2FPGA커넥터
15 : 임베디드부
15a : 제1임베디드커넥터
15b : 제2임베디드커넥터
16 : 인터페이스부
16a : 인터페이스커넥터
16b : 인터페이스결합부
17 : 기구부
17a : 조명기구부
17a-1 : 조명요철부
17b : 센서기구부
17b-1 : 제1센서요철홈
17b-2 : 제2센서요철홈
17c : FPGA기구부
17c-1 : FPGA요철부
17c-2 : FPGA요철홈
17d : 임베디드기구부
17d-1 : 임베디드요철부
17d-2 :임베디드요철홈
17e : 인터페이스기구부
17e-1 : 인터페이스요철부
17e-2 : 인터페이스요철홈
18f : 후면커버기구부
18f-1 : 후면커버요철부
19a : 조명 결합용 볼트
19b : 카메라 결합용 볼트
20 : 후면커버부
100 : 모듈부
200 : 결합부
1: Machine vision camera based on deep learning
10: module part
11: Lens mount part
11a: lens
11b: Lens fastening part
11c: Transparent plate
12: lighting unit
12a: Lighting connector
13: sensor unit
13a: Image sensor
13b: first sensor connector
13c: 2nd sensor connector
14: FPGA part
14a: 1st FPGA connector
14b: 2nd FPGA connector
15: Embedded part
15a: 1st embedded connector
15b: 2nd embedded connector
16: interface part
16a: Interface connector
16b: Interface coupling part
17: Mechanism part
17a: Lighting device part
17a-1: Lighting uneven part
17b: Sensor mechanism part
17b-1: First sensor concavo-convex groove
17b-2: Second sensor uneven groove
17c: FPGA mechanism part
17c-1: FPGA concavo-convex portion
17c-2: FPGA uneven groove
17d: embedded mechanism
17d-1: Embedded uneven part
17d-2: Embedded uneven groove
17e: Interface mechanism part
17e-1: Interface uneven portion
17e-2: Interface uneven groove
18f: Rear cover mechanism part
18f-1: Rear cover uneven part
19a: Bolt for combining lighting
19b: Camera coupling bolt
20: Rear cover part
100: module part
200: coupling part

Claims (1)

각각의 모듈로 구성되어, 각 모듈을 선택하여 조립하는 모듈부를 포함하고,
상기 모듈부는,
렌즈가 조립되고, 상기 렌즈의 사양에 따라 조립이 가능한 렌즈 마운트부와,
파장이나 밝기를 조절하는 조명부와,
상기 렌즈가 상기 렌즈 마운트부에서 통과하여 입사되는 빛을 수신하고, 영산센서를 구비하는 센서부와,
영상처리 동작 및 성능을 검증하는 FPGA부와,
영상을 분석하고 결과를 수신하는 임베디드부와,
상기 임베디드부에서 분석된 결과값을 외부로 출력신호를 보내주는 인터페이스부와,
조립이 가능하도록 구성된 기구부 및
상기 인터페이스의 모양에 따라 형성되는 후면커버부를 포함하고,
상기 렌즈 마운트부는, 상기 렌즈가 장착되는 장착부를 포함하고, 상기 장착부에 장착된 상기 렌즈를 고정시키는 렌즈 체결부와, 중앙이 관통 형성되되, 상기 영상센서로 이물질이 유입되는 것을 방지하기 위해 관통 형성된 부분에 결합되는 투명판을 포함하고,
상기 조명부는 타측에 상기 센서부 방향으로 돌출 형성되어 상기 센서부와 전기적 결합되는 조명커넥터를 포함하고,
상기 센서부는, 상단 일측에 상기 조명커넥터와 전기적 결합되도록 제1센서커넥터가 돌출 형성되고, 하단 일측에 상기 FPGA부와 전기적 결합되기 위해 상기 FPGA부 방향으로 제2센서커넥터가 돌출 형성되며,
상기 영상센서는, 상기 제1센서커넥터와 제2센서커넥터 사이에 위치되고, 상기 투명판과 대응되게 위치되며,
상기 FPGA부는, 상단 일측에 상기 임베디드부와 전기적 결합되도록 상기 임베디드부 방향으로 제1FPGA커넥터가 돌출 형성되고,
상기 FPGA기구부는 하단 일측에 제2센서커넥터와 전기적 결합되기 위해 상기 제2센서커넥터 방향으로 제2FPGA커넥터가 돌출 형성되고,
상기 임베디드부는, 상단 일측에 상기 제1FPGA커넥터와 전기적 결합되도록 제1FPGA커넥터 방항으로 제1임베디드커넥터가 돌출 형성되고, 하단 일측에 상기 인터페이스부와 전기적 결합되기 위해 상기 인터페이스부 방향으로 제2임베디드커넥터가 돌출 형성되고,
상기 인터페이스부는, 하단 일측에 상기 제2임베디드커넥터와 전기적 결합되도록 인터페이스커넥터가 형성되고, 상단 일측에 상기 후면커버와 결합되도록 후면커버 방향으로 돌출 형성되는 인터페이스결합부를 포함하며,
상기 센서부와, FPGA부와, 임베디드부 및 인터페이스부는 PCB BOARD로 구성되고,
상기 기구부는, PCB BOARD 상단 및 하단에 각각 체결되고, PCB BOARD가 체결되어 맞닿는 곳에 PCB BOARD의 손상 등을 방지하기 위해 상기 기구부 내측에 보호캡이 형성되고,
상기 기구부는, 조명기구부와, 센서기구부와, FPGA기구부와, 임베디드기구부와, 인터페이스기구부 및 후면커버기구부를 포함하고,
상기 조명기구부는, 상단과 하단 일측에 각각 상기 센서부와 결합되기 위해 상기 센서부 방향으로 돌출 형성되는 조명요철부를 포함하고,
상기 센서기구부는, 센서부를 고정시키도록 상단 및 하단에 각각 결합되고, 상단과 하단 일측에 각각 조명요철부와 결합되는 제1센서요철홈이 형성되고, 상단과 하단 일측에 형성된 제1센서요철홈의 반대방향인 FPGA기구부 방향으로 제2센서요철홈이 형성되며,
상기 FPGA기구부는, 양단에 각각 FPGA기구부를 고정시키도록 상단 및 하단에 각각 결합되고, 상단과 하단 일측에 각각 제1센서요철홈에 결합되도록 돌출 형성되는 FPGA요철부가 형성되고, 상단과 하단 일측에 형성된 FPGA요철부의 반대방향인 임베디드기구부 방향으로 FPGA요철홈이 형성되며,
상기 임베디드기구부는 양단에 각각 임베디드부를 고정시키도록 상단 및 하단에 각각 결합될 수 있고, 상단과 하단 일측에 각각 FPGA요철홈과 결합되도록 돌출 형성되는 임베디드요철부를 포함하고, 상단과 하단 일측에 형성된 임베디드요철부의 반대방향인 인터페이스기구부 방향으로 임베디드요철홈이 형성되고,
상기 인터페이스기구부는 양단에 각각 인터페이스부를 고정시키도록 상단 및 하단에 각각 결합되고, 상단과 하단 일측에 각각 임베디드요철홈과 결합되도록 돌출 형성되는 인터페이스요철부를 포함하고, 상단과 하단 일측에 각각 인터페이스요철부의 반대방향인 후면커버 방향으로 인터페이스요철홈을 포함하며,
상기 후면커버부는 인터페스요철홈과 결합되도록 인터페이스요철홈 방향으로 돌출 형성되는 후면커버요철부를 포함하고,
상기 기구부 상단 및 하단에 위치된 기구부의 내부는 각각 볼트 결합이 가능하도록 관통형성되며, 볼트로 조명 결합용 볼트와, 카메라 결합용 볼트로 나뉘어지고,
상기 조명 결합용 볼트는, 상기 조명기구부와 상기 센서기구부를 관통하되, 상기 센서기구부의 일부가 관통되고, 상기 카메라 결합용 볼트는 상기 후면커버부부터 센서부의 일부까지 관통될 수 있는 것인 머신비전 카메라.
It is composed of each module and includes a module part for selecting and assembling each module,
The module part,
A lens mount unit on which a lens is assembled and can be assembled according to the specifications of the lens,
A lighting unit that controls wavelength or brightness,
a sensor unit that receives light incident on the lens as it passes through the lens mount unit and includes a Youngsan sensor;
An FPGA unit that verifies image processing operation and performance,
An embedded unit that analyzes the video and receives the results,
an interface unit that sends an output signal from the result analyzed by the embedded unit to the outside;
A mechanism configured to enable assembly and
It includes a rear cover portion formed according to the shape of the interface,
The lens mount portion includes a mounting portion on which the lens is mounted, a lens fastening portion that secures the lens mounted on the mounting portion, and a central portion formed through the penetrating portion to prevent foreign substances from entering the image sensor. It includes a transparent plate coupled to the portion,
The lighting unit includes a lighting connector on the other side that protrudes in the direction of the sensor unit and is electrically coupled to the sensor unit,
The sensor unit has a first sensor connector protruding on one upper side to be electrically coupled to the lighting connector, and a second sensor connector protruding in the direction of the FPGA unit on one lower side to be electrically coupled to the FPGA unit,
The image sensor is located between the first sensor connector and the second sensor connector and is positioned to correspond to the transparent plate,
A first FPGA connector is formed on one upper side of the FPGA unit to protrude in the direction of the embedded part to be electrically connected to the embedded part,
The FPGA mechanism unit has a second FPGA connector protruding on one side of the lower end in the direction of the second sensor connector to be electrically coupled to the second sensor connector,
The embedded part has a first embedded connector protruding in the direction of the first FPGA connector to be electrically coupled to the first FPGA connector on one side of the upper part, and a second embedded connector in the direction of the interface part to be electrically coupled to the interface part on one side of the lower part. A protrusion is formed,
The interface unit includes an interface connector formed on one side of the lower end to be electrically coupled to the second embedded connector, and an interface coupling part formed on one side of the upper end that protrudes in the direction of the rear cover to be coupled to the rear cover,
The sensor unit, FPGA unit, embedded unit, and interface unit are composed of a PCB BOARD,
The mechanism part is fastened to the top and bottom of the PCB BOARD, and a protective cap is formed inside the mechanism part to prevent damage to the PCB BOARD at the place where the PCB BOARD is fastened and comes into contact,
The mechanism part includes a lighting mechanism part, a sensor mechanism part, an FPGA mechanism part, an embedded mechanism part, an interface mechanism part, and a back cover mechanism part,
The lighting fixture unit includes lighting irregularities on one side of the upper and lower sides, respectively, that protrude in the direction of the sensor unit to be coupled to the sensor unit,
The sensor mechanism unit is coupled to the upper and lower ends to fix the sensor unit, and a first sensor concave-convex groove coupled to the lighting concave-convex portion is formed on one side of the upper and lower portions, and a first sensor concavo-convex groove is formed on one side of the upper and lower sides. A second sensor groove is formed in the direction opposite to the FPGA mechanism,
The FPGA mechanism is coupled to the top and bottom to secure the FPGA mechanism to both ends, and an FPGA concave-convex portion is formed to protrude to be coupled to the first sensor concave-convex groove on one side of the upper and lower sides, respectively, and an FPGA convex-convex portion is formed on one side of the top and bottom. An FPGA concave-convex groove is formed in the direction of the embedded mechanism, which is opposite to the formed FPGA concavo-convex portion.
The embedded mechanism may be coupled to the upper and lower ends respectively to fix the embedded parts at both ends, and includes embedded concavo-convex portions protruding and formed on one side of the upper and lower sides to engage with the FPGA concavo-convex grooves, and embedded portions formed on one side of the upper and lower sides. An embedded concavo-convex groove is formed in the direction of the interface mechanism, which is opposite to the concavo-convex portion,
The interface mechanism part is coupled to the upper and lower ends to fix the interface parts at both ends, respectively, and includes an interface concavo-convex portion protruding to engage with an embedded concave-convex groove on one side of the upper and lower sides, respectively, and an interface concavo-convex portion on one side of the upper and lower portions, respectively. It includes an interface concave-convex groove in the opposite direction of the rear cover,
The rear cover portion includes a rear cover concavo-convex portion that protrudes in the direction of the interface concave-convex groove so as to be coupled to the interface concavo-convex groove,
The interior of the mechanism located at the top and bottom of the mechanism is formed through a hole to enable bolt connection, and is divided into bolts for combining lighting and bolts for combining cameras,
The lighting coupling bolt penetrates the lighting fixture portion and the sensor mechanism portion, but passes through a portion of the sensor mechanism portion, and the camera coupling bolt penetrates from the rear cover portion to a portion of the sensor portion. camera.
KR1020230014362A 2022-05-10 2023-02-02 Machine vision camera based on deep learning KR20230157856A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230014362A KR20230157856A (en) 2022-05-10 2023-02-02 Machine vision camera based on deep learning

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220057144A KR102498107B1 (en) 2022-05-10 2022-05-10 Prefab module smart camera
KR1020230014362A KR20230157856A (en) 2022-05-10 2023-02-02 Machine vision camera based on deep learning

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220057144A Division KR102498107B1 (en) 2022-05-10 2022-05-10 Prefab module smart camera

Publications (1)

Publication Number Publication Date
KR20230157856A true KR20230157856A (en) 2023-11-17

Family

ID=85224857

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220057144A KR102498107B1 (en) 2022-05-10 2022-05-10 Prefab module smart camera
KR1020230014362A KR20230157856A (en) 2022-05-10 2023-02-02 Machine vision camera based on deep learning

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220057144A KR102498107B1 (en) 2022-05-10 2022-05-10 Prefab module smart camera

Country Status (1)

Country Link
KR (2) KR102498107B1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050086997A (en) 2004-02-24 2005-08-31 주식회사 케이티 Method of detecting status of static route
KR101871560B1 (en) * 2008-12-29 2018-06-27 레드.컴, 엘엘씨 Modular digital camera
JP5822630B2 (en) * 2011-10-04 2015-11-24 富士機械製造株式会社 Camera device
KR20130061511A (en) * 2011-12-01 2013-06-11 삼성전자주식회사 Digital photographing system and method for operating digital photographing system
JP6890449B2 (en) * 2017-03-30 2021-06-18 キヤノン株式会社 Electronics and control methods

Also Published As

Publication number Publication date
KR102498107B1 (en) 2023-02-09

Similar Documents

Publication Publication Date Title
CN110896436B (en) Camera module and electronic device
US11240444B2 (en) Display panel, display device and image acquiring method thereof
JP2006293302A (en) Nonadjustable focusing type camera module
CN100349062C (en) Camera and photographic system
US7586700B2 (en) Method for adjusting optical axis of imaging optical system and lens system
US9386198B2 (en) Image pickup apparatus having imaging sensor package
CN102520565A (en) Imaging apparatus
CN111856687A (en) Imaging lens module with plastic lens cone and electronic device
US8180212B2 (en) Optical system for infinite image formation and method for fabricating camera module using the same
KR20180023172A (en) Dual camera module
TWI759835B (en) Imaging lens assembly module, camera module and electronic device
KR20230157856A (en) Machine vision camera based on deep learning
JP2001189880A (en) Digital camera
JP2006215443A (en) Method for fixing lens frame of lens device, and imaging apparatus and optical apparatus using the same
CN110365891A (en) A kind of camera module and mobile terminal
JP2013092588A (en) Stereoscopic imaging device and electronic information apparatus
JP7283100B2 (en) Imaging device
CN210444382U (en) Camera shooting module
KR20100113732A (en) Camera module
KR200389715Y1 (en) View Finder Extender Having Liquid Crystal Display
JP6504970B2 (en) Prism dustproof structure of optical equipment
US8134601B2 (en) Lens barrel having camera shake corrector and photographing apparatus equipped therewith
TWM604892U (en) Imaging lens assembly, camera module and electronic device
JP2007299830A (en) Structure for fitting flexible board and camera
JP2006217475A (en) Image sensor mounting method, pressing plate, holding mechanism and imaging apparatus