KR102098794B1 - Web based system and method for analyzing cell profile using 3d brain neural circuit image - Google Patents

Web based system and method for analyzing cell profile using 3d brain neural circuit image Download PDF

Info

Publication number
KR102098794B1
KR102098794B1 KR1020180134576A KR20180134576A KR102098794B1 KR 102098794 B1 KR102098794 B1 KR 102098794B1 KR 1020180134576 A KR1020180134576 A KR 1020180134576A KR 20180134576 A KR20180134576 A KR 20180134576A KR 102098794 B1 KR102098794 B1 KR 102098794B1
Authority
KR
South Korea
Prior art keywords
cell profile
brain
information
cell
web
Prior art date
Application number
KR1020180134576A
Other languages
Korean (ko)
Inventor
강병수
김남욱
정성진
최주연
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020180134576A priority Critical patent/KR102098794B1/en
Application granted granted Critical
Publication of KR102098794B1 publication Critical patent/KR102098794B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

A web-based cell profile analysis system is disclosed. According to the present invention, the system comprises: a pre-processing module for generating three-dimensional (3D) brain image data for each of a wild sample and a mutant sample when the wild sample and the mutant sample corresponding to a specific region of a brain are photographed based on a predetermined photographing type, and are inputted as one or more two-dimensional (2D) brain images; a cell profile extraction unit for extracting cell profile information from the 3D brain image data; a quantitative analysis unit for performing quantitative analysis based on the extracted cell-related profiling information; and a control module for controlling the pre-processing module, the cell profile extraction unit, and the quantitative analysis unit. Accordingly, brain disease research may be proceeded easily through the cell profile.

Description

삼차원 브레인 신경회로 영상을 이용한 웹 기반 셀 프로파일 분석 시스템 및 방법{WEB BASED SYSTEM AND METHOD FOR ANALYZING CELL PROFILE USING 3D BRAIN NEURAL CIRCUIT IMAGE}Web-based cell profile analysis system and method using 3D brain neural circuit images {WEB BASED SYSTEM AND METHOD FOR ANALYZING CELL PROFILE USING 3D BRAIN NEURAL CIRCUIT IMAGE}

본 발명은 삼차원(3D) 브레인 신경회로 영상을 이용하여 웹 기반의 셀 프로파일을 분석하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for analyzing web-based cell profiles using three-dimensional (3D) brain neural circuit images.

생물학 연구 분야에 있어서 차세대 시퀀싱 기술의 발전으로 다양한 영상 및 영상 데이터, 활성 데이터, 분자(후성유전체, 전사체, 단백질체 등) 데이터가 생성되고 있으며, 이들 데이터들은 고해상도가 요구되는 등의 특성으로 인해 대용량 데이터라는 특징을 갖는다.With the development of next-generation sequencing technology in the field of biological research, various image and image data, active data, and molecular (epigenetic, transcript, proteome, etc.) data are generated, and these data are large-capacity due to characteristics such as high resolution. It has the characteristic of data.

기존 시스템 장치에서는 제한된 특정 영상 데이터의 활성 및 분자 등 영역별 세그먼테이션 데이터 확보 및 추출이 어려웠고, 특정 시스템은 특정 타입의 영상 데이터만 입력 받아 처리하도록 설계되어 있어, 여러 타입의 영상 데이터를 입력 받기에는 제한이 있었다.In the existing system device, it was difficult to obtain and extract segmentation data for each area such as activity and molecules of limited specific image data, and certain systems were designed to receive and process only specific types of image data, so it is limited to receive various types of image data. There was.

또한, 볼륨 렌더링을 위해 2D 영상 데이터들을 3D 데이터화하기 위해서는 시프팅과 스티칭 처리 과정이 필요하다. 이러한 처리 기능들은 특정 프로그램에 의존하는 시스템적 제한 요소가 있으며, 대규모 데이터 같은 경우 렌더링 처리 시 슈퍼컴퓨터를 사용해야만 하는 한계가 존재한다.In addition, shifting and stitching processes are required to 3D data 2D image data for volume rendering. These processing functions have a system limitation depending on a specific program, and in the case of large-scale data, there is a limitation that a supercomputer must be used in rendering processing.

이에 따라, 2D 영상 데이터들을 3D 데이터화하기 위한 장비 및 프로그램을 용이하게 이용할 수 없는 해당 분야의 연구자들은 연구를 위해 필요한 3D 영상을 쉽게 생성하여 활용할 수 없는 문제를 경험하고 있고, 이는 뇌(Brain) 연구의 발달을 저해시키는 요인이 되고 있다.Accordingly, researchers in the field, which cannot easily use equipment and programs for 3D data 2D image data, are experiencing a problem that 3D images necessary for research cannot be easily generated and utilized, which is a brain study. It is becoming a factor to inhibit the development of.

아울러, 3D 기반의 브레인 이미지에서 셀 프로파일 정보를 추출하는데 있어, 다양한 이미지로 인해 제약요소가 많으며 효율적인 정보 추출에 어려움이 발생되고 있다.In addition, in extracting cell profile information from a 3D-based brain image, there are many constraints due to various images and difficulty in efficiently extracting information.

한편, 상기와 같은 정보는 본 발명의 이해를 돕기 위한 백그라운드 정보로서만 제시될 뿐이다. 상기 내용 중 어느 것이라도 본 발명에 관한 종래 기술로서 적용 가능할지 여부에 관해, 어떤 결정도 이루어지지 않았고, 또한 어떤 주장도 이루어지지 않는다.Meanwhile, the above information is only presented as background information to help understanding of the present invention. As to whether or not any of the above is applicable as the prior art related to the present invention, no decision has been made, and no claim is made.

한국등록특허공보 제10-1630257호Korean Registered Patent Publication No. 10-1630257

본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명의 일 실시 예는 타입이 다른 기기를 이용하여 촬영된 2D 브레인 영상을 3D 브레인 영상 데이터로 생성하는 방법을 제안한다.The present invention was created in view of the above-described circumstances, and an embodiment of the present invention proposes a method of generating 2D brain images captured using devices of different types as 3D brain image data.

또한, 본 발명의 일 실시 예는 3D 브레인 영상 데이터에서 셀 프로파일을 추출하는 방법을 제안한다.In addition, an embodiment of the present invention proposes a method of extracting a cell profile from 3D brain image data.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description. Will be able to.

본 발명의 일 실시 예에 따른 웹 기반 셀 프로파일 분석 시스템은 소정의 촬영 타입에 기초하여 촬영되되 브레인의 특정 영역에 대응되는 정상(Wild) 샘플 및 비정상(Mutant) 샘플 각각이 하나 이상의 2D 브레인 영상으로 입력되는 경우, 상기 정상 샘플 및 상기 비정상 샘플 각각에 대해 3D 브레인 영상 데이터를 생성하는 전처리 모듈; 상기 3D 브레인 영상 데이터에서 셀 프로파일 정보를 추출하는 셀 프로파일 추출부; 추출된 상기 셀 프로파일 정보에 기초하여 정량 분석을 수행하는 정량 분석부; 및 상기 전처리 모듈, 셀 프로파일 추출부 및 정량 분석부를 제어하는 제어 모듈을 포함할 수 있다.The web-based cell profile analysis system according to an embodiment of the present invention is photographed based on a predetermined shooting type, but each of a normal sample and an abnormal sample corresponding to a specific region of the brain is one or more 2D brain images. A pre-processing module that, when input, generates 3D brain image data for each of the normal sample and the abnormal sample; A cell profile extraction unit for extracting cell profile information from the 3D brain image data; A quantitative analysis unit for performing quantitative analysis based on the extracted cell profile information; And it may include a control module for controlling the pre-processing module, cell profile extraction unit and quantitative analysis unit.

여기서, 상기 제어 모듈은, 상기 촬영 타입이 제1 타입인 경우, 상기 2D 브레인 영상 간의 오버랩 영역 정보를 수신하고, 수신된 오버랩 영역 정보에 기초하여, 상기 2D 브레인 영상이 스티칭(Stitching)되도록 상기 전처리 모듈을 제어하며, 스티칭된 영상을 특정 축에 대해 얼라인먼트(Alignment)가 수행되도록 상기 전처리 모듈을 제어할 수 있다.Here, when the photographing type is the first type, the control module receives the overlap region information between the 2D brain images and, based on the received overlap region information, the pre-processing so that the 2D brain images are stitched. The module may be controlled, and the pre-processing module may be controlled to align the stitched image with respect to a specific axis.

보다 구체적으로, 상기 제어 모듈은, 상기 촬영 타입이 제2 타입인 경우, 스티칭 작업 폴더 및 얼라인먼트 작업 폴더를 생성하고, 파일명을 소정의 기준으로 재편집하며, 그리드가 A*B*C(A, B, C는 1 이상의 자연수이며 3차원을 나타내는 각축)로 설정된 경우, C축을 기준으로 AB 평면 상에 위치하는 복수의 2D 브레인 영상을 오버랩 영역 정보에 기초하여 스티칭하도록 상기 전처리 모듈을 제어하며, 상기 C축을 기준으로 스티칭된 영상들을 정합하는 얼라인먼트가 수행되도록 상기 전처리 모듈을 제어할 수 있다.More specifically, when the photographing type is the second type, the control module generates a stitching work folder and an alignment work folder, re-edits the file name based on a predetermined criterion, and the grid is A * B * C (A, B, C is a natural number of 1 or more and each axis indicating 3D), the pre-processing module is controlled to stitch a plurality of 2D brain images located on the AB plane based on the overlap region information based on the C axis, and the The pre-processing module may be controlled to perform alignment to match stitched images based on the C-axis.

보다 구체적으로, 상기 제어 모듈은, 상기 2D 브레인 영상이 스티칭(Stitching)되는 경우, 스티칭이 수행되는 2개의 2D 브레인 영상 파일에 대해 아래 식 1)을 통해 시프팅시킬 정도를 계산하여 시프팅하며, 시프팅된 영상들을 스티칭하도록 상기 전처리 모듈을 제어할 수 있다.More specifically, when the 2D brain image is stitched, the control module calculates and shifts the degree to which the 2D brain image files to be stitched are shifted through Equation 1) below, The pre-processing module may be controlled to stitch shifted images.

식 1)Equation 1)

Figure 112018109541441-pat00001
Figure 112018109541441-pat00001

(여기서, 여기서, FI1(u, v), FI2(u, v)는 서로 시프팅되는 2개의 이미지 I1(x, y), I2(x, y)를 푸리에 변환 결과)(Here, here, FI 1 (u, v), FI2 (u, v) is the result of Fourier transform of two images I 1 (x, y), I 2 (x, y) shifted from each other)

보다 구체적으로, 상기 제어 모듈은, 브레인 이미지들을 시프팅시키는 동작 이후에, 이미지들의 겹쳐진 영역에 대해 아래 식2)를 통해 상관계수 r값을 계산하고, r 값이 0.8 미만인 경우는 스티칭이 불가능하다는 메세지를 생성할 수 있다.More specifically, after the operation of shifting brain images, the control module calculates a correlation coefficient r through Equation 2) below for the overlapped regions of the images, and stitching is impossible when the r value is less than 0.8. You can generate a message.

식 2)Equation 2)

Figure 112018109541441-pat00002
Figure 112018109541441-pat00002

Figure 112018109541441-pat00003
Figure 112018109541441-pat00003

또한, 상기 셀 프로파일 정보는, 세포의 형태(Intensity) 정보, 세포의 개수 정보, 세포의 볼륨 정보 중 적어도 하나를 포함할 수 있다.In addition, the cell profile information may include at least one of cell type information, cell number information, and cell volume information.

본 발명의 일 실시 예에 따른 웹 기반 셀 프로파일 분석 방법은 소정의 촬영 타입에 기초하여 촬영된, 브레인의 특정 영역에 대응되는 정상(Wild) 샘플 및 비정상(Mutant) 샘플 각각이 하나 이상의 2D 브레인 영상으로 입력되는 단계; 상기 정상 샘플 및 상기 비정상 샘플 각각에 대해 3D 브레인 영상 데이터를 생성하는 전처리 단계; 상기 3D 브레인 영상 데이터에서 셀(Cell) 프로파일 정보를 추출하는 단계; 및 추출된 상기 셀 프로파일 정보에 기초하여 정량 분석을 수행하는 단계를 포함할 수 있다.The web-based cell profile analysis method according to an embodiment of the present invention may include one or more 2D brain images of each of a normal sample and an abnormal sample corresponding to a specific region of the brain, which are photographed based on a predetermined shooting type. Inputted into; A pre-processing step of generating 3D brain image data for each of the normal sample and the abnormal sample; Extracting cell profile information from the 3D brain image data; And performing a quantitative analysis based on the extracted cell profile information.

보다 구체적으로, 상기 전처리 단계는, 상기 촬영 타입이 제1 타입인 경우, 상기 2D 브레인 영상 간의 오버랩 영역 정보를 수신하고, 수신된 오버랩 영역 정보에 기초하여, 상기 2D 브레인 영상을 스티칭하는 단계; 및 스티칭된 영상을 특정 축에 대해 얼라인먼트(Alignment)를 수행하는 단계를 포함할 수 있다.More specifically, in the pre-processing step, when the photographing type is the first type, receiving overlap region information between the 2D brain images and stitching the 2D brain image based on the received overlap region information; And performing alignment of the stitched image with respect to a specific axis.

보다 구체적으로, 상기 전처리 단계는, 상기 촬영 타입이 제2 타입인 경우, 스티칭 작업 폴더 및 얼라인먼트 작업 폴더를 생성하고, 파일명을 소정의 기준으로 재편집하는 단계; 그리드가 A*B*C(A, B, C는 1 이상의 자연수이며 3차원을 나타내는 각축)로 설정된 경우, C축을 기준으로 AB 평면 상에 위치하는 복수의 2D 브레인 영상을 오버랩 영역 정보에 기초하여 스티칭하는 단계; 및 상기 C축을 기준으로 스티칭된 영상들을 정합하는 얼라인먼트를 수행하는 단계를 포함할 수 있다.More specifically, the pre-processing step includes: when the photographing type is the second type, generating a stitching work folder and an alignment work folder, and re-editing the file name based on a predetermined criterion; When the grid is set to A * B * C (A, B, C are natural numbers of 1 or more and each axis representing 3D), a plurality of 2D brain images located on the AB plane based on the C axis are based on the overlap area information. Stitching; And aligning stitched images based on the C-axis.

보다 구체적으로, 상기 셀 관련 프로파일링 정보는, 세포의 형태(Intensity) 정보, 세포의 개수 정보, 세포의 볼륨 정보 중 적어도 하나를 포함할 수 있다.More specifically, the cell-related profiling information may include at least one of cell type information, cell number information, and cell volume information.

본 발명에서 이루고자 하는 기술적 과제들의 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solving means of the technical problems to be achieved in the present invention is not limited to the above-mentioned solving means, and other solving means not mentioned are apparent to those skilled in the art from the following description. It can be understood.

이에, 본 발명의 다양한 실시예에 따르면 아래와 같은 효과가 도출될 수 있다.Accordingly, according to various embodiments of the present invention, the following effects may be derived.

첫째로, 2D 브레인 영상이 3D 브레인 영상 데이터로 수월하게 변환될 수 있다.First, a 2D brain image can be easily converted into 3D brain image data.

둘째로, 정상 상태의 브레인 상태와 비정상 상태의 브레인 상태가 간편한 방법에 의해 비교될 수 있으므로, 브레인 질환 진단이 수월하게 수행될 수 있으며, 브레인 질환의 원인을 규명하는 타겟 발굴에 도움이 될 수 있다.Second, since the brain state of the normal state and the brain state of the abnormal state can be compared by a simple method, the diagnosis of brain disease can be performed easily, and it may be helpful in discovering a target to identify the cause of the brain disease. .

도 1은 본 발명의 일 실시 예에 따른 웹기반 셀 프로파일 분석 시스템의 개략적인 구동을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 웹 기반 셀 프로파일 분석 시스템의 구성을 나타내는 블록도이다.
도 3 및 도 4는 본 발명의 일 실시 예에 따른 웹 기반 셀 프로파일 분석 시스템의 구체적인 동작을 설명하기 위한 시퀀스도이다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
1 is a view for explaining a schematic operation of the web-based cell profile analysis system according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a web-based cell profile analysis system according to an embodiment of the present invention.
3 and 4 are sequence diagrams for explaining a specific operation of the web-based cell profile analysis system according to an embodiment of the present invention.
Further scope of applicability of the present invention will become apparent from the following detailed description. However, various changes and modifications within the spirit and scope of the present invention may be clearly understood by those skilled in the art, and thus, it should be understood that specific embodiments such as detailed description and preferred embodiments of the present invention are given as examples only.

이하 첨부된 도면들을 참조하여 본 발명의 다양한 실시 예를 보다 상세하게 설명한다. 다만, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in the description of the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.

도 1은 본 발명의 일 실시 예에 따른 웹 기반 셀 프로파일 분석 시스템(도 2의 도면부호 100)의 동작을 개략적으로 설명하기 위한 도면이다.1 is a view for schematically explaining the operation of a web-based cell profile analysis system (reference numeral 100 in FIG. 2) according to an embodiment of the present invention.

웹 기반 셀 프로파일 분석 시스템(100)은 웹 상에서 영상을 가공하고, 영상에 포함된 셀(Cell)의 프로파일 정보를 추출하고, 추출된 셀 프로파일 정보를 분석할 수 있다. The web-based cell profile analysis system 100 may process an image on the web, extract profile information of a cell included in the image, and analyze the extracted cell profile information.

본 명세서 상에서, 제1 피실험자(U1)는 질환이 없는 정상(Wild) 상태이며, 제2 피실험자(U2)는 질환이 있는 비정상(Mutant) 상태임을 가정하기로 하며, 제1 피실험자(U1) 뇌의 소정 영역(R1)은 제2 피실험자(U2) 뇌의 소정 영역(U2)과 대응될 수 있다. 이에, 웹 기반 셀 프로파일 분석 시스템(100)은 뇌의 소정 영역에 대해 촬영된 정상 샘플(W)과 비정상 샘플(M)을 수집할 수 있다. In the present specification, it is assumed that the first test subject (U1) is a normal (Wild) state without a disease, and the second test subject (U2) is a abnormal (Mutant) state with a disease, and the first test subject (U1) of the brain The predetermined region R1 may correspond to a predetermined region U2 of the second subject U2 brain. Accordingly, the web-based cell profile analysis system 100 may collect normal samples W and abnormal samples M photographed for a predetermined region of the brain.

웹 기반 셀 프로파일 분석 시스템(100)은 촬영 타입을 구분하여 복수의 2D 브레인 영상을 3D 브레인 영상 데이터로 생성할 수 있다. 여기서, 촬영 타입은 촬영된 현미경에 따라 달라지며, 제1 타입은 Confocal 현미경에 의해 촬영된 타입이며, 제2 타입은 LaVision 현미경에 의해 촬영된 타입을 나타내나, 실시 예에 따라서는 다른 현미경이 적용될 수도 있다.The web-based cell profile analysis system 100 may generate a plurality of 2D brain images as 3D brain image data by classifying the shooting type. Here, the photographing type varies depending on the photographed microscope, the first type is a type photographed by a confocal microscope, and the second type represents a type photographed by a LaVision microscope, but other microscopes may be applied according to embodiments. It might be.

웹 기반 셀 프로파일 분석 시스템(100)은 촬영 타입을 구분하여 전처리를 수행한다(11). 전처리는 복수의 2D 촬영 영상에 기초하여 3D 영상 데이터를 생성하는 것이다. 구체적으로, 웹 기반 셀 프로파일 분석 시스템(100)은 소정의 그리드(Grid) 형태 및 사이즈를 설정하고, 2D 촬영 영상 간에 겹쳐지는 오버랩의 크기를 결정하며, 2D 촬영 영상이 겹쳐진 상태에서 2D 촬영 영상을 꿰메는 듯한 스티칭(Stitching) 작업을 수행할 수 있다.The web-based cell profile analysis system 100 classifies the shooting type and performs pre-processing (11). The pre-processing is to generate 3D image data based on a plurality of 2D captured images. Specifically, the web-based cell profile analysis system 100 sets a predetermined grid shape and size, determines the overlap size between 2D captured images, and displays 2D captured images while the 2D captured images overlap. Stitching can be performed.

웹 기반 셀 프로파일 분석 시스템(100)은 생성된 3D 영상 데이터에서 셀 프로파일 정보를 추출할 수 있다(13). 웹 기반 셀 프로파일 분석 시스템(100)은 핵을 마커(Marker)로 사용하여 주변 셀 프로파일 정보를 추출할 수 있다.The web-based cell profile analysis system 100 may extract cell profile information from the generated 3D image data (13). The web-based cell profile analysis system 100 may extract neighboring cell profile information using the nucleus as a marker.

웹 기반 셀 프로파일 분석 시스템(100)은 추출된 셀 프로파일 정보에 기초하여 정상 샘플 및 비정상 샘플 간의 정량 분석을 수행할 수 있다. 이에, 셀 변화량이 측정됨으로써, 뇌 질환의 원인이 규명되어 타겟 발굴에 도움이 될 수 있다.The web-based cell profile analysis system 100 may perform quantitative analysis between normal and abnormal samples based on the extracted cell profile information. Thus, by measuring the amount of cell change, the cause of brain disease can be identified and help in target discovery.

이하에서는, 도 2를 참고하여, 상기 웹 기반 셀 프로파일 분석 시스템(100)의 구성을 설명하기로 한다. 웹 기반 셀 프로파일 분석 시스템(100)은 전처리 모듈(110), 셀 프로파일 추출부(120), 정량 분석부(130), 저장부(140) 및 제어 모듈(150)을 포함한다. 웹 기반 셀 프로파일 분석 시스템(100)은 연구자가 사용할 수 있는 단말(200)과 로컬 네트워크(500) 또는 인터넷(700)을 통해 연결될 수 있다.Hereinafter, a configuration of the web-based cell profile analysis system 100 will be described with reference to FIG. 2. The web-based cell profile analysis system 100 includes a pre-processing module 110, a cell profile extraction unit 120, a quantitative analysis unit 130, a storage unit 140, and a control module 150. The web-based cell profile analysis system 100 may be connected to a terminal 200 that can be used by a researcher through a local network 500 or the Internet 700.

연구자는 편광 현미경의 일종인 Confocal 현미경 또는 LaVision 현미경 등으로 획득한 브레인 이미지들을 가지고 있다는 것을 상술한 바와 같이 가정하며, 이러한 이미지들은 복수의 2D 이미지들이고 렌더링을 통해 3D 데이터화되는 것을 필요로 한다. Confocal 현미경 또는 LaVision 현미경 등은 고해상도의 파일로 용량이 매우 큰 이미지 파일들을 산출하고, 관찰의 대상이 되는 브레인의 전체 영역을 한 장으로 포착하는 것이 곤란하다는 제약 조건이 존재한다. 따라서, 현미경으로부터 획득되는 이미지 각각은 전체 영역의 일부를 나타내는 이미지이다.The researchers assume as described above that they have brain images obtained with a Confocal microscope or a LaVision microscope, which is a kind of polarization microscope, and these images are a plurality of 2D images and require 3D data rendering through rendering. Confocal microscopes or LaVision microscopes, etc., produce high-capacity image files with high-resolution files, and there are constraints that it is difficult to capture the entire area of the brain to be observed with a single sheet. Thus, each image obtained from the microscope is an image representing a portion of the entire area.

본 발명의 일 실시예에 따른 웹 기반 셀 프로파일 분석 시스템(100)을 통해 연구자는 획득한 2D 브레인 이미지들을 단말(200)을 사용하여 웹사이트를 통해 브레인 3D 렌더링 서버로 전달하고 서버로부터 필요한 3D 브레인 이미지를 제공받을 수 있게 된다.Through the web-based cell profile analysis system 100 according to an embodiment of the present invention, the researcher transfers the acquired 2D brain images to the brain 3D rendering server through the website using the terminal 200 and requires 3D brain from the server The image can be provided.

상기 웹 기반 셀 프로파일 분석 시스템(100)의 전처리 모듈(110)은 소정의 촬영(Confocal 또는 LaVision 으로 촬영) 타입에 기초하여 촬영된, 브레인의 특정 영역에 대응되는 정상(Wild) 샘플 및 비정상(Mutant) 샘플 각각이 하나 이상의 2D 브레인 영상으로 입력되는 경우, 상기 정상 샘플 및 상기 비정상 샘플 각각에 대해 3D 브레인 영상 데이터를 생성할 수 있다. The pre-processing module 110 of the web-based cell profile analysis system 100 includes a wild sample and an abnormal (Mutant) sample corresponding to a specific region of the brain, which are photographed based on a predetermined type of photographing (confocal or LaVision). ) When each sample is input as one or more 2D brain images, 3D brain image data may be generated for each of the normal sample and the abnormal sample.

전처리 모듈(110)은 연구자에 의해 입력된 이미지의 타입을 판별하기 위한 이미지 타입 판별 모듈, 입력된 이미지가 최소한의 리소스를 사용하여 처리될 수 있도록 이미지 용량을 감소시키는 이미지 다운사이징 모듈, 다운사이징된 이미지들이 스티칭을 위해 시프팅되도록 하는 이미지 시프팅 모듈, 시프팅된 이미지들을 스티칭시키는 이미지 스티칭 모듈, 스티칭된 이미지 결과물의 품질을 검토하는 스티칭 결과 검토 모듈 등을 추가적으로 포함할 수 있으나, 실시 예가 이에 국한되는 것은 아니다.The pre-processing module 110 is an image type determination module for determining the type of the image input by the researcher, an image downsizing module for reducing the image capacity so that the input image can be processed using a minimum resource, and downsized An image shifting module for allowing images to be shifted for stitching, an image stitching module for stitching shifted images, a stitching result review module for reviewing the quality of the stitched image results, etc. may be additionally included, but embodiments are limited to this. It does not work.

전처리 모듈(110)은 가령, Z 축을 기준으로 4 등분으로 나뉘어서 촬영된 2D 브레인 영상들을 합치기 위해 그리드 사이즈를 결정할 수 있으며, 그리드 사이즈는 사용되는 매트릭스 값에 따라 설정될 수 있다. 아울러, 전처리 모듈(110)은 위상상관방식을 통해 위상상관 매트릭스 Q 값을 계산할 수도 있다.The pre-processing module 110 may determine, for example, a grid size in order to combine 2D brain images captured by dividing into 4 equal parts based on the Z axis, and the grid size may be set according to the matrix value used. In addition, the pre-processing module 110 may calculate a phase correlation matrix Q value through a phase correlation method.

전처리 모듈(110)은 수신된 오버랩 영역 정보에 기초하여 스티칭 작업을 수행할 수 있으며, 이때 위상상관 방식을 이용하여 스티칭되기 위한 영상의 쉬프팅(Shifting) 범위를 결정할 수 있으며, 상관 계수를 이용하여 스티칭의 정확도를 산정할 수도 있다.The pre-processing module 110 may perform a stitching operation based on the received overlap area information, wherein a shifting range of an image to be stitched may be determined using a phase correlation method, and stitching using a correlation coefficient You can also calculate the accuracy of

구체적으로 예를 들어 이하에서 설명하기로 한다.Specifically, for example, it will be described below.

전처리 모듈(110)은 4등분으로 촬영한 마우스 브레인 이미지들을 합치기 위해서 그리드 사이즈가 결정될 수 있고, 그리드 사이즈는 해당 매트릭스 값에 따라 설정될 수 있다. 일 예로, 그리드 사이즈가 로컬 maxima (2*2*n neighborhood)로 설정될 수 있고, 위상상관방식을 통해 2개 이미지의 위상상관 매트릭스 Q값을 계산하여 시프팅 정도가 계산될 수 있다.The pre-processing module 110 may determine a grid size in order to combine mouse brain images photographed in quarters, and the grid size may be set according to a corresponding matrix value. For example, the grid size may be set to a local maxima (2 * 2 * n neighborhood), and the degree of shifting may be calculated by calculating a phase correlation matrix Q value of two images through a phase correlation method.

전처리 모듈(110)은 수신된 오버랩 영역 정보에 기초하여 브레인의 일부를 표시하는 각각의 이미지들이 시프팅되어 스티칭될 수 있다. 예를 들어, 먼저 2개의 이미지 파일이 정확한 위치로 서로 시프팅되어 결합될 수 있으며, 스티칭되는 2개의 이미지 파일을 푸리에 변환을 통해 주파수 영역으로 표현하고, 이를 기초로 아래의 위상상관방식(Phase Correlation Mehthod)인 수학식 1을 통해 이미지들을 x, y 방향으로 시프팅(shifting)시킬 정도를 계산하여 이미지들을 시프팅시킬 수 있다.The pre-processing module 110 may be stitched by shifting respective images representing a part of the brain based on the received overlap area information. For example, first two image files can be shifted and combined with each other to the correct position, and the two stitched image files are expressed in the frequency domain through Fourier transform, and based on this, the following phase correlation method (Phase Correlation) Mehthod) can be used to shift the images by calculating the degree of shifting the images in the x and y directions.

[수학식 1][Equation 1]

Figure 112018109541441-pat00004
Figure 112018109541441-pat00004

여기서, I1(x, y), I2(x, y)는 서로 스티칭되는 대상인 2개의 이미지들이고, FI1(u, v), FI2(u, v)는 2개의 이미지를 푸리에 변환시킨 결과이다. Here, I1 (x, y) and I2 (x, y) are two images that are stitched to each other, and FI1 (u, v) and FI2 (u, v) are the result of Fourier transform of two images.

전처리 모듈(110)은 상기 수학식에 기초한 시프팅을 통해 서로 스티칭될 2개의 이미지들이 정확한 위치로 시프팅되면 2개의 이미지가 겹쳐지는 영역에 대해서 상관계수를 아래의 수학식 2를 이용해 계산하고 겹쳐진 이미지들이 얼마나 유사한지에 대해 측정할 수 있다. 상관계수 값은 하기의 식 이외에도 통상적으로 알려진 방식들을 통해 계산될 수도 있다.When the two images to be stitched to each other are shifted to the correct position through shifting based on the above equation, the pre-processing module 110 calculates the correlation coefficient for the area where the two images overlap using Equation 2 below and overlaps them. You can measure how similar the images are. The correlation coefficient value may be calculated through commonly known methods in addition to the following equation.

[수학식 2][Equation 2]

Figure 112018109541441-pat00005
Figure 112018109541441-pat00005

Figure 112018109541441-pat00006
Figure 112018109541441-pat00006

상기 식에서 r값은 -1 에서 1 사이이며, 측정된 r 값이 1에 근접할수록 상관관계가 높아지므로, 시프팅 및/또는 스티칭 후에 r값을 계산함으로써, 시프팅 및/또는 스티칭의 정확도를 측정할 수 있다.In the above formula, the r value is between -1 and 1, and as the measured r value approaches 1, the correlation increases, so by calculating the r value after shifting and / or stitching, the accuracy of shifting and / or stitching is measured. can do.

만약, 이미지들이 3차원이고, 스티칭되는 이미지를 3차원으로 평가하여 상관계수를 구한다면, 아래의 수학식 3 및 4가 사용될 수도 있다.If the images are three-dimensional and the stitched image is evaluated in three dimensions to obtain a correlation coefficient, Equations 3 and 4 below may be used.

[수학식 3][Equation 3]

Figure 112018109541441-pat00007
Figure 112018109541441-pat00007

[수학식 4][Equation 4]

Figure 112018109541441-pat00008
Figure 112018109541441-pat00008

수학식 4에서 A, B는 각각의 이미지를 의미한다.In Equation 4, A and B mean each image.

이미지 결합에 있어서 보다 높은 정확성을 확보할 수 있도록 r 값이 일정 값(바람직하게는 0.8) 미만인 경우에는 스티칭이 불가능하다는 메세지를 생성하여 이미지를 입력한 연구자 또는 사용자에게 전달될 수 있다. When the r value is less than a certain value (preferably 0.8) to ensure higher accuracy in image combining, a message indicating that stitching is impossible may be generated and transmitted to a researcher or user who inputs the image.

불가 메세지를 수신한 연구자 또는 사용자는 이미지들의 오버랩 영역, 해상도 등을 수정하여 다시 이미지를 촬영하거나 동일한 이미지에 대해서 이미지의 메타 정보만을 수정해서 다시 입력할 수도 있다.The researcher or the user who received the impossible message may correct the overlap area, resolution, etc. of the images, photograph the image again, or correct the meta information of the image and re-enter the same image.

r 값이 일정 값 이상인 경우에는 시프팅/스티칭 동작이 올바르게 수행되었음을 안내하는 메세지가 생성되어 연구자 또는 사용자에게 전달될 수도 있다.When the r value is greater than or equal to a certain value, a message informing that the shifting / stitching operation has been correctly performed may be generated and transmitted to a researcher or a user.

이러한 r 값의 계산(시프팅 및/또는 스티칭의 정확성 검토) 및 불가/가능 메세지 전달(330)은 도 4에서는 이미지의 올바른 위치로의 시프팅 및 스티칭 이후에 수행되는 것으로 도시되어 있으나, 이미지의 시프팅 이후, 스티칭 동작 이전에 이루어질 수도 있고, 시프팅 및 스티칭 동작이 완료된 이후에 이루어질 수도 있다.The calculation of the r value (review of the accuracy of shifting and / or stitching) and the impossibility / delivery of the message 330 are shown in FIG. 4 as being performed after shifting and stitching the image to the correct location. After shifting, it may be made before the stitching operation, or after the shifting and stitching operation is completed.

전체 단면을 형성하기 위해 올바른 위치로 시프팅된 후 스티칭된 단면들은 깊이 축, 예를 들어, z축으로 정렬되어 3D 렌더링될 수 있도록 준비된다. 즉, 슬라이싱된 2D 이미지들은 x, y 축을 중심으로 단면을 맞추고 z 축으로 rigid transformation으로 이미지들을 정렬처리한다. 여기서 rigid transformation이란 정사각형의 형태는 유지하고 안의 feature 내용만 회전해서 단면 이미지 1과 단면 이미지 2의 특징으로 이미지들을 정합하는 것을 의미한다. 예를 들어, 단면 1의 특징적 feature와 단면 2의 특징적 feature 가 연속되도록 단면 1 및 단면 2를 정렬하는 것이다. 이에 따라, 스티칭된 단면들끼리 단면 1의 feature와 단면 2의 feature가 연속되는지 판단하는 단계, 이러한 판단에 따라 단면 1 및 2 를 정렬하는 단계가 추가될 수 있다. 정렬된 단면들은 3D 렌더링을 통해 3D 이미지화 된다.After shifting to the correct position to form the entire cross-section, the stitched cross-sections are arranged to be 3D rendered, aligned with a depth axis, for example, the z-axis. That is, the sliced 2D images align the cross section around the x and y axes and align the images with rigid transformation on the z axis. Here, rigid transformation means matching the images with the features of the cross-section image 1 and the cross-section image 2 by maintaining the shape of the square and rotating only the content of the features inside. For example, cross-section 1 and cross-section 2 are aligned so that the characteristic feature of cross-section 1 and the characteristic feature of cross-section 2 are continuous. Accordingly, a step of determining whether the features of the section 1 and the features of the section 2 are continuous between stitched sections, and arranging the sections 1 and 2 according to the determination may be added. The aligned sections are 3D imaged through 3D rendering.

다음으로, 셀 프로파일 추출부(120)는 3D 브레인 영상 데이터에서 핵을 검색하여, 검색된 핵을 마커(Marker)로 변환하여 기준을 삼고 세포막 채널(Membrane Channel)을 세포질 신호(Cytoplasm Signal)로 변환할 수 있다. Next, the cell profile extractor 120 searches for nuclei in the 3D brain image data, converts the searched nuclei into markers, serves as a reference, and converts membrane channels into cytoplasmic signals. You can.

셀 프로파일 추출부(120)가 추출하는 셀 프로파일 정보는 세포의 형태(Intensity) 정보, 세포의 개수 정보, 세포의 볼륨(면적) 정보 등을 포함할 수 있다.The cell profile information extracted by the cell profile extraction unit 120 may include cell type (intensity) information, cell number information, and cell volume (area) information.

정량 분석부(130)는 추출된 셀 프로파일 정보에 기초하여 정상 샘플의 셀 프로파일 정보와 비정상 샘플의 셀 프로파일 정보를 비교하여 셀 변화량을 정량적으로 산출하고, 산출된 정보에 기초하여 브레인의 상태를 정밀하게 측정할 수 있다.The quantitative analysis unit 130 compares the cell profile information of the normal sample with the cell profile information of the abnormal sample based on the extracted cell profile information, quantitatively calculates a cell change amount, and accurately calculates the brain state based on the calculated information. Can be measured.

정량 분석부(130)는 정상 상태의 셀 프로파일 정보와 비정상 상태의 셀 프로파일 정보를 비교하여 Intensity, population 등의 증감을 분석할 수 있다. The quantitative analysis unit 130 may analyze the increase or decrease in intensity, population, etc. by comparing the cell profile information in the normal state with the cell profile information in the abnormal state.

저장부(140)는 브레인의 각 영역마다 정상 상태의 셀 프로파일 정보와 비정상 상태의 셀 프로파일 정보를 저장할 수 있으며, 저장부(140)는 제어 모듈(150)의 제어에 따라 다양한 정보를 저장할 수 있다. 가령, 저장부(140)는 전두엽의 정상 상태의 셀 프로파일 정보와 비정상 상태의 셀 프로파일 정보를 저장할 수 있다.The storage unit 140 may store normal cell profile information and abnormal cell profile information for each area of the brain, and the storage unit 140 may store various information under the control of the control module 150. . For example, the storage unit 140 may store the cell profile information in the normal state and the cell profile information in the abnormal state of the frontal lobe.

제어 모듈(150)은 상술한 구성들을 모두 제어하는 구성에 해당된다. 이하에서는 제어 모듈(150)의 동작을 설명하기로 한다.The control module 150 corresponds to a configuration that controls all of the above-described components. Hereinafter, the operation of the control module 150 will be described.

제어 모듈(150)은 촬영 타입이 Confocal 타입인 경우, 상기 2D 브레인 영상 간의 오버랩 영역 정보를 수신하고, 수신된 오버랩 영역 정보에 기초하여, 상기 2D 브레인 영상을 스티칭하며, 스티칭된 2D 영상을 특정 축(가령, 깊이 축)에 대해 정합하는 얼라인먼트가 수행되도록 상기 전처리 모듈(110)을 제어할 수 있다. When the photographing type is Confocal type, the control module 150 receives overlap region information between the 2D brain images, stitches the 2D brain image based on the received overlap region information, and specifies the stitched 2D image on a specific axis. The pre-processing module 110 may be controlled to perform alignment matching with (eg, a depth axis).

제어 모듈(150)은 상기 촬영 타입이 LaVision 타입인 경우, 스티칭 작업 폴더 및 얼라인먼트 작업 폴더를 생성할 수 있다. 스티칭 작업 폴더는 스티칭 작업을 수행하는 경우 2D 영상 파일을 저장하며, 스티칭된 데이터는 완료 스티칭 폴더에 저장될 수 있다. The control module 150 may generate a stitching work folder and an alignment work folder when the photographing type is a LaVision type. The stitching task folder stores a 2D image file when performing a stitching task, and the stitched data may be stored in a completed stitching folder.

먼저, 제어 모듈(150)은 2D 영상 파일명을 편집하고 정렬할 수 있다. 제어 모듈(150)은 2D 영상 파일명에 포함된 공백을 제거하고, 입력되는 파일대로 파일명을 편집할 수 있다. 가령, 그리드가 2*2*3인 경우 Z축을 기준으로 XY 평면상에 포함된 영상을 스티칭 작업 폴더의 3개의 종속 폴더에 4장씩 각각 저장될 수 있다. 가령, 스티칭 작업 폴더 내의 제1 종속 폴더 내지 제3 종속 폴더에는 Z축을 기준으로 한 4개의 2D 영상 파일이 저장될 수 있다. 또한, 제어 모듈(150)은 스티칭이 완료된 파일을 저장하는 폴더를 별도로 구비할 수 있다. 상기 폴더에는 Z 축을 기준으로 XY 평면상에 스티칭된 영상이 각각 저장될 수 있으며, 2*2*3 인 경우 3장의 스티칭 완료된 파일이 저장될 수 있다.First, the control module 150 may edit and sort 2D image file names. The control module 150 may remove the space included in the 2D image file name and edit the file name as the input file. For example, when the grid is 2 * 2 * 3, images included on the XY plane based on the Z axis may be stored in each of 4 subordinate folders in the stitching work folder, 4 pieces each. For example, four 2D image files based on the Z axis may be stored in the first to third dependent folders in the stitching work folder. Also, the control module 150 may separately include a folder for storing the stitched file. In the folder, images stitched on the XY plane with respect to the Z axis may be stored, and in the case of 2 * 2 * 3, three stitched files may be stored.

제어 모듈(150)은 스티칭이 완료되면 Z 축에 대해 스티칭된 영상을 정합할 수 있으며, 정합된 영상은 추후 3D 렌더링을 통해 3D 영상으로 표시될 수 있다. 상기의 방식을 사용하는 경우 촬영 타입이 LaVision 타입이더라도 3D 영상 데이터 생성이 수월하게 수행될 수 있다. 아울러, 스티칭 방법이 상술한 위상 상관 방식이 그대로 사용될 수 있으므로, 영상에 대해 다운사이징을 수행하는 종래의 방법보다 우수한 효과가 있다.When the stitching is completed, the control module 150 may match the stitched image with respect to the Z axis, and the matched image may be displayed as a 3D image through 3D rendering. When using the above method, 3D image data generation can be easily performed even if the photographing type is a LaVision type. In addition, since the phase correlation method described above can be used as it is for the stitching method, there is an effect superior to that of the conventional method for downsizing an image.

도 3은 본 발명의 일 실시 예에 따른 웹 기반 셀 프로파일 분석 시스템(100)이 촬영 타입에 따라 전처리를 다르게 수행하는 것을 나타내는 시퀀스도이다.3 is a sequence diagram showing that the web-based cell profile analysis system 100 according to an embodiment of the present invention performs pre-processing differently according to a photographing type.

도 3을 참고하면, 웹 기반 셀 프로파일 분석 시스템(100)은 브레인의 소정 영역에 대한 복수의 2D 브레인 영상 파일을 입력받는다(S310).Referring to FIG. 3, the web-based cell profile analysis system 100 receives a plurality of 2D brain image files for a predetermined area of the brain (S310).

촬영 영상이 Confocal 현미경으로 촬영된 경우, 특정 파일 포맷으로 2D 브레인을 변경할 수 있다(S315). 가령, nd2 파일이 얼라인이 수행된 tiff 파일로 변경될 수 있으나, 파일 포맷은 다양하게 설정될 수 있다.When the captured image is captured by the Confocal microscope, the 2D brain may be changed to a specific file format (S315). For example, the nd2 file may be changed to an tiff file in which alignment is performed, but the file format may be variously set.

웹 기반 셀 프로파일 분석 시스템(100)은 그리드를 설정하고, 오버랩 영역 정보에 기초하여 스티칭을 수행한다(S320). 그 다음으로, 웹 기반 셀 프로파일 분석 시스템(100)은 스티칭된 영상을 깊이 축을 기준으로 정합하여 얼라인먼트를 수행한다(S323). 스티칭 및 얼라인먼트 방법은 상술한 방법을 따른다.The web-based cell profile analysis system 100 sets a grid and performs stitching based on overlap area information (S320). Next, the web-based cell profile analysis system 100 performs alignment by matching the stitched image with respect to a depth axis (S323). The stitching and alignment method follows the method described above.

만약, 촬영 영상이 LaVision 현미경으로 촬영된 경우, 웹 기반 셀 프로파일 분석 시스템(100)은 스티치 작업 폴더 및 얼라인먼트 작업 폴더를 생성(S325), 파일명을 편집하며 정렬한다(S330).If the captured image is taken with a LaVision microscope, the web-based cell profile analysis system 100 creates a stitch work folder and an alignment work folder (S325), edits the file name, and sorts it (S330).

그러면, 웹 기반 셀 프로파일 분석 시스템(100)은 설정된 그리드에 따라 Z 축을 기준으로 XY 평면 상에 위치하는 슬라이싱 2D 브레인 영상을 오버랩 영역 정보에 기초하여 시프팅 및 스티칭을 수행한다(S335).Then, the web-based cell profile analysis system 100 shifts and stitches the slicing 2D brain image located on the XY plane based on the Z-axis according to the set grid based on the overlap region information (S335).

구체적으로, 그리드가 (3X3X10)으로 구성된 경우 제1 종속 폴더 내지 제10 종속 폴더가 스티칭 작업 폴더에 생성되어 각각의 종속 폴더마다 Z 축에 따른 10장의 슬라이싱 2D 영상이 배치될 수 있다. 웹 기반 셀 프로파일 분석 시스템(100)은 각각의 종속 폴더에 배치된 영상들을 폴더별로 스티칭할 수 있다.Specifically, when the grid is composed of (3X3X10), the first subordinate folder to the ten subordinate folders are generated in the stitching work folder, and 10 slicing 2D images along the Z axis can be disposed in each subordinate folder. The web-based cell profile analysis system 100 may stitch images arranged in each subfolder for each folder.

그 다음, 웹 기반 셀 프로파일 분석 시스템(100)은 Z축을 기준으로 스티칭된 영상들을 정합하는 얼라인먼트를 수행하여 3D 영상 데이터를 생성한다(S340). Then, the web-based cell profile analysis system 100 generates 3D image data by performing alignment to match stitched images based on the Z axis (S340).

도 4는 본 발명의 일 실시 예에 따른 웹 기반 셀 프로파일 분석 시스템(100)이 세포 프로파일을 검색하는 방법을 나타낸다.4 shows a method of retrieving a cell profile by the web-based cell profile analysis system 100 according to an embodiment of the present invention.

먼저, 웹 기반 셀 프로파일 분석 시스템(100)은 브레인의 소정 영역의 핵을 검색한다(S410).First, the web-based cell profile analysis system 100 searches for a nucleus in a predetermined region of the brain (S410).

S410 단계에서, 웹 기반 셀 프로파일 분석 시스템(100)은 영상 준비와 세그먼테이션 작업을 수행할 수 있다. 영상 준비 작업은 RescaleIntensity, Resize, MedianFilter 작업을 포함할 수 있다. 즉, 영상 준비 작업은 세포의 형태를 고정하고, 고정된 세포에 필터링 작업을 포함할 수 있다. 세그먼테이션 작업은 Threshold, RemoveHoles, Watershed, ResizeObjects 작업을 포함할 수 있다.In step S410, the web-based cell profile analysis system 100 may perform image preparation and segmentation. The image preparation operation may include RescaleIntensity, Resize, and MedianFilter operations. That is, the image preparation operation may fix the shape of the cells and include filtering operations on the fixed cells. Segmentation operations can include Threshold, RemoveHoles, Watershed, and ResizeObjects operations.

그 다음, 웹 기반 셀 프로파일 분석 시스템(100)은 핵을 마커로 변환한다(S420).Then, the web-based cell profile analysis system 100 converts the nucleus into a marker (S420).

웹 기반 셀 프로파일 분석 시스템(100)은 핵을 기준으로 세포를 추출할 수 있다. 이때, 웹 기반 셀 프로파일 분석 시스템(100)은 ConvertObjectsToImage 작업, Erosion 작업을 수행할 수 있다. The web-based cell profile analysis system 100 can extract cells based on the nucleus. At this time, the web-based cell profile analysis system 100 may perform ConvertObjectsToImage and Erosion operations.

그 후에, 웹 기반 셀 프로파일 분석 시스템(100)은 세포막 채널(Membrane Channel)을 세포질 신호(Cytoplasm Signal)로 변환한다(S430).Thereafter, the web-based cell profile analysis system 100 converts a membrane channel into a cytoplasmic signal (S430).

구체적으로, 웹 기반 셀 프로파일 분석 시스템(100)은 Threshod, ImageMath, RemoveHoles, ImageMath, Closing, ApplyThreshold, ImageMath, Watershed 작업을 수행할 수 있다.Specifically, the web-based cell profile analysis system 100 may perform Threshod, ImageMath, RemoveHoles, ImageMath, Closing, ApplyThreshold, ImageMath, and Watershed operations.

한편, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 처리 시스템의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다.On the other hand, the functional operations and subject implementations described in this specification are implemented as digital electronic circuits, or the computer software, firmware, or hardware including the structures and structural equivalents disclosed herein, or one or more of them. It can be implemented in combination. Implementations of the subject matter described herein are one or more modules for computer program instructions encoded on a tangible program storage medium to control or thereby execute operations of one or more computer program products, ie processing systems. Can be implemented.

컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.The computer-readable medium can be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of materials affecting a machine-readable propagated signal, or a combination of one or more of these.

본 명세서에서 '시스템' 또는 '장치'라 함은 예컨대 프로그래머블 프로세서부, 컴퓨터 혹은 다중 프로세서부나 컴퓨터를 포함하여 데이터를 처리하기 위한 모든 기구, 장치 및 기계를 포괄한다. 처리 시스템은, 하드웨어에 부가하여, 예컨대 프로세서부 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다.In this specification, the term "system" or "device" includes all apparatus, devices, and machines for processing data, including, for example, a programmable processor unit, a computer or multiprocessor unit, or a computer. The processing system may include, in addition to hardware, code that forms an execution environment for a computer program upon request, such as code constituting the processor unit firmware, a protocol stack, a database management system, an operating system, or a combination of one or more of them. have.

컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.A computer program (also known as a program, software, software application, script, or code) can be written in any form of a compiled or interpreted language or a programming language, including a priori or procedural languages. It can be deployed in any form, including components, subroutines or other units suitable for use in a computer environment. Computer programs do not necessarily correspond to files in the file system. The program is in a single file provided to the requested program, or in multiple interactive files (e.g., one or more modules, files storing subprograms or parts of code), or part of a file holding other programs or data (Eg, one or more scripts stored in a markup language document). Computer programs may be deployed to be executed on one computer or on multiple computers that are located at one site or distributed across multiple sites and interconnected by a communication network.

한편, 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 EPROM, EEPROM 및 플래시메모리 장치와 같은 반도체 메모리 장치, 예컨대 내부 하드디스크나 외장형 디스크와 같은 자기 디스크, 자기광학 디스크 및 CD-ROM과 DVD-ROM 디스크를 포함하여 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함할 수 있다. 프로세서부와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다.On the other hand, computer-readable media suitable for storing computer program instructions and data include, for example, semiconductor memory devices such as EPROM, EEPROM and flash memory devices, such as magnetic disks such as internal hard disks or external disks, magneto-optical disks and CDs. It can include any form of non-volatile memory, media and memory devices, including -ROM and DVD-ROM disks. The processor portion and the memory may be supplemented by, or incorporated into, special purpose logic circuits.

본 명세서에서 설명한 주제의 구현물은 예컨대 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 어플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 구매자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수도 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 데이터 통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.Implementations of the subject matter described herein include, for example, a back-end component such as a data server, for example, a middleware component such as an application server, or, for example, a web browser or graphic user that a buyer can interact with the implementations of the subject matter described herein. It may be implemented in a front-end component, such as a client computer with an interface, or in a computing system that includes all one or more combinations of such back-end, middleware, or front-end components. The components of the system can be interconnected by any form or medium of digital data communication, such as a communication network.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 마찬가지로, 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.This specification includes details of many specific implementations, but these should not be understood as limiting on the scope of any invention or claim, but rather as a description of features that may be specific to a particular embodiment of a particular invention. It should be understood. Likewise, certain features described herein in the context of individual embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment can also be implemented in multiple embodiments individually or in any suitable subcombination. Further, although features may operate in a particular combination and may be initially depicted as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, and the claimed combination subcombined. Or sub-combinations.

또한, 본 명세서에서는 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다Also, although the descriptions describe the operations in the drawings in a specific order, it should be understood that such operations must be performed in the specific order or sequential order shown in order to obtain a desired result, or that all illustrated actions should be performed. Can not be done. In certain cases, multitasking and parallel processing may be advantageous. Further, the separation of various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems are generally integrated together into a single software product or packaged in multiple software products. Understand that you can

이와 같이, 본 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하려는 의도가 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, this specification is not intended to limit the invention to the specific terms presented. Therefore, although the present invention has been described in detail with reference to the above-described examples, those skilled in the art can make modifications, alterations, and modifications to these examples without departing from the scope of the present invention. The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be construed that all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts are included in the scope of the present invention. do.

Claims (10)

소정의 촬영 타입에 기초하여 촬영되되 브레인의 특정 영역에 대응되는 정상(Wild) 샘플 및 비정상(Mutant) 샘플 각각이 하나 이상의 2D 브레인 영상으로 입력되는 경우, 상기 정상 샘플 및 상기 비정상 샘플 각각에 대해 3D 브레인 영상 데이터를 생성하는 전처리 모듈;
상기 3D 브레인 영상 데이터에서 셀 프로파일 정보를 추출하는 셀 프로파일 추출부;
추출된 상기 셀 프로파일 정보에 기초하여 정량 분석을 수행하는 정량 분석부; 및
상기 전처리 모듈, 셀 프로파일 추출부 및 정량 분석부를 제어하는 제어 모듈을 포함하며,
상기 제어 모듈은,
상기 촬영 타입이 제2 타입인 경우, 스티칭 작업 폴더 및 얼라인먼트 작업 폴더를 생성하고, 파일명을 소정의 기준으로 재편집하며,
그리드가 A*B*C(A, B, C는 1 이상의 자연수이며 3차원을 나타내는 각축)로 설정된 경우, C축을 기준으로 AB 평면 상에 위치하는 복수의 2D 브레인 영상을 오버랩 영역 정보에 기초하여 스티칭하도록 상기 전처리 모듈을 제어하며,
상기 C축을 기준으로 스티칭된 영상들을 정합하는 얼라인먼트가 수행되도록 상기 전처리 모듈을 제어하도록 구성되는, 웹 기반 셀 프로파일 분석 시스템.
When each of the normal sample and the abnormal sample corresponding to a specific region of the brain, which is photographed based on a predetermined photographing type, is input as one or more 2D brain images, 3D for each of the normal sample and the abnormal sample A pre-processing module for generating brain image data;
A cell profile extraction unit for extracting cell profile information from the 3D brain image data;
A quantitative analysis unit for performing quantitative analysis based on the extracted cell profile information; And
It includes a control module for controlling the pre-processing module, cell profile extraction unit and quantitative analysis unit,
The control module,
When the photographing type is the second type, a stitching work folder and an alignment work folder are created, and the file name is re-edited based on a predetermined criterion,
When the grid is set to A * B * C (A, B, C is a natural number of 1 or more and each axis representing 3D), a plurality of 2D brain images located on the AB plane based on the C axis are based on the overlap area information. The pre-processing module is controlled to stitch,
And a web-based cell profile analysis system configured to control the pre-processing module to perform alignment to match stitched images based on the C-axis.
제1항에 있어서,
상기 제어 모듈은,
상기 촬영 타입이 제1 타입인 경우, 상기 2D 브레인 영상 간의 오버랩 영역 정보를 수신하고, 수신된 오버랩 영역 정보에 기초하여, 상기 2D 브레인 영상이 스티칭(Stitching)되도록 상기 전처리 모듈을 제어하며, 스티칭된 영상을 특정 축에 대해 얼라인먼트(Alignment)가 수행되도록 상기 전처리 모듈을 제어하는, 웹 기반 셀 프로파일 분석 시스템.
According to claim 1,
The control module,
When the photographing type is the first type, the overlap region information between the 2D brain images is received, and the preprocessing module is controlled to stitch the 2D brain image based on the received overlap region information, and the stitching is performed. A web-based cell profile analysis system for controlling the pre-processing module to align an image with respect to a specific axis.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 셀 프로파일 정보는,
세포의 형태(Intensity) 정보, 세포의 개수 정보, 세포의 볼륨 정보 중 적어도 하나를 포함하는, 웹 기반 셀 프로파일 분석 시스템.
According to claim 1,
The cell profile information,
A web-based cell profile analysis system including at least one of cell type information, cell number information, and cell volume information.
웹 기반 셀 프로파일 분석 시스템의 웹 기반 셀 프로파일 분석 방법으로서,
소정의 촬영 타입에 기초하여 촬영된, 브레인의 특정 영역에 대응되는 정상(Wild) 샘플 및 비정상(Mutant) 샘플 각각이 하나 이상의 2D 브레인 영상으로 입력되는 경우, 전처리 모듈에 의해, 상기 정상 샘플 및 상기 비정상 샘플 각각에 대해 3D 브레인 영상 데이터를 생성하는 전처리 단계;
셀 프로파일 추출부에 의해, 상기 3D 브레인 영상 데이터에서 셀(Cell) 프로파일 정보를 추출하는 단계; 및
정량 분석부에 의해, 추출된 상기 셀 프로파일 정보에 기초하여 정량 분석을 수행하는 단계를 포함하며,
상기 전처리 모듈을 제어하는 제어 모듈은,
상기 촬영 타입이 제2 타입인 경우, 스티칭 작업 폴더 및 얼라인먼트 작업 폴더를 생성하고, 파일명을 소정의 기준으로 재편집하며,
그리드가 A*B*C(A, B, C는 1 이상의 자연수이며 3차원을 나타내는 각축)로 설정된 경우, C축을 기준으로 AB 평면 상에 위치하는 복수의 2D 브레인 영상을 오버랩 영역 정보에 기초하여 스티칭하도록 상기 전처리 모듈을 제어하며,
상기 C축을 기준으로 스티칭된 영상들을 정합하는 얼라인먼트가 수행되도록 상기 전처리 모듈을 제어하도록 구성되는, 웹 기반 셀 프로파일 분석 방법.
As a web-based cell profile analysis method of the web-based cell profile analysis system,
When each of the normal sample and the abnormal sample corresponding to a specific region of the brain, which is photographed based on a predetermined photographing type, is input as one or more 2D brain images, by the pre-processing module, the normal sample and the A pre-processing step of generating 3D brain image data for each abnormal sample;
Extracting cell profile information from the 3D brain image data by a cell profile extraction unit; And
And performing a quantitative analysis based on the extracted cell profile information by the quantitative analysis unit,
The control module for controlling the pre-processing module,
When the photographing type is the second type, a stitching work folder and an alignment work folder are created, and the file name is re-edited based on a predetermined criterion,
When the grid is set to A * B * C (A, B, C is a natural number of 1 or more and each axis representing 3D), a plurality of 2D brain images located on the AB plane based on the C axis are based on the overlap area information. The pre-processing module is controlled to stitch,
Web-based cell profile analysis method configured to control the pre-processing module to perform alignment to match stitched images based on the C-axis.
제7항에 있어서,
상기 전처리 단계는,
상기 촬영 타입이 제1 타입인 경우, 상기 2D 브레인 영상 간의 오버랩 영역 정보를 수신하고, 수신된 오버랩 영역 정보에 기초하여, 상기 2D 브레인 영상을 스티칭하는 단계; 및
스티칭된 영상을 특정 축에 대해 얼라인먼트(Alignment)를 수행하는 단계를 포함하는, 웹 기반 셀 프로파일 분석 방법.
The method of claim 7,
The pre-treatment step,
If the photographing type is the first type, receiving overlap region information between the 2D brain images, and stitching the 2D brain image based on the received overlap region information; And
And aligning the stitched image with respect to a specific axis.
삭제delete 제7항에 있어서,
상기 셀 프로파일 정보는,
세포의 형태(Intensity) 정보, 세포의 개수 정보, 세포의 볼륨 정보 중 적어도 하나를 포함하는, 웹 기반 셀 프로파일 분석 방법.
The method of claim 7,
The cell profile information,
A web-based cell profile analysis method comprising at least one of cell type information, cell number information, and cell volume information.
KR1020180134576A 2018-11-05 2018-11-05 Web based system and method for analyzing cell profile using 3d brain neural circuit image KR102098794B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180134576A KR102098794B1 (en) 2018-11-05 2018-11-05 Web based system and method for analyzing cell profile using 3d brain neural circuit image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180134576A KR102098794B1 (en) 2018-11-05 2018-11-05 Web based system and method for analyzing cell profile using 3d brain neural circuit image

Publications (1)

Publication Number Publication Date
KR102098794B1 true KR102098794B1 (en) 2020-04-08

Family

ID=70275533

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180134576A KR102098794B1 (en) 2018-11-05 2018-11-05 Web based system and method for analyzing cell profile using 3d brain neural circuit image

Country Status (1)

Country Link
KR (1) KR102098794B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150058733A (en) * 2013-11-21 2015-05-29 오테리 테크놀러지스 인코포레이티드 A method using 3d geometry data for virtual reality image presentation and control in 3d space
KR101630257B1 (en) 2014-07-18 2016-06-15 주식회사 핀그램 3D image providing system and providing method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150058733A (en) * 2013-11-21 2015-05-29 오테리 테크놀러지스 인코포레이티드 A method using 3d geometry data for virtual reality image presentation and control in 3d space
KR101630257B1 (en) 2014-07-18 2016-06-15 주식회사 핀그램 3D image providing system and providing method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ChloeMurtin et al., "Image processing for precise three-dimensional registration and stitching of thick high-resolution laser-scanning microscopy image stacks", CompBioMed, 2018.01.01. 1부.* *

Similar Documents

Publication Publication Date Title
US11232354B2 (en) Histopathological image analysis
US8605972B2 (en) Automatic image alignment
JP6348504B2 (en) Biological sample split screen display and system and method for capturing the records
EP3550514B1 (en) Group sparsity model for image unmixing
KR20150095646A (en) Selection and display of biomarker expressions
CN110427970A (en) Image classification method, device, computer equipment and storage medium
US20170322124A1 (en) Systems and methods for meso-dissection
CA2867150A1 (en) Automated syncrhonized navigation system for digital pathology imaging
AU2015241030A1 (en) Digital rock physics-based trend determination and usage for upscaling
JP2021532459A (en) Target cell labeling methods, devices, storage media and terminal devices
Cocks et al. A guide to analysis and reconstruction of serial block face scanning electron microscopy data
CN107644425B (en) Target image choosing method, device, computer equipment and storage medium
CN112818162B (en) Image retrieval method, device, storage medium and electronic equipment
CN109342288A (en) The characterizing method of shale reservoir hole
US20210312620A1 (en) Generating annotation data of tissue images
CN115331071A (en) Tuberculous meningoencephalitis prediction method and system based on multi-scale feature map
KR101674802B1 (en) Method and apparatus for real time detection of airborne fibers by image processing program
KR102098794B1 (en) Web based system and method for analyzing cell profile using 3d brain neural circuit image
CN102187334A (en) Shape parameter for hematology instruments
EP4365774A1 (en) Microscope-based super-resolution method and apparatus, device and medium
Hipp et al. Image microarrays (IMA): digital pathology’s missing tool
KR102075454B1 (en) Web-based system and method for providing 3d brain neural circuit image
KR20210067257A (en) Device for determining complexity of system and method for determining complexity of system
US11756203B2 (en) Characterization platform for scalable, spatially-resolved multispectral analysis of tissue
Zhao et al. A Lightweight Generalizable Evaluation and Enhancement Framework for Generative Models and Generated Samples

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant