WO2023200111A1 - 동물 인비보 이미징 장치 및 그 동작 방법 - Google Patents

동물 인비보 이미징 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2023200111A1
WO2023200111A1 PCT/KR2023/002518 KR2023002518W WO2023200111A1 WO 2023200111 A1 WO2023200111 A1 WO 2023200111A1 KR 2023002518 W KR2023002518 W KR 2023002518W WO 2023200111 A1 WO2023200111 A1 WO 2023200111A1
Authority
WO
WIPO (PCT)
Prior art keywords
animal
focus
target organ
imaging device
vivo imaging
Prior art date
Application number
PCT/KR2023/002518
Other languages
English (en)
French (fr)
Inventor
편영현
이동욱
진민규
Original Assignee
주식회사 뷰웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰웍스 filed Critical 주식회사 뷰웍스
Publication of WO2023200111A1 publication Critical patent/WO2023200111A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/40Animals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/42Evaluating a particular growth phase or type of persons or animals for laboratory research

Definitions

  • the present invention relates to an animal in vivo imaging device and method of operating the same.
  • animal in vivo imaging devices refer to imaging devices that study anatomical structures and functions or measure and evaluate pharmacological responses of cells by analyzing bioluminescence and fluorescence signals of small animals such as laboratory mice.
  • the animal in vivo imaging device can non-invasively obtain images of organs within the animal by photographing the animal injected with a fluorescent substance into the organ to be observed with a camera.
  • the area to be imaged In order to obtain optimal images through an animal in vivo imaging device, the area to be imaged must be located within the depth of field range.
  • the way to focus a camera is to set a designated focus value for each FOV (Field of View) or to focus through an autofocusing function.
  • FOV Field of View
  • the set focus value or autofocusing function has various effects. It is difficult to focus on the subject of photography.
  • Figure 1 shows an example of out of focus during in vivo imaging of an animal.
  • the depth of field falls within the depth of field range according to the default focus value, but in the case of large animals, some areas fall outside the depth of field range.
  • the distance to the surface of the subject varies, so for example, when focusing on the widest area, the intended location, such as an organ, will deviate from the depth of field. .
  • the technical problem to be achieved by the present invention is to provide an animal in vivo imaging device and a method of operating the same that can obtain optimal images by automatically adjusting the focus of the camera according to the object to be photographed and the organ to be photographed.
  • An in vivo animal imaging device for solving the above technical problem is a camera for photographing animals, including a camera having a focus lens for focus adjustment; a 3D scanner for measuring 3D shape information of the animal; an estimation unit outputting depth information of the target organ by inputting the type of animal, the target organ, a preview image captured by the camera, and 3D shape information measured by the 3D scanner into a learned neural network model; and a focus control unit that controls focus by controlling a focus drive motor that drives the focus lens according to the depth information, and the neural network model includes the type of animal, target organ, captured image of the animal, and three-dimensional shape information. It is learned using a learning data set that uses the depth information of the target organ as input and the depth information of the target organ as output.
  • the estimation unit may further output horizontal position information of the target organ, and the learning data set may further output horizontal position information of the target organ.
  • the animal in vivo imaging device may further include an image display unit that displays and outputs the location information on the captured image with the focus adjusted by the focus control unit.
  • the neural network model is developed using training data that outputs the position information of the fluorescent part. It may further include a re-learning unit for re-learning.
  • the estimation unit may further input the animal's posture into the neural network model, and the learning data set may further input the animal's posture.
  • a method of operating an animal in vivo imaging device for solving the above technical problem includes a camera for photographing an animal, a camera having a focus lens for focus adjustment, and measuring three-dimensional shape information of the animal.
  • a method of operating an animal in vivo imaging device including a 3D scanner comprising: a neural network that learns the type of animal, target organ, preview image captured by the camera, and 3D shape information measured by the 3D scanner; outputting depth information of the target organ by inputting it into a model; and adjusting focus by controlling a focus drive motor that drives the focus lens according to the depth information, wherein the neural network model inputs the type of animal, target organ, captured image of the animal, and 3D shape information. It was learned using a learning data set with the depth information of the target organ as output.
  • horizontal position information of the target organ may be further output, and the learning data set may further output horizontal position information of the target organ.
  • the method of operating the animal in vivo imaging device may further include displaying and outputting the location information on an image whose focus is adjusted through the step of adjusting the focus.
  • the method of operating the animal in vivo imaging device includes, when the fluorescent part in the captured image does not match the output location information, using learning data that outputs the location information of the fluorescent portion.
  • a step of retraining the neural network model may be further included.
  • the output step may further input the animal's posture into the neural network model, and the learning data set may further input the animal's posture.
  • the optimal image can be obtained by automatically adjusting the focus of the camera according to the animal being photographed by the animal in vivo imaging device and the organ to be photographed.
  • Figure 1 shows an example of out of focus during in vivo imaging of an animal.
  • Figure 2 shows the configuration of an animal in vivo imaging device according to an embodiment of the present invention.
  • Figure 3 shows an example of a neural network model.
  • Figure 4 shows a flowchart of a method for training a neural network model.
  • Figure 5 shows an example of the process by which a training data set is prepared.
  • Figure 6 shows a flowchart of a method of operating an animal in vivo imaging device according to an embodiment of the present invention.
  • Figure 7 shows an example of the operation of an animal in vivo imaging device according to an embodiment of the present invention.
  • the vertical depth and horizontal position of an animal's organs within the body will be closely related to the type, size, and overall shape of the animal. Accordingly, the inventor of the present application believes that if there is sufficient data on the depth and position of the organ according to the type, size, and overall shape of the animal, the depth and position of the organ can be estimated through an artificial intelligence model and the focus of the camera can be adjusted accordingly.
  • the present invention was conceived in the sense that it would be possible.
  • Figure 2 shows the configuration of an animal in vivo imaging device according to an embodiment of the present invention.
  • the animal in vivo imaging device includes a darkroom box 110, a stage 120, a camera 130, a focus drive motor 134, a 3D scanner 140, an input unit 150, and a weight. It may include a control unit 160, a focus control unit 170, a display unit 180, and a re-learning unit 190.
  • the dark room box 110 can be formed in various shapes to accommodate the animal (A) while blocking external light.
  • the stage 120 may be installed in the dark room box 110 so that the animal (A) can be placed on it.
  • Animals (A) may include mice, rats, rabbits, dogs, cats, pigs, etc., which are mainly used for research.
  • the animal (A) may be placed on the stage 120 with a material designed to emit fluorescence in the organ to be observed applied.
  • the camera 130 is installed to photograph the animal (A) placed on the stage 120.
  • the camera 130 may be equipped with a focus lens 132 for focus control.
  • the focus of the camera 130 can be adjusted by driving the focus lens 132 by the focus driving motor 134.
  • the 3D scanner 140 is installed to measure 3D shape information of the animal (A) placed on the stage 120.
  • the 3D scanner 140 may be a laser type or optical (white light) type 3D scanner.
  • the 3D scanner 140 can measure 3D shape information using a line scanning method or measure the entire area at once using a fixed method.
  • the input unit 150 receives input from the user about the type of animal (A), the posture of the animal (A), and the target organ to be observed.
  • the posture of the animal (A) may include, for example, 'Face down' with the face facing downward and 'Face Up' with the face facing upward.
  • Target organs may include, for example, the brain, heart, lungs, stomach, liver, kidneys, large intestine, small intestine, rectum, bladder, etc.
  • the estimation unit 160 includes the type of animal (A), the posture of the animal (A), the target organ, the preview image of the animal (A) captured by the camera 130, and the animal measured by the 3D scanner 140.
  • the 3D shape information in (A) By inputting the 3D shape information in (A) into the learned neural network model, vertical depth information and horizontal position information of the target organ estimated through the neural network model are output.
  • the depth information represents the vertical distance between the surface of the animal (A) and the target organ
  • the position information represents the center of the target organ in the preview image of the animal (A) (or an image cropped from the preview image of the area of the animal (A)). It can indicate the location or area of the target organ.
  • Figure 3 shows an example of the neural network model 151 used in the estimation unit 160.
  • the neural network model 151 may have a captured image of an animal, a type of animal, an animal's posture, a target organ, and 3D shape information as input, and may have depth information and location information of the target organ as output. there is.
  • the neural network model 151 is a convolutional neural network and may be composed of, for example, a plurality of convolutional layers, a pooling layer, a fully connected layer, and a prediction layer.
  • Figure 4 shows a flowchart of a method for training the neural network model 151.
  • step 410 prepare a learning data set and a verification data set with the type of animal, animal posture, target organ, animal image, and 3D shape information as input, and the depth information and position information of the target organ as output.
  • depth information and location information of the target organ may be collected by referring to past imaging history or using anatomical information of the animal.
  • a neural network model 151 is constructed with the image of the animal, the type of animal, the posture of the animal, the target organ, and 3D shape information as inputs, and the depth information and location information of the target organ as output.
  • the neural network model 151 is trained using the learning data set. Through learning, the weight, bias, etc. of the neural network model 151 can be adjusted. Gradient descent and error back propagation algorithms can be used as neural network learning techniques.
  • step 440 the neural network model 151 is verified using the verification data set. If verification fails, the neural network model 151 can be modified or transformed, or the learning data set can be reinforced and retrained.
  • Figure 5 shows an example of the process by which a training data set is prepared.
  • the area of the animal is cropped from the animal image (a) (b), the area of each target organ such as the brain, heart, and liver is marked (c), and the type, posture, and target organ of the animal are recorded.
  • the location and depth can be set. Additionally, 3D shape information can be measured for the animal using a 3D scanner.
  • the focus control unit 170 controls the focus drive motor 134 according to the depth information output from the estimation unit 160 to adjust the focus of the camera 130 to the target organ.
  • the focus control unit 170 can use the autofocusing function to focus the camera 130 on the surface of the animal A, and then move the focus by the depth information of the target organ to focus on the target organ.
  • the display unit 180 may display the location information output from the estimation unit 160 on the captured image with the focus adjusted by the focus adjustment unit 170.
  • the target organ appears as fluorescence, but since the fluorescence may appear over a wider area than the target organ, displaying the location information of the target organ can be helpful for long-term observation.
  • the re-learning unit 190 takes as input the type, posture, and target organ of the animal (A) input through the input unit 150, and a preview image of the animal (A) captured by the camera 130, and takes the image.
  • the neural network model 151 can be retrained using learning data that outputs location information of the fluorescent portion in the image.
  • Figure 6 shows a flowchart of a method of operating an animal in vivo imaging device according to an embodiment of the present invention.
  • step 610 the type of animal (A), its posture, and the target organ to be observed are input from the user.
  • step 620 the animal (A) is photographed using the camera 130 to obtain a preview image.
  • the preview image may be provided as an image obtained by cropping the area of the animal (A) from the captured image of the animal (A).
  • step 630 3D shape information of the animal (A) is acquired using the 3D scanner 140.
  • step 640 the type, posture, target organ, preview image, and 3D shape information of the animal (A) are input into the neural network model 151 to output depth information and location information of the target organ.
  • step 650 the focus driving motor 134 is controlled according to the depth information to adjust the focus of the camera 130 to the target organ.
  • step 660 the animal (A) is photographed fluorescently using the camera 130 to obtain a focused fluorescent image.
  • a fluorescence image in which the fluorescence area appears normally can be obtained.
  • step 670 location information is displayed on the focused fluorescent image and output.
  • the fluorescence image and the preview image may be overlaid and output.
  • step 680 if the location information does not match the fluorescent portion in the captured image of the animal (A), in step 690, the re-learning unit 190 uses learning data that outputs the location information of the fluorescent portion. This retrains the neural network model 151.
  • Figure 7 shows an example of the operation of an animal in vivo imaging device according to an embodiment of the present invention.
  • the neural network model 151 When input to the neural network model 151, the neural network model 151 outputs depth information (2 cm) and location information (40, 120) about the liver of the animal (Mouse). Then, the focus driving motor 134 is controlled according to the depth information (2cm), and an image centered on the focused area is obtained.
  • Devices include a processor, memory for storing and executing program data, permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, keys, and buttons. It may include user interface devices such as the like.
  • Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor.
  • computer-readable recording media include magnetic storage media (e.g., ROM (read-only memory), RAM (random-access memory), floppy disk, hard disk, etc.) and optical read media (e.g., CD-ROM). ), DVD (Digital Versatile Disc), etc.
  • the computer-readable recording medium is distributed among computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner.
  • the media may be readable by a computer, stored in memory, and executed by a processor.
  • Embodiments of the invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in various numbers of hardware or/and software configurations that execute specific functions. For example, embodiments may include integrated circuit configurations such as memory, processing, logic, look-up tables, etc., capable of executing various functions under the control of one or more microprocessors or other control devices. can be hired. Similar to the fact that the components of the invention can be implemented as software programming or software elements, embodiments may include various algorithms implemented as combinations of data structures, processes, routines or other programming constructs, such as C, C++, , may be implemented in a programming or scripting language such as Java, assembler, etc. Functional aspects may be implemented as algorithms running on one or more processors.
  • embodiments may employ conventional technologies for electronic environment settings, signal processing, and/or data processing.
  • Terms such as “mechanism,” “element,” “means,” and “configuration” may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of software routines in connection with a processor, etc.
  • connections or connection members of lines between components shown in the drawings exemplify functional connections and/or physical or circuit connections, and in actual devices, various functional connections or physical connections may be replaced or added. Can be represented as connections, or circuit connections. Additionally, if there is no specific mention such as “essential,” “important,” etc., it may not be a necessary component for the application of the present invention.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Fuzzy Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Endoscopes (AREA)

Abstract

본 발명에 따른 동물 인비보 이미징 장치는, 동물을 촬영하기 위한 카메라로서, 포커스 조절을 위한 포커스 렌즈를 구비하는 카메라; 상기 동물의 3차원 형상 정보를 측정하기 위한 3차원 스캐너; 상기 동물의 종류, 타겟 장기, 상기 카메라에 의해 촬영된 프리뷰 영상 및 상기 3차원 스캐너에 의해 측정된 3차원 형상 정보를 학습된 신경망 모델에 입력함으로써, 상기 타겟 장기의 깊이 정보를 출력하는 추정부; 및 상기 깊이 정보에 따라 상기 포커스 렌즈를 구동하는 포커스 구동 모터를 제어하여 포커스를 조절하는 포커스 조절부를 포함하고, 상기 신경망 모델은, 동물의 종류, 타겟 장기, 동물의 촬영 영상 및 3차원 형상 정보를 입력으로 하고 타겟 장기의 깊이 정보를 출력으로 하는 학습용 데이터 세트를 사용하여 학습된 것이다.

Description

동물 인비보 이미징 장치 및 그 동작 방법
본 발명은 동물 인비보 이미징 장치 및 그 동작 방법에 관한 것이다.
일반적으로, 동물 인비보 이미징 장치는 실험용 쥐 등 소동물의 생체 발광 및 형광 신호를 분석하여 해부학적 구조 및 기능을 연구하거나 세포의 약리학적 반응을 측정하고 평가하는 영상 장치를 말한다. 동물 인비보 이미징 장치는, 관찰하고자 하는 장기에 형광 물질이 주입된 동물을 카메라로 촬영하여 비침습적으로 동물 내 장기의 이미지를 획득할 수 있다.
동물 인비보 이미징 장치를 통해 최적의 이미지를 얻기 위해서는 촬영하고자 하는 부위가 피사계 심도 범위 내에 위치해야 한다. 일반적으로 카메라의 포커스를 맞추는 방법은, FOV(Field of View) 별로 지정된 포커스 값을 설정하거나, 오토포커싱 기능을 통해 포커스를 맞추게 된다. 그러나 촬영 대상이 되는 동물의 종류(마우스, 랫 등)와 크기가 다양하고, 동물의 자세와 촬영 부위가 다르며, 확대 비율에 따른 심도 변화 등이 발생하기 때문에 설정된 포커스 값이나 오토포커싱 기능으로는 다양한 촬영 대상에 대해 포커스를 맞추기가 어렵다.
도 1은 동물의 인비보 이미징시 초점이 맞지 않는 경우의 예를 나타낸다. 도 1의 (a)를 참조하면, 작은 동물의 경우 기본으로 설정된 포커스 값에 따른 피사계 심도 범위 내에 들어오지만, 큰 동물의 경우 일부 영역이 피사계 심도 범위를 벗어나게 된다. 도 1의 (b)를 참조하면, 오토포커싱 기능을 통해 포커스를 맞추는 경우, 피사체의 표면까지의 거리가 다양해서, 예컨대 가장 넓은 범위에 포커스를 맞추게 되면 장기 등 의도한 위치가 피사계 심도를 벗어나게 된다.
본 발명이 이루고자 하는 기술적 과제는, 촬영 대상 및 촬영하고자 하는 장기에 따라 카메라의 포커스를 자동으로 조절하여 최적의 이미지를 획득할 수 있는 동물 인비보 이미징 장치 및 그 동작 방법을 제공하는 데 있다.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 동물 인비보 이미징 장치는, 동물을 촬영하기 위한 카메라로서, 포커스 조절을 위한 포커스 렌즈를 구비하는 카메라; 상기 동물의 3차원 형상 정보를 측정하기 위한 3차원 스캐너; 상기 동물의 종류, 타겟 장기, 상기 카메라에 의해 촬영된 프리뷰 영상 및 상기 3차원 스캐너에 의해 측정된 3차원 형상 정보를 학습된 신경망 모델에 입력함으로써, 상기 타겟 장기의 깊이 정보를 출력하는 추정부; 및 상기 깊이 정보에 따라 상기 포커스 렌즈를 구동하는 포커스 구동 모터를 제어하여 포커스를 조절하는 포커스 조절부를 포함하고, 상기 신경망 모델은, 동물의 종류, 타겟 장기, 동물의 촬영 영상 및 3차원 형상 정보를 입력으로 하고 타겟 장기의 깊이 정보를 출력으로 하는 학습용 데이터 세트를 사용하여 학습된 것이다.
상기 추정부는 상기 타겟 장기의 수평적인 위치 정보를 더욱 출력하고, 상기 학습용 데이터 세트는 타겟 장기의 수평적인 위치 정보를 더욱 출력으로 할 수 있다.
상기 동물 인비보 이미징 장치는, 상기 포커스 조절부에 의해 포커스가 조절되어 촬영된 영상에 상기 위치 정보를 표시하여 출력하는 영상 표시부를 더 포함할 수 있다.
상기 동물 인비보 이미징 장치는, 상기 촬영된 영상에서 형광으로 나타난 부분과 상기 출력된 위치 정보가 매칭되지 않는 경우, 상기 형광으로 나타난 부분의 위치 정보를 출력으로 하는 학습용 데이터를 사용하여 상기 신경망 모델을 재학습시키는 재학습부를 더 포함할 수 있다.
상기 추정부는 상기 동물의 자세를 상기 신경망 모델에 더욱 입력하고, 상기 학습용 데이터 세트는 동물의 자세를 더욱 입력으로 할 수 있다.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 동물 인비보 이미징 장치의 동작 방법은, 동물을 촬영하기 위한 카메라로서, 포커스 조절을 위한 포커스 렌즈를 구비하는 카메라 및 상기 동물의 3차원 형상 정보를 측정하기 위한 3차원 스캐너를 포함하는 동물 인비보 이미징 장치의 동작 방법으로서, 상기 동물의 종류, 타겟 장기, 상기 카메라에 의해 촬영된 프리뷰 영상 및 상기 3차원 스캐너에 의해 측정된 3차원 형상 정보를 학습된 신경망 모델에 입력함으로써, 상기 타겟 장기의 깊이 정보를 출력하는 단계; 및 상기 깊이 정보에 따라 상기 포커스 렌즈를 구동하는 포커스 구동 모터를 제어하여 포커스를 조절하는 단계를 포함하고, 상기 신경망 모델은, 동물의 종류, 타겟 장기, 동물의 촬영 영상 및 3차원 형상 정보를 입력으로 하고 타겟 장기의 깊이 정보를 출력으로 하는 학습용 데이터 세트를 사용하여 학습된 것이다.
상기 출력하는 단계는, 상기 타겟 장기의 수평적인 위치 정보를 더욱 출력하고, 상기 학습용 데이터 세트는 타겟 장기의 수평적인 위치 정보를 더욱 출력으로 할 수 있다.
상기 동물 인비보 이미징 장치의 동작 방법은, 상기 포커스를 조절하는 단계를 통해 포커스가 조절되어 촬영된 영상에 상기 위치 정보를 표시하여 출력하는 단계를 더 포함할 수 있다.
상기 동물 인비보 이미징 장치의 동작 방법은, 상기 촬영된 영상에서 형광으로 나타난 부분과 상기 출력된 위치 정보가 매칭되지 않는 경우, 상기 형광으로 나타난 부분의 위치 정보를 출력으로 하는 학습용 데이터를 사용하여 상기 신경망 모델을 재학습시키는 단계를 더 포함할 수 있다.
상기 출력하는 단계는 상기 동물의 자세를 상기 신경망 모델에 더욱 입력하고, 상기 학습용 데이터 세트는 동물의 자세를 더욱 입력으로 할 수 있다.
본 발명에 의하면, 동물 인비보 이미징 장치의 촬영 대상 동물 및 촬영하고자 하는 장기에 따라 카메라의 포커스를 자동으로 조절하여 최적의 이미지를 획득할 수 있다.
도 1은 동물의 인비보 이미징시 초점이 맞지 않는 경우의 예를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 동물 인비보 이미징 장치의 구성을 나타낸다.
도 3은 신경망 모델의 일 예를 나타낸다.
도 4는 신경망 모델을 학습시키는 방법의 흐름도를 나타낸다.
도 5는 학습용 데이터 세트가 준비되는 과정의 예를 보여준다.
도 6은 본 발명의 일 실시예에 따른 동물 인비보 이미징 장치의 동작 방법의 흐름도를 나타낸다.
도 7은 본 발명의 일 실시예에 따른 동물 인비보 이미징 장치의 동작의 일 예를 보여준다.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.
동물의 장기의 신체 내에서의 수직적인 깊이와 수평적인 위치는 동물의 종류, 크기, 전체적인 형상 등과 밀접한 관련성이 있을 것이다. 이에 본 출원의 발명자는, 동물의 종류, 크기, 전체적인 형상 등에 따른 장기의 깊이와 위치에 대한 데이터가 충분하다면 인공지능 모델을 통해 장기의 깊이와 위치를 추정할 수 있고 그에 따라 카메라의 포커스를 조절할 수 있을 것이라는 점에서 본 발명을 착안하였다.
도 2는 본 발명의 일 실시예에 따른 동물 인비보 이미징 장치의 구성을 나타낸다.
본 발명의 실시예에 따른 동물 인비보 이미징 장치는, 암실박스(110), 스테이지(120), 카메라(130), 포커스 구동 모터(134), 3차원 스캐너(140), 입력부(150), 추정부(160), 포커스 조절부(170), 표시부(180), 재학습부(190)를 포함할 수 있다.
암실박스(110)는 외부 빛을 차단하면서 동물(A)을 수용할 수 있도록 다양한 형상으로 형성될 수 있다. 스테이지(120)는 동물(A)을 올려놓을 수 있도록 암실박스(110) 내에 설치될 수 있다.
동물(A)은 연구를 위해 주로 이용되는 마우스(mouse), 랫(rat), 토끼, 개, 고양이, 돼지 등을 포함할 수 있다. 동물(A)은 관찰하고자 하는 장기에서 형광이 발현될 수 있도록 설계된 물질이 적용된 상태에서 스테이지(120)에 올려질 수 있다.
카메라(130)는 스테이지(120)에 올려진 동물(A)을 촬영할 수 있도록 설치된다. 카메라(130)는 포커스 조절을 위한 포커스 렌즈(132)를 구비할 수 있다. 포커스 렌즈(132)가 포커스 구동 모터(134)에 의해 구동됨으로써 카메라(130)의 포커스가 조절될 수 있다.
3차원 스캐너(140)는 스테이지(120)에 올려진 동물(A)의 3차원 형상 정보를 측정할 수 있도록 설치된다. 3차원 스캐너(140)는 레이저 방식 또는 광학(백색광) 방식의 3차원 스캐너일 수 있다. 3차원 스캐너(140)는 예컨대 라인 스캐닝 방식으로 3차원 형상 정보를 측정하거나, 고정 방식으로 전체 영역을 한번에 측정할 수 있다.
입력부(150)는 사용자로부터 동물(A)의 종류, 동물(A)의 자세, 관찰하고자 하는 타겟 장기를 입력받는다. 동물(A)의 자세는 예컨대 얼굴이 아래를 향하는 'Face down' 및 얼굴이 위를 향하는 'Face Up' 등을 포함할 수 있다. 타겟 장기는 예컨대 뇌, 심장, 폐, 위, 간, 신장, 대장, 소장, 직장, 방광 등을 포함할 수 있다.
추정부(160)는 동물(A)의 종류, 동물(A)의 자세, 타겟 장기, 카메라(130)에 의해 촬영된 동물(A)의 프리뷰 영상, 3차원 스캐너(140)에 의해 측정된 동물(A)의 3차원 형상 정보를 학습된 신경망 모델에 입력함으로써, 신경망 모델을 통해 추정되는 타겟 장기의 수직적인 깊이 정보 및 수평적인 위치 정보를 출력한다. 여기서 깊이 정보는 동물(A)의 표면과 타겟 장기 간의 수직적 거리를 나타내고, 위치 정보는 동물(A)의 프리뷰 영상(또는 프리뷰 영상에서 동물(A)의 영역을 크롭한 영상)에서 타겟 장기의 중앙부의 위치 또는 타겟 장기의 영역을 나타낼 수 있다.
도 3은 추정부(160)에 사용되는 신경망 모델(151)의 일 예를 나타낸다. 도 3을 참조하면, 신경망 모델(151)은 동물의 촬영 영상, 동물의 종류, 동물의 자세, 타겟 장기, 3차원 형상 정보를 입력으로 가지고, 타겟 장기의 깊이 정보 및 위치 정보를 출력으로 가질 수 있다. 신경망 모델(151)은 합성곱 신경망으로서, 예컨대 다수의 컨볼루션 레이어와 풀링 레이어, 풀리 커넥티드 레이어, 프리딕션 레이어 등으로 구성될 수 있다.
도 4는 신경망 모델(151)을 학습시키는 방법의 흐름도를 나타낸다.
410단계에서, 동물의 종류, 동물의 자세, 타겟 장기, 동물의 촬영 영상 및 3차원 형상 정보를 입력으로 하고 타겟 장기의 깊이 정보 및 위치 정보를 출력으로 하는 학습용 데이터 세트 및 검증용 데이터 세트를 준비한다. 여기서, 타겟 장기의 깊이 정보 및 위치 정보는 과거의 촬영 이력을 참조하거나, 동물의 해부학적 정보를 이용하여 수집될 수 있다.
420단계에서, 동물의 촬영 영상, 동물의 종류, 동물의 자세, 타겟 장기, 3차원 형상 정보를 입력으로 가지고, 타겟 장기의 깊이 정보 및 위치 정보를 출력으로 가지는 신경망 모델(151)을 구축한다.
430단계에서, 학습용 데이터 세트를 이용하여 신경망 모델(151)을 학습시킨다. 학습을 통해 신경망 모델(151)의 가중치(weight), 바이어스(bias) 등이 조절될 수 있다. 신경망 학습 기법으로 경사하강법(gradient descent), 오류 역전파(back propagation) 알고리즘 등이 사용될 수 있다.
440단계에서, 검증용 데이터 세트를 이용하여 신경망 모델(151)을 검증한다. 검증에 실패한 경우, 신경망 모델(151)을 수정 또는 변형하거나 학습용 데이터 세트를 보강하여 재학습할 수 있다.
도 5는 학습용 데이터 세트가 준비되는 과정의 예를 보여준다. 도 5를 참조하면, 동물의 촬영 영상(a)에서 동물의 영역을 크롭하고(b), 뇌, 심장, 간 등 각 타겟 장기의 부위를 마킹하고(c), 동물의 종류, 자세, 타겟 장기의 위치 및 깊이가 설정될 수 있다. 또한, 3차원 스캐너를 이용하여 해당 동물에 대하여 3차원 형상 정보가 측정될 수 있다.
다시 도 2를 참조하면, 포커스 조절부(170)는 추정부(160)로부터 출력되는 깊이 정보에 따라 포커스 구동 모터(134)를 제어하여 카메라(130)의 포커스가 타겟 장기에 맞춰지도록 조절한다. 예컨대 포커스 조절부(170)는, 오토포커싱 기능을 이용하여 카메라(130)의 포커스를 동물(A)의 표면에 맞춘 다음, 타겟 장기의 깊이 정보만큼 포커스를 이동시켜 타겟 장기에 맞출 수 있다.
표시부(180)는 포커스 조절부(170)에 의해 포커스가 조절되어 촬영된 영상에 추정부(160)로부터 출력되는 위치 정보를 표시할 수 있다. 동물(A)의 촬영 영상에는 타겟 장기 부위가 형광으로 나타나지만, 형광 부분이 타겟 장기 부위보다 넓은 영역에 걸쳐 나타날 수 있으므로 타겟 장기의 위치 정보를 표시하여 주면 장기 관찰에 도움이 될 수 있다.
한편, 동물(A)의 촬영 영상에 형광으로 나타난 부분과 추정부(160)로부터 출력되는 위치 정보가 매칭되지 않는 경우 신경망 모델(151)의 타겟 장기의 위치 추정에 오류가 있는 것으로 볼 수 있다. 따라서 이 경우 재학습부(190)는 입력부(150)를 통해 입력된 동물(A)의 종류, 자세 및 타겟 장기, 카메라(130)에 의해 촬영된 동물(A)의 프리뷰 영상을 입력으로 하고 촬영 영상에 형광으로 나타난 부분의 위치 정보를 출력으로 하는 학습용 데이터를 사용하여 신경망 모델(151)을 재학습시킬 수 있다.
도 6은 본 발명의 일 실시예에 따른 동물 인비보 이미징 장치의 동작 방법의 흐름도를 나타낸다.
610단계에서, 사용자로부터 동물(A)의 종류, 자세, 관찰하고자 하는 타겟 장기를 입력받는다.
620단계에서, 카메라(130)로 동물(A)을 촬영하여 프리뷰 영상을 획득한다. 프리뷰 영상은 동물(A)의 촬영 영상에서 동물(A)의 영역을 크롭한 영상으로 제공될 수 있다.
630단계에서, 3차원 스캐너(140)로 동물(A)의 3차원 형상 정보를 획득한다.
640단계에서, 동물(A)의 종류, 자세, 타겟 장기, 프리뷰 영상 및 3차원 형상 정보를 신경망 모델(151)에 입력함으로써 타겟 장기의 깊이 정보 및 위치 정보를 출력한다.
650단계에서, 깊이 정보에 따라 포커스 구동 모터(134)를 제어하여 카메라(130)의 포커스가 타겟 장기에 맞춰지도록 조절한다.
660단계에서, 카메라(130)로 동물(A)을 형광 촬영하여 포커스 조절된 형광 영상을 획득한다. 포커스 조절을 통해 형광 영역이 정상적으로 나타난 형광 영상이 획득될 수 있다.
670단계에서, 포커스 조절된 형광 영상에 위치 정보를 표시하여 출력한다. 이때 형광 영상과 프리뷰 영상이 오버레이되어 출력될 수 있다.
680단계에서, 동물(A)의 촬영 영상에 형광으로 나타난 부분과 위치 정보가 매칭되지 않으면, 690단계에서, 재학습부(190)는 형광으로 나타난 부분의 위치 정보를 출력으로 하는 학습용 데이터를 사용하여 신경망 모델(151)을 재학습시킨다.
도 7은 본 발명의 일 실시예에 따른 동물 인비보 이미징 장치의 동작의 일 예를 보여준다.
카메라(130)에 의해 촬영된 프리뷰 영상, 사용자로부터 입력된 동물의 종류(Mouse), 자세(Face down), 타겟 장기(간), 및 3차원 스캐너(140)에 의해 측정된 3차원 형상 정보가 신경망 모델(151)에 입력되면, 신경망 모델(151)은 동물(Mouse)의 간에 대한 깊이 정보(2cm) 및 위치 정보(40, 120)를 출력한다. 그러면 깊이 정보(2cm)에 따라 포커스 구동 모터(134)가 제어되어 포커스가 간 부위에 맞춰진 영상이 획득된다.
본 발명의 실시예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 집적 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
실시예에서 설명하는 특정 실행들은 일 실시예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (10)

  1. 동물을 촬영하기 위한 카메라로서, 포커스 조절을 위한 포커스 렌즈를 구비하는 카메라;
    상기 동물의 3차원 형상 정보를 측정하기 위한 3차원 스캐너;
    상기 동물의 종류, 타겟 장기, 상기 카메라에 의해 촬영된 프리뷰 영상 및 상기 3차원 스캐너에 의해 측정된 3차원 형상 정보를 학습된 신경망 모델에 입력함으로써, 상기 타겟 장기의 깊이 정보를 출력하는 추정부; 및
    상기 깊이 정보에 따라 상기 포커스 렌즈를 구동하는 포커스 구동 모터를 제어하여 포커스를 조절하는 포커스 조절부를 포함하고,
    상기 신경망 모델은, 동물의 종류, 타겟 장기, 동물의 촬영 영상 및 3차원 형상 정보를 입력으로 하고 타겟 장기의 깊이 정보를 출력으로 하는 학습용 데이터 세트를 사용하여 학습된 것인,
    동물 인비보 이미징 장치.
  2. 제1항에 있어서,
    상기 추정부는 상기 타겟 장기의 수평적인 위치 정보를 더욱 출력하고,
    상기 학습용 데이터 세트는 타겟 장기의 수평적인 위치 정보를 더욱 출력으로 하는,
    동물 인비보 이미징 장치.
  3. 제2항에 있어서,
    상기 포커스 조절부에 의해 포커스가 조절되어 촬영된 영상에 상기 위치 정보를 표시하여 출력하는 영상 표시부를 더 포함하는,
    동물 인비보 이미징 장치.
  4. 제2항에 있어서,
    상기 촬영된 영상에서 형광으로 나타난 부분과 상기 출력된 위치 정보가 매칭되지 않는 경우, 상기 형광으로 나타난 부분의 위치 정보를 출력으로 하는 학습용 데이터를 사용하여 상기 신경망 모델을 재학습시키는 재학습부를 더 포함하는,
    동물 인비보 이미징 장치.
  5. 제1항에 있어서,
    상기 추정부는 상기 동물의 자세를 상기 신경망 모델에 더욱 입력하고,
    상기 학습용 데이터 세트는 동물의 자세를 더욱 입력으로 하는,
    동물 인비보 이미징 장치.
  6. 동물을 촬영하기 위한 카메라로서, 포커스 조절을 위한 포커스 렌즈를 구비하는 카메라 및 상기 동물의 3차원 형상 정보를 측정하기 위한 3차원 스캐너를 포함하는 동물 인비보 이미징 장치의 동작 방법으로서,
    상기 동물의 종류, 타겟 장기, 상기 카메라에 의해 촬영된 프리뷰 영상 및 상기 3차원 스캐너에 의해 측정된 3차원 형상 정보를 학습된 신경망 모델에 입력함으로써, 상기 타겟 장기의 깊이 정보를 출력하는 단계; 및
    상기 깊이 정보에 따라 상기 포커스 렌즈를 구동하는 포커스 구동 모터를 제어하여 포커스를 조절하는 단계를 포함하고,
    상기 신경망 모델은, 동물의 종류, 타겟 장기, 동물의 촬영 영상 및 3차원 형상 정보를 입력으로 하고 타겟 장기의 깊이 정보를 출력으로 하는 학습용 데이터 세트를 사용하여 학습된 것인,
    동물 인비보 이미징 장치의 동작 방법.
  7. 제6항에 있어서,
    상기 출력하는 단계는, 상기 타겟 장기의 수평적인 위치 정보를 더욱 출력하고,
    상기 학습용 데이터 세트는 타겟 장기의 수평적인 위치 정보를 더욱 출력으로 하는,
    동물 인비보 이미징 장치의 동작 방법.
  8. 제7항에 있어서,
    상기 포커스를 조절하는 단계를 통해 포커스가 조절되어 촬영된 영상에 상기 위치 정보를 표시하여 출력하는 단계를 더 포함하는,
    동물 인비보 이미징 장치의 동작 방법.
  9. 제7항에 있어서,
    상기 촬영된 영상에서 형광으로 나타난 부분과 상기 출력된 위치 정보가 매칭되지 않는 경우, 상기 형광으로 나타난 부분의 위치 정보를 출력으로 하는 학습용 데이터를 사용하여 상기 신경망 모델을 재학습시키는 단계를 더 포함하는,
    동물 인비보 이미징 장치의 동작 방법.
  10. 제6항에 있어서,
    상기 출력하는 단계는 상기 동물의 자세를 상기 신경망 모델에 더욱 입력하고,
    상기 학습용 데이터 세트는 동물의 자세를 더욱 입력으로 하는,
    동물 인비보 이미징 장치의 동작 방법.
PCT/KR2023/002518 2022-04-13 2023-02-22 동물 인비보 이미징 장치 및 그 동작 방법 WO2023200111A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220045784A KR20230146853A (ko) 2022-04-13 2022-04-13 동물 인비보 이미징 장치 및 그 동작 방법
KR10-2022-0045784 2022-04-13

Publications (1)

Publication Number Publication Date
WO2023200111A1 true WO2023200111A1 (ko) 2023-10-19

Family

ID=88329840

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/002518 WO2023200111A1 (ko) 2022-04-13 2023-02-22 동물 인비보 이미징 장치 및 그 동작 방법

Country Status (2)

Country Link
KR (1) KR20230146853A (ko)
WO (1) WO2023200111A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101109695B1 (ko) * 2010-10-20 2012-01-31 주식회사 아이닉스 고속 오토 포커스 제어 장치 및 그 방법
KR20130143434A (ko) * 2012-06-21 2013-12-31 삼성전자주식회사 고강도 집속 초음파의 초점을 결정하는 방법 및 장치
JP2020054875A (ja) * 2015-01-28 2020-04-09 エレクタ、インク.Elekta, Inc. 適応型放射線療法に対する3次元位置特定及び追跡
JP2021144359A (ja) * 2020-03-10 2021-09-24 Necソリューションイノベータ株式会社 学習装置、推定装置、学習方法、及びプログラム
KR20210144519A (ko) * 2020-05-21 2021-11-30 삼성전자주식회사 깊이 영상을 생성하는 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101109695B1 (ko) * 2010-10-20 2012-01-31 주식회사 아이닉스 고속 오토 포커스 제어 장치 및 그 방법
KR20130143434A (ko) * 2012-06-21 2013-12-31 삼성전자주식회사 고강도 집속 초음파의 초점을 결정하는 방법 및 장치
JP2020054875A (ja) * 2015-01-28 2020-04-09 エレクタ、インク.Elekta, Inc. 適応型放射線療法に対する3次元位置特定及び追跡
JP2021144359A (ja) * 2020-03-10 2021-09-24 Necソリューションイノベータ株式会社 学習装置、推定装置、学習方法、及びプログラム
KR20210144519A (ko) * 2020-05-21 2021-11-30 삼성전자주식회사 깊이 영상을 생성하는 방법 및 장치

Also Published As

Publication number Publication date
KR20230146853A (ko) 2023-10-20

Similar Documents

Publication Publication Date Title
US11900647B2 (en) Image classification method, apparatus, and device, storage medium, and medical electronic device
KR101130775B1 (ko) 촬영 장치, 화상 영역의 존재 여부 판정 방법, 및 기록 매체
CN107948519A (zh) 图像处理方法、装置及设备
KR101271098B1 (ko) 디지털 촬영장치, 추적방법 및 추적방법을 실행시키기 위한프로그램을 저장한 기록매체
JP2021519663A (ja) 内視鏡画像の処理方法、システム、コンピュータデバイス及びコンピュータプログラム
WO2021015507A2 (ko) 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법 및 장치
CN106966274A (zh) 电梯系统
CN106027876A (zh) 摄像装置和摄像方法
EP4187484A1 (en) Cbd-net-based medical endoscopic image denoising method
JP6707131B2 (ja) 画像処理装置、学習装置、画像処理方法、識別基準の作成方法、学習方法およびプログラム
CN107370961A (zh) 图像曝光处理方法、装置及终端设备
WO2023200111A1 (ko) 동물 인비보 이미징 장치 및 그 동작 방법
JPH07288826A (ja) フィルム画像再生装置
JP7375901B2 (ja) 表示装置、表示方法、プログラム及び画像投影システム
WO2020246676A1 (ko) 자궁경부암 자동 진단 시스템
JP2000350086A (ja) 画像処理装置、画像出力装置、及び、カメラ
JPH0131899B2 (ko)
WO2022103122A1 (ko) 딥러닝 기반의 병리 슬라이드 이미지 고해상도 변환 방법 및 이를 수행하는 컴퓨팅 시스템
JP2007005966A (ja) 露出量算出システムならびにその制御方法およびその制御プログラム
JP7166837B2 (ja) 教師データ作成装置、教師データ作成方法、教師データ作成プログラム、学習装置及び撮像装置
JP4611413B2 (ja) 画像出力装置及び画像出力方法
Daniels et al. New method for rapid 3D reconstruction of semi-transparent underwater animals and structures
JP4611412B2 (ja) カメラ及び画像入力方法
WO2023085910A1 (ko) 적대적 생성 신경망을 이용한 영상 학습 방법, 장치, 프로그램 및 기록매체
WO2024043591A1 (ko) 융합 영상을 이용한 턱관절 및 두경부 질환 진단 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23788466

Country of ref document: EP

Kind code of ref document: A1