CN114841913A - 实时生物图像识别方法及装置 - Google Patents
实时生物图像识别方法及装置 Download PDFInfo
- Publication number
- CN114841913A CN114841913A CN202210063851.5A CN202210063851A CN114841913A CN 114841913 A CN114841913 A CN 114841913A CN 202210063851 A CN202210063851 A CN 202210063851A CN 114841913 A CN114841913 A CN 114841913A
- Authority
- CN
- China
- Prior art keywords
- biological
- image
- attribute information
- processor
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000010801 machine learning Methods 0.000 claims abstract description 75
- 230000015654 memory Effects 0.000 claims abstract description 46
- 230000004927 fusion Effects 0.000 claims abstract description 26
- 239000000284 extract Substances 0.000 claims abstract description 14
- 238000006073 displacement reaction Methods 0.000 claims description 22
- 230000033001 locomotion Effects 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 10
- 230000001133 acceleration Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 abstract description 5
- 210000000056 organ Anatomy 0.000 abstract description 5
- 210000000683 abdominal cavity Anatomy 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000006872 improvement Effects 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 22
- 210000001519 tissue Anatomy 0.000 description 22
- 238000013528 artificial neural network Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 239000013598 vector Substances 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000001727 in vivo Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000002583 angiography Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000496 pancreas Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000002573 colposcopy Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000002574 cystoscopy Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000002357 laparoscopic surgery Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000002751 lymph Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 238000012014 optical coherence tomography Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- General Engineering & Computer Science (AREA)
- Public Health (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Endoscopes (AREA)
Abstract
本发明公开了提供一种生物图像识别装置及方法,生物图像识别装置包括:处理器以及存储器。存储器包含至少一个指令,指令被处理器执行;其中,处理器利用针对对象体在时间上连续拍摄的生物图像中的任意时间点的任意一个生物图像和与连续拍摄的生物图像在时间上对应的传感器数据生成融合数据,并基于机器学习模型而从融合数据提取连续拍摄的生物图像的属性信息。借此,本发明的生物图像识别装置,可独立于存储器或处理器性能而基于机器学习模型识别实时图像内的对象体。本发明是通过首尔市首尔产业振兴院2021年技术商业化支持项目(TB210264)“在腹腔内诊镜手术中检测主要器官的可说明人工智能产品的功能改善及升级”开发的技术。
Description
技术领域
本发明是关于识别实时图像的方法,更具体地,关于一种能够在实时生物图像内中追踪组织并预测组织位置的方法及装置。
背景技术
最近,随着人工智能学习模型的发展,在判读图像方面正在利用大量机器学习模型。例如,卷积神经网络(Convolutional NeuralNetworks)、深度神经网络(Deep neuralnetworks)、循环神经网络(Recurrent Neural Network)、深度置信神经网络(Deep BeliefNetworks)等学习模型正在应用于静止图像(Still Image)或实时图像(Motion Picture)的检测、分类和特征学习。
利用机器学习模型学习实时图像(视频)时,对图像数据的学习和运算量巨大,如果处理器性能或存储器容量不够高,则难以在实时图像中识别对象体。
发明内容
本发明的目的在于提供一种可独立于存储器或处理器性能而基于机器学习模型识别实时图像内的对象体的实时生物图像识别方法及装置。
本发明的另一目的在于提供一种可利用运动数据明确预测实时生物图像内的对象体的位置的实时生物图像识别方法及装置。
本发明的目的不限于上述提及的目的,本领域技术人员可以通过以下描述明确理解未提及的其他目的。
根据本发明一方面的实时生物图像识别装置包括:照相机、传感器、处理器以及存储器。传感器用以感测照相机的移动;存储器包含一个以上的指令(instructions),所述指令(instructions)被实现为由处理器执行;其中,处理器利用通过照相机针对对象体而在时间上连续拍摄的生物图像中的任意时间点的任意一个生物图像和与连接拍摄的生物图像在时间上对应的传感器感测的传感器数据生成融合数据,并基于机器学习模型而从融合数据提取连续拍摄的生物图像的属性信息。
根据本发明另一方面的实时生物图像识别装置包括:照相机、传感器、处理器以及存储器。传感器用以感测照相机的移动;存储器包含一个以上的指令(instructions),所述指令(instructions)被实现为由处理器执行;其中,处理器基于第一机器学习模型而从利用照相机针对对象体在时间上连续拍摄的生物图像中的第n图像提取第n图像的第一属性信息,其中,n为自然数,利用与第n+1以上生物图像在时间上对应的传感器感测的传感器数据中的至少任意一传感器数据和第n图像的第一属性信息生成融合数据,并基于第二机器学习模型而从融合数据提取第n+1以上生物图像的第二属性信息。
根据本发明一方面的实时生物图像识别方法包括:利用针对对象体而在时间上连续拍摄的生物图像中的任意时间点的任一生物图像和与连续拍摄的生物图像在时间上对应的传感器数据生成融合数据的步骤;以及基于机器学习模型而从融合数据提取连续拍摄的生物图像的属性信息的步骤。
根据本发明另一方面的实时生物图像识别方法包括:基于第一机器学习模型而从针对对象体在时间上连续拍摄的生物图像中的第n图像提取第n图像的第一属性信息的步骤,其中,n为自然数;利用与第n+1以上生物图像在时间上对应的传感器数据中至少任一传感器数据和第n图像的第一属性信息生成融合数据的步骤;以及基于第二机器学习模型而从融合数据提取第n+1以上生物图像的第二属性信息的步骤。
根据本发明的实施例,具有可以基于机器学习模型识别实时生物图像内的对象体的效果。
另外,根据本发明的实施例,具有可以利用运动数据准确预测实时生物图像内在视觉上隐藏的对象体的位置的效果。
本发明的效果不限于上述提及的效果,普通技术人员可以从以下记载明确理解未提及的其他效果。
附图说明
图1是简要示出根据本发明一实施例的识别实时生物图像内组织的装置的构成示意图。
图2是简要示出根据本发明一实施例的识别实时生物图像内组织的实时生物图像识别装置的示意图。
图3是示出根据本发明一实施例的用于识别实时生物图像内组织的处理器的线框示意图。
图4是示出根据本发明一实施例的通过计算装置生成实时生物图像的属性信息过程的示意图。
图5是示意性示出根据本发明另一实施例的通过计算装置生成实时生物图像的属性信息过程的示意图。
图6是用于描述根据本发明一实施例的生物图像识别装置利用传感器数据来显示生物图像过程的示意图。
图7是用于描述根据本发明另一实施例的生物图像识别装置利用传感器数据来识别并显示生物图像过程的示意图。
图8是示出根据本发明一实施例的识别实时生物图像方法的流程示意图。
图9是示出根据本发明另一实施例的识别实时生物图像方法的流程示意图。
主要附图标记说明:
110-计算装置,111、311、600、700、800-处理器,113、313-存储器部,115、315-存储设备,117、317-输入输出接口,118、318-网络适配器,119、319-显示适配器,130、330-显示装置,720-属性信息,830-第一属性信息,850-第二属性信息。
具体实施方式
下面将参照附图详细描述本发明的实施例。然而,附图只是为了更容易地公开本发明的内容,本领域技术人员可以容易地理解本发明的范围不限于附图的范围。
另外,本发明的详细说明和权利要求中所使用的术语仅用于描述特定实施例,并不用于限定本发明。除非上下文另有明确规定,否则单数的表达包括复数的表达。
在本发明的详细说明和权利要求中,“包括”或“具有”等术语应理解为是要指定存在说明书中记载的特征、数字、步骤、动作、构成要素、部件或其组合,不预先排除存在或添加一个或其以上的其他特征、数字、步骤、动作、构成要素、部件或其组合的可能性。
在本发明的详细说明和权利要求中,“学习”或“learning”等术语是指通过基于步骤的计算(computing)而执行机器学习(machine learning)的术语,应理解为并非是指诸如人类教育活动的精神作用。
本发明的详细说明和权利要求中使用的“实时图像数据”,可以定义为包括单一图像(静止影像)或连续图像(视频),可以用以表达诸如“图像”或“图像数据”的意义。
本发明的详细说明和权利要求中使用的术语“图像”,可以定义为将人或物的形态或其具体特性复制或模仿为数字形态,图像可以但不限于为JPEG图像、PNG图像、GIF图像、TIFF图像或本行业公知的其他任意图像格式。另外,“图像”可以用作与“照片”相同的意义。
本发明的详细说明和权利要求中使用的“属性”,可以定义为可在图像数据内识别的对象体的标注或可识别位移的对象体的一个以上描述性特性的集合,“属性”可以用数字性特征表达。
本发明是通过首尔市首尔产业振兴院2021年技术商业化支持项目(TB210264)“在腹腔内诊镜手术中检测主要器官的可说明人工智能产品的功能改善及升级”开发的技术。
本发明中公开的装置、方法及设备等可以但不限于应用于腹腔内部的医疗图像或可支持疾病状态诊断的实时任意生物学组织图像,可以用于时序计算机断层扫描(CT)、磁共振成像(MRI)、计算机辐射成像、磁共振、血管内窥镜、光学相干断层扫描、多普勒彩色血流成像、膀胱镜检查、透照摄影术(diaphanography)、心脏超声波检查、荧光血管造影术(fluoresosinangiography)、腹腔镜检查、磁共振血管造影术、正电子发射断层扫描(positron emission tomography)、单光子发射计算机断层扫描、X射线血管造影术、核医学、生物磁成像、阴道镜、双频多普勒、数字显微镜、内窥镜、激光器、表面扫描、磁共振谱法、放射摄影成像、热成像和放射荧光检查。
进一步地,本发明涵盖本说明书中示出的实施例的所有可能的组合。应理解为本发明的多样实施例虽然互不相同,但不必相互排斥。例如,在此记载的特定形状、结构及特性与一个实施例相关联,在不超出本发明的思想及范围的前提下可以以其他实施例实现。另外,应理解为各个公开的实施例内的个别构成要素的位置及配置可以在不超出本发明的思想及范围的前提下变更。因此,后述的详细说明并非出于限定之意,如能适当说明,本发明的范围仅由与其权利要求所主张的内容均等的所有范围及所附权利要求所限定。附图中类似的附图标记指称在多个方面相同或类似的功能。
图1是简要示出根据本发明一实施例的识别实时生物图像内的组织的装置的构成示意图。
参照图1,根据本发明一实施例的实时生物图像识别装置100可以包括计算装置(Computing Device)110、显示装置(Display Device)130、照相机(Camera)150。计算装置110可以包括但不限于处理器(Processor)111、存储器部(Memory Unit)113、存储设备(Storage Device)115、输入输出接口117、网络适配器(Network Adapter)118、显示适配器(Display Adapter)119,以及将包括处理器的多样系统构成要素连接于存储器部113的系统总线(System bus)112。另外,实时生物图像组织识别装置不仅包括用于传递信息的系统总线112,还可以包括其他通信机制。
系统总线或其他通信机制可以相互连接处理器、作为计算机可读记录介质的存储器、近距离通信模块(例如,蓝牙或NFC)、包括网络接口或移动通信模块的网络适配器、显示装置(例如,CRT或LCD等)、输入装置(例如,键盘、键区、虚拟键盘、鼠标、轨迹球、手写笔、触摸感测装置等)和/或下级系统。
处理器111可以是利用机器学习模型13自动处理的处理模块,可以但不限于为CPU、AP(Application Processor)、微控制器等。
处理器111以用于显示装置的硬件控制器为例,可以与显示适配器119通信并在显示装置130上显示实时生物图像组织识别装置的运转和用户界面。
处理器111接入存储器部113并运行存储器部中存储的指令或逻辑的一个以上序列,由此控制后面描述的根据本发明实施例的实时生物图像组织识别装置的运转。
这种指令也可以从静态存储部(Static storage)或磁盘驱动器等其他计算机可读记录介质读入存储器。在另一实施形态中,也可以使用电路部(hard-wired circuitry),所述电路部(hard-wired circuitry)内置于替代用于实现本发明的软件指令或与软件指令组合的硬件。逻辑可以指参与向处理器提供指令的任意介质并可载入到存储器部113。
系统总线(System bus)112代表多种可能类型的总线架构中的一种以上,包括使用多种总线架构(architectures)中任意一种的存储器总线或存储器控制器、外围设备总线、加速图形端口以及处理器或本地总线。例如,这种架构(architectures)可以包括ISA(Industry Standard Architecture)总线、MCA(Micro Channel Architecture)总线、EISA(Enhanced ISA)总线、VESA(Video Electronics Standard Association)本地总线、AGP(Accelerated Graphics Port)总线及PCI(Peripheral ComponentInterconnects)、PCI-Express总线、PCMCIA(Personal Computer Memory CardIndustry Association)、USB(Universal Serial Bus)。
系统总线(System bus)112可以通过有线、无线网络连接而实现。包括处理器(Processor)111、大容量存储装置(Mass Storage Device)、操作系统(Operating System)113c、115a、成像软件(Imaging Software)113b、115b、成像数据(Imaging Data)113a、115c、网络适配器(Network Adapter)118、系统存储器(System Memory)、输入/输出接口(Input/Output Interface)117、显示适配器(Display Adapter)119、显示装置(DisplayDevice)130在内的子系统可以在物理分离的位置,包括于后述一个以上的远程计算装置(Remote Computing Device)200、300、400内,对于高效运行分布系统而言,可以通过这种形态的总线连接。
包括总线的布线(wires)在内的发送介质可以包括同轴电缆、铜线(copper wire)及光纤。在一示例中,发送介质也可以采用在无线电通信或红外线数据通信期间生成的声波或光波的形态。
根据本发明实施例的实时生物图像组织识别装置100也可以通过网络链路和网络适配器(Network Adapter)118发送接收消息、数据、信息以及包括一个以上程序(即,应用代码)的指令。
为了能够通过网络链路接收发送,网络适配器(Network Adapter)118也可以包括独立或集成的天线。网络适配器118可以接入网络并与远程计算装置(Remote ComputingDevice)200、300、400通信。网络可以包括但不限于LAN、WLAN、PSTN、及蜂窝电话网络中至少一种。
网络适配器118可以包括用于接入所述网络的网络接口和移动通信模块中至少一种。移动通信模块可以接入各代移动通信网(例如,2G至5G移动通信网)。
对于程序代码,可以在被接收时由处理器111运行,或者为了运行而可以存储于存储器部113的磁盘驱动器或与磁盘驱动器不同种类的非易失性存储器。
计算装置(Computing device)110可以为多种计算机可读记录介质。可读介质可以是计算装置可访问的任意的多种介质,例如,可以包括但不限于易失性(volatile)或非易失性介质(non-volatile media)、可移动介质(removable media)、不可移动介质(non-removable media)。
存储器部113可以但不限于存储根据本发明实施例的生物图像组织识别装置运转所需的操作系统、驱动程序、应用程序、数据和数据库等。另外,存储器部113可以包括诸如RAM(Random Acces Memory)的易失性存储器、诸如ROM(Read Only Memory)和快闪存储器的非易失性存储器形态的计算机可读介质,另外,磁盘驱动器例如可以包括但不限于硬盘驱动器(Hard Disk Drive)、固态硬盘(Solid State Drive)、光盘驱动器等。另外,存储器部113和存储设备115通常分别可以包括诸如对象体生物图像等成像数据(ImagingData)113a、115a的数据、可立即访问以便由处理器111执行的成像软件113b、115b和诸如操作系统113c、115c的程序模块。
机器学习模型13可以嵌入处理器、存储器部113或存储设备115。此时的机器学习模型可以包括但不限于作为机器学习算法之一的深度神经网络(Deep Neural Network,DNN)、卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(RecurrentNeural Network,RNN)等。
照相机部150实时拍摄对象体的生物图像,包括图像传感器(未示出),其中,所述图像传感器拍摄对象的图像并以光电子方式将该图像变换成图像信号。所拍摄的实时生物图像(图像数据)可通过输入/输出接口117提供给处理器111,并基于机器学习模型13进行处理或者存储于存储器部113或存储设备115。另外,照相机部150包括传感器151,针对对象体拍摄实时生物图像时由传感器151获得的多样传感器数据可通过输入/输出接口117提供给处理器111,并与生物图像一同基于机器学习模型13进行处理或者存储于存储器部113或存储设备115。传感器151是可以获得要在生物图像中识别的组织的位置、状态、方向等各种数据信息的传感器,例如可以包括但不限于陀螺仪传感器、加速度传感器、磁传感器等。所拍摄的实时生物图像数据和传感器数据可通过互联网提供给后述远程计算装置200、300、400。
图2是简要示出根据本发明一实施例的识别实时生物图像内组织的实时生物图像识别系统的示意图。
参照图2,根据本发明一实施例的实时生物图像组织识别系统500可以包括计算装置(Computing Device)310、显示装置(Display Device)330、照相机(Camera)350和一个以上的远程计算装置(Remote Compting Device)200、300、400。计算装置310与远程计算装置200、300、400之间可以通过互联网相互连接。计算装置(Computing Device)310中包括的构成要素与前述图1中对应的构成要素类似,其运转和功能不再赘述。另外,每个远程计算装置200、300、400中包括的构成要素与计算装置310的构成要素类似。
计算装置310和远程计算装置200、300、400可以构成为能够执行本发明实施例中提示的方法、功能和/或运转中的一种以上。这种计算装置310、200、300、400可以包括在至少一个以上的计算装置中运行的应用程序。另外,计算装置310、200、300、400可以包括一个以上的计算机和一个以上的数据库,可以是单一装置、分布装置、基于云的计算机或他们的组合。
根据本发明的实时生物图像组织识别装置不限于笔记本电脑、台式电脑和服务器,可以在能运行可处理数据的任意指令的计算装置或系统中实现,可以用基于互联网的不同计算装置和系统实现。另外,实时生物图像组织识别装置可以以包括固件的软件、硬件或他们的组合等多样方式实现。例如,用于以多样方式运行的功能可以由以多样方式实现的构成要素执行,所述构成要素包括独立逻辑构成要素、一个以上ASIC(ApplicationSpecific IntegratedCircuits)和/或程序控制处理器。
图3是示出根据本发明一实施例的用于识别实时生物图像内组织的处理器的线框示意图。
参照图3,处理器600可以为图1和图2的处理器111、311,可以接收让机器学习模型211a、213a、215a、230a学习的学习数据,并基于所接收的学习数据提取学习数据的属性信息。学习数据可以为实时生物图像数据(多个生物图像数据或单一生物图像数据)或传感器数据。另外,学习数据可以为从实时生物图像数据提取的属性信息数据或传感器数据。在一实施例中,从实时生物图像数据提取的属性信息可以是对从生物图像数据内识别(detection)的对象进行分类的标注(Label)信息。例如,标注可以是生物图像数据内表达的分类为肝脏、胰腺和胆囊等体内器官的类别,可以是分类为血管、淋巴、神经等体内组织的类别。在一实施例中,标注信息可以包括对象的位置信息,标注可以基于在实时生物图像数据中识别的对象的比重、意义而赋予加权值或顺序。另外,属性信息可以是在当前生物图像数据中识别的对象相比在之前生物图像数据中识别的对象发生变化的位移(displacement)信息。例如,属性信息可以为代表所识别对象的角度变化量、加速度变化量、角加速度变化量、速度变化量、角速度变化量等的特征矢量。此时,特征矢量可以从与传感器数据联动并对应的实时生物图像数据提取。
处理器600可以包括数据处理部210和属性信息模型学习部230。
数据处理部210可以接收使属性信息模型进行学习的实时生物图像数据和传感器数据或实时生物图像的属性信息数据和传感器数据,并将所接收的生物图像数据和传感器数据或生物图像的属性信息数据和传感器数据变换(transforming)或图像处理(processing)成适合属性信息模型学习的数据。数据处理部210可以包括标注信息生成部211、数据生成部213和特征提取部215。
标注信息生成部211可以利用第一机器学习模型211a生成与所接收的实时生物图像数据对应的标注信息。标注信息可以是根据在所接收的实时生物图像数据中识别的对象而确定的一个以上的类别相关信息。在一实施例中,标注信息可以与对应于标注信息的实时生物图像数据相关信息一同存储于存储器部113或存储设备115。
数据生成部213可以生成将输入包括机器学习模型230a的属性信息模型学习部230的数据。数据生成部213可以利用第二机器学习模型213a,基于所接收的实时生物图像数据中包含的多帧数据,生成将输入第四机器学习模型230a的输入数据。帧数据可以意指构成实时生物图像的各个帧,可以意指构成实时生物图像的各帧的RGB数据,可以意指提取各帧特征的数据或将各帧的特征表达为矢量的数据。在一实施例中,数据生成部213可以基于全部多个帧数据而生成输入数据,但也可以基于多帧数据中任意单一帧数据或者第奇数或第偶数帧数据而生成规则的输入数据。另外,数据生成部213可以将所接收的传感器数据变换成适合属性信息模型学习的数据。
特征提取部215可以利用第三机器学习模型215a提取与所接收的实时生物图像数据对应的特征矢量。例如,特征提取部215可以基于传感器数据提取代表在实时生物图像数据中识别的对象的位置变化的特征矢量。
属性信息模型学习部230包括第四机器学习模型230a,可以将包括由标注信息生成部211、数据生成部213、特征提取部215生成并提取的图像数据、标注信息、特征矢量的数据输入第四机器学习模型230a以进行融合学习(fusion learning),并提取关于实时生物图像数据的属性信息。属性信息是指与在所述实时生物图像数据中识别的对象图像的特征相关的信息。例如,属性信息可以是代表标注(例如,胰脏(spleen))信息或对象的位置信息的数据,其中,所述标注信息在生物图像数据中对对象进行分类,所述对象的位置信息可以利用来自传感器的感测数据而提取,所述传感器可以在照相机移动并拍摄体内对象而可获得的连续生物图像数据中感测照相机的移动。当属性信息模型学习部提取的属性信息发生错误时,可以更新第四机器学习模型230a使用的系数或连接加权值等。
图4是示出根据本发明一实施例的通过计算装置生成实时生物图像的属性信息过程的示意图。
参照图4,实时拍摄的连续生物图像(image 1、image 2、...、image n-1、image n)中任意时间点的任意一个生物图像可以输入机器学习模型710,同时,与连续生物图像在时间上对应的传感器数据(S-data 1、S-data 2、...、S-data n-1、S-data n)可以输入所述机器学习模型710。传感器数据是来自照相机上搭载的传感器的代表因照相机的移动导致的生物图像位移的值。处理器700可以基于内部包括的机器学习模型710,使所输入的一个生物图像与包含传感器数据的数据进行融合(Fusion&Aggregation)学习,并提取任意时间点之后的任意一个生物图像的属性信息720。处理器700可以为图1和图2的计算装置110、310中包括的处理器111、311。
作为一实施例,连续拍摄的生物图像中的在时间顺序上的第n生物图像(例如,n=1的image 1)输入机器学习模型710,与第n以上生物图像在时间上对应的传感器数据(例如,n为1以上的S-data 1、S-data 2、...、S-data n-1、S-data n)输入机器学习模型710后,处理器700可以基于机器学习模型710,使输入的生物图像和传感器数据进行融合学习并提取第n+1以上生物图像(例如,image 2、...、image n-1、image n)的属性信息720。
要提取第n+1以上生物图像中的特征生物图像的属性信息时,例如,当要只提取按时间顺序排列的第5生物图像(image 5)的属性信息时,传感器数据可以利用与第一和第五生物图像在时间上对应的第一和第五传感器数据,而不是与从第一至第五生物图像在时间对应的第一至第五传感器数据。
属性信息720可以是对在所提取的生物图像内识别的对象进行分类的标注(Label)信息或对象的位移(Displacement)信息。如上所述,位移信息可以是能以二维或三维方式获知对象位置的信息,例如,二维或三维坐标、旋转角、角速度、角加速度等可以与生物图像联动测量的数值数据。属性信息720可以存储于系统存储器部113或存储设备115。
虽然未示出,但机器学习模型710可以输入计算机可读记录介质并运行,可以输入存储器部113或存储设备115并由所述处理器700启动并运行。
图5是示出根据本发明另一实施例的通过计算装置生成实时生物图像的属性信息过程的示意图。
参照图5,实时拍摄的连续生物图像(image 1、image 2、...、image n-1、image n)中任意时间点的任意一个生物图像输入第一机器学习模型811后,处理器800可以基于内部包括的第一机器学习模型811,提取所输入的一个生物图像的第一属性信息830。作为实施例,处理器800可以是图1和图2的计算装置110、310中包括的处理器111、311。第一属性信息830可以存储于系统存储器部113或存储设备115。然后,所提取的第一属性信息830和与所述任意时间之后的连续生物图像在时间上对应的感器数据(S-data 2、...、S-data n-1、S-data n)可以输入所述第二机器学习模型813。传感器数据是来自搭载于照相机的传感器的代表因照相机移动所导致的生物图像位移的值。所输入的一个生物图像的第一属性信息830与包含传感器数据的数据可以进行融合(Fusion&Aggregation)学习并提取任意时间点之后任意一个生物图像的第二属性信息850。
作为一实施例,连续拍摄的生物图像中按时间顺序排列的第n生物图像(例如,n=1的image 1)输入第一机器学习模型811后,处理器800可以基于第一机器学习模型811提取第n生物图像(image 1)的第一属性信息830。此时,第一属性信息830可以为对在生物图像内识别的对象进行分类的标注(Label)信息和对象的位置信息(x0、y0)。然后,所提取的第n生物图像(image1)的第一属性信息830和与第n之后生物图像在时间上对应的传感器数据(S-data 2、...、S-data n-1、S-data n)可以在第二机器学习模型813中进行融合学习并提取第n+1以上生物图像(例如,image 2、...、image n-1、image n)的第二属性信息850。
当要提取第n+1以上生物图像中特定生物图像的属性信息时,例如,当要只提取按时间顺序排列的第5生物图像(image 5)的属性信息时,传感器数据可以利用与第一和第五生物图像在时间上对应的第一和第五传感器数据,而不是与从第一至第五生物图像在时间对应的第一至第五传感器数据。
第二属性信息850可以包括对在所提取的第n+1以上生物图像内识别的对象进行分类的标注(Label)信息或对象的位移(Displacement)信息。对象的位移信息可以用位置信息(x1,y1)表达。另外,如上所述,位移信息可以是能以二维或三维方式获知对象位置的信息,例如,可以是二维或三维坐标、旋转角、角速度、角加速度等可以与生物图像联动测量的数值数据。第二属性信息850可以存储于系统存储器部113或存储设备115。
作为一实施例,第一机器学习模型811和第二机器学习模型813的层数、各层的节点数、邻接层节点之间的连接设置等神经网构成可以相同。作为另一实施例,第一机器学习模型881和第二机器学习模型813是互不相同的机器学习模型,例如,第一机器学习模型可以由用于提取在生物图像中对对象进行分类所需的标注信息和识别对象坐标所需的位置信息的神经网构成,第二机器学习模型可以由用于提取在生物图像中对对象进行分类所需的标注信息及识别对象坐标和诸如对象的位置、角度、旋转等位移信息所需的位移信息的神经网构成。
这种第一机器学习模型811和第二机器学习模型813可以输入于计算机判读可读记录介质并运行,可以输入于存储器部113或存储设备115并由所述处理器800启动并运行。
如上所述,根据本发明的计算装置利用在拍摄生物图像时可随着照相机的移动而实时测量的传感器数据,即使不基于机器学习模型对各个连续生物图像全部进行运算处理并提取属性信息,也可以对实时连续生物图像提取属性信息。因此,可以减小对全部连续生物图像的运算量,可以完善处理器的性能。
图6是用于描述根据本发明一实施例的生物图像识别装置利用传感器数据来显示生物图像过程的示意图,图7是用于描述根据本发明另一实施例的生物图像识别装置利用传感器数据来识别并显示生物图像过程的示意图。
参照图6和图7,实时拍摄的连续生物图像(Frame1、Frame2、Frame3、...、Frame10)的所有属性信息830、850可以通过参照图5描述的方法而提取。所提取的属性信息如图6所示,可由处理器800进行图像处理以生成与所述全部连续生物图像在时间上对应的经标注的生物图像,并将经标注的生物图像870显示于显示装置130、330,或者如图7所示,所提取的属性信息可由处理器800只对所述全部连续生物图像中任意生物图像进行图像处理以生成与任意生物图像在时间上对应的经标注的生物图像,并将其显示于显示装置。
如上所述,根据本发明的生物图像识别装置如果利用传感器数据生成经标注的生物图像,则可以预测生物图像内在视觉上隐藏的对象(器官/组织)的位置。
图8是示出根据本发明一实施例的识别实时生物图像方法的流程示意图。
参照图8,为了提取实时拍摄的生物图像的属性信息,可以利用所拍摄的生物图像中任意一个生物图像和传感器数据。在S810步骤中,获得针对对象体实时拍摄的生物图像中任意时间点的任意一个生物图像,并同时获得来自传感器的传感器数据(与生物图像在时间上对应的传感器数据),其中,所述传感器可以测量在拍摄生物图像的同时随时间变化的生物图像的信息。其中,实时拍摄的生物图像可以是利用柔性内窥镜或腹腔镜内窥镜等照相机实时拍摄人体内部器官或组织的视频图像,特别是在手术中实时拍摄人体内部而获得的任何生物图像均可适用。传感器数据是从多样传感器获得的数据,其中,所述传感器可以测量随着照相机的移动而拍摄的生物图像的变化。在S830步骤中,利用任意生物图像和传感器数据生成融合数据。融合数据可以基于机器学习模型而生成,可以由能综合处理图像和数据的处理器生成。融合数据可以将所述任意生物图像的特征(或特征矢量)与传感器数据的特征(特征矢量)直接并置(concatenation)而获得,或将所述任意生物图像的特征(特征矢量)与传感器数据的特征(特征矢量)合计(summation)而获得。
然后,在S850步骤中,可以基于机器学习模型而从所述融合数据提取所述全部实时生物图像的属性信息。其中,机器学习模型可以由用于提取在生物图像中对对象进行分类所需的标注信息及识别对象坐标和诸如对象的位置、角度、旋转等位移信息所需的位移信息的神经网构成,作为一个示例,机器学习模型可以是作为机器学习算法之一的深度神经网络(Deep Neural Network,DNN)、卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)等。
图9是示出根据本发明另一实施例的识别实时生物图像方法的流程示意图。
参照图9,为了提取实时拍摄的生物图像的属性信息,可以利用所拍摄的生物图像中任意一个生物图像的属性信息和传感器数据。在S910步骤中,可以基于第一机器学习模型,从针对对象体而按时间连续拍摄的生物图像中第n(n为自然数)图像提取所述第n图像的第一属性信息。第一机器学习模型可以由用于提取在生物图像中对对象进行分类所需的标注信息和识别对象坐标所需的位置信息的神经网构成。如前面参照图8所述,实时拍摄的生物图像可以为利用柔性内窥镜或腹腔镜内窥镜等照相机实时拍摄人体内部器官或组织的视频图像,特别是在手术中实时拍摄人体内部而获得的任何生物图像均可适用。
在S930步骤中,获得与第n+1以上生物图像在时间上对应的传感器数据中至少任一传感器数据。传感器数据是从多样传感器获得的数据,其中,所述传感器可以测量随着照相机的移动而拍摄的生物图像的变化。
在S950步骤中,利用所述第n图像的第一属性信息和所述传感器数据来生成融合数据。如前面参照图8所述,融合数据可以基于机器学习模型而生成,可以由能综合处理图像和数据的处理器生成。另外,融合数据可以将所述任意生物图像的特征(或特征矢量)与传感器数据的特征(特征矢量)直接并置(concatenation)而获得,或将所述任意生物图像的特征(特征矢量)与传感器数据的特征(特征矢量)合计(summation)而获得。
在S970步骤中,可以基于第二机器学习模型而从所述融合数据提取所述第n+1以上生物图像的第二属性信息。第二机器学习模型可以由用于提取在生物图像中对对象进行分类所需的标注信息及识别对象坐标和诸如对象的位置、角度、旋转等位移信息所需的位移信息的神经网构成。
这种实时生物图像的属性信息的提取可以由计算装置执行,计算装置是接受实时拍摄的生物图像数据集作为学习数据的装置,作为机器学习模型的执行结果,可以生成经学习的数据。在描述根据本实施例的方法的各个动作时,在省略对其主体的记载的情况下,相应动作的主体可以理解为所述计算装置。
如上述实施例所示,可以明确了解到本发明的操作和方法可以通过软件和硬件的结合来实现,或者也可以仅通过硬件来实现。本发明的技术方案的目的或对现有技术有贡献的部分可以能通过多种计算机组件执行的程序指令的形态实现并记录于机器可读记录介质中。所述机器可读记录介质可以单独或组合包括程序指令、数据文件、数据结构等。记录于所述机器可读记录介质的程序指令可以是为本发明专门设计和构建的,或者也可以是计算机软件领域的普通技术人员已知和可用的。
机器可读记录介质的示例包括硬盘、诸如软盘和磁带的磁介质、诸如CD-ROM和DVD的光记录介质、诸如软式光盘(floptical disk)的磁光介质(magneto-optical media),以及诸如ROM、RAM、闪存等的为存储和执行程序指令而专门构成的硬件设备。程序指令的示例不仅包括由编译器生成的机器语言代码,还包括可使用解释器等而由计算机执行的高级语言代码。
所述硬件装置可以构成为作为一个以上软件模块运转以执行本发明的处理,反之亦然。所述硬件装置可以包括诸如CPU或GPU的处理器,所述处理器被配置成与用于存储程序指令的ROM/RAM等存储器结合以执行所述存储器中存储的指令,且所述硬件设备可以包括能够与外部装置收发信号的通信部。而且,所述硬件装置可以包括用于接受由开发人员编写的指令的键盘、鼠标及其他外部输入装置。
如上所述考查了根据本发明的实施例,除上述实施例之外,本发明可以在不脱离本发明宗旨或范畴的情况下以其他具体形态实施,这是本领域技术人员不言而喻的。因此,上述实施例应被视为说明性的而非限制性的,因此本发明不限于上述描述,而是也可以在所附权利要求及其均等范围内进行变更。
Claims (15)
1.一种计算装置,其特征在于,包括:
处理器;以及
存储器,所述存储器包含至少一个指令,所述指令被所述处理器执行;
其中,所述处理器利用针对对象体在时间上连续拍摄的生物图像中的任意时间点的任意一个生物图像和与所述连续拍摄的生物图像在时间上对应的传感器数据生成融合数据,
并基于机器学习模型而从所述融合数据提取所述连续拍摄的生物图像的属性信息。
2.根据权利要求1所述的计算装置,其特征在于,所述属性信息包括用于对在所述生物图像内识别的对象进行分类的所述对象的标注信息或所述对象的位移信息。
3.根据权利要求2所述的计算装置,其特征在于,所述位移信息包括坐标变化量、角度变化量、加速度变化量、角加速度变化量、速度变化量、角速度变化量中至少任意一种。
4.根据权利要求1所述的计算装置,其特征在于,所述传感器数据为从陀螺仪传感器、加速度传感器、磁传感器中至少任意一种获得的数据。
5.一种计算装置,包括:
处理器;以及
存储器,所述存储器包含至少一个指令,所述指令被所述处理器执行;
其中,所述处理器基于第一机器学习模型而从针对对象体在时间上连续拍摄的生物图像中的第n图像提取所述第n图像的第一属性信息,其中,所述n为自然数,
利用与第n+1以上生物图像在时间上对应的传感器数据中的至少任意一传感器数据和所述第n图像的第一属性信息生成融合数据,
并基于第二机器学习模型而从所述融合数据提取所述第n+1以上生物图像的第二属性信息。
6.根据权利要求5所述的计算装置,其特征在于,所述第一机器学习模型和所述第二机器学习模型为互不相同的机器学习模型。
7.根据权利要求5所述的计算装置,其特征在于,所述第一属性信息包括用于对在所述第n生物图像内识别的对象进行分类的所述对象的标注信息。
8.根据权利要求5所述的计算装置,其特征在于,所述第二属性信息包括用于对在所述第n+1以上生物图像内识别的对象进行分类的所述对象的标注信息或所述对象的位移信息。
9.一种生物图像组织识别方法,所述方法由处理器进行对象体的生物图像识别,其特征在于,所述方法包括:
利用针对所述对象体而在时间上连续拍摄的生物图像中的任意时间点的任意一个生物图像和与所述连续拍摄的生物图像在时间上对应的传感器数据生成融合数据的步骤;以及
基于机器学习模型而从所述融合数据提取所述连续拍摄的生物图像的属性信息的步骤。
10.一种生物图像组织识别方法,所述方法由处理器进行对象体的生物图像组织识别,其特征在于,所述方法包括:
基于第一机器学习模型而从针对所述对象体在时间上连续拍摄的生物图像中的第n图像提取所述第n图像的第一属性信息的步骤,其中,n为自然数;
利用与第n+1以上生物图像在时间上对应的传感器数据中至少任意一传感器数据和所述第n图像的第一属性信息生成融合数据的步骤;以及
基于第二机器学习模型而从所述融合数据提取所述第n+1以上生物图像的第二属性信息的步骤。
11.根据权利要求10所述的生物图像组织识别方法,其特征在于,所述第一属性信息包括用于对在所述第n生物图像内识别的对象进行分类的所述对象的标注信息。
12.根据权利要求10所述的生物图像组织识别方法,其特征在于,所述第二属性信息包括用于对在所述第n+1以上生物图像内识别的对象进行分类的所述对象的标注信息或所述对象的位移信息。
13.一种机器可读记录介质,所述机器可读记录介质包含指令,所述指令被处理器执行权利要求10至12中任意一项的方法。
14.一种生物图像组织识别装置,其特征在于,包括:
照相机;
传感器,用以感测所述照相机的移动;
处理器;以及
存储器,所述存储器包含至少一个指令,所述指令被所述处理器执行;
其中,所述处理器利用通过所述照相机针对对象体而在时间上连续拍摄的生物图像中的任意时间点的任意一个生物图像和与所述连接拍摄的生物图像在时间上对应的所述传感器感测的传感器数据生成融合数据,
并基于机器学习模型而从所述融合数据提取所述连续拍摄的生物图像的属性信息。
15.一种生物图像组织识别装置,其特征在于,包括:
照相机;
传感器,用以感测所述照相机的移动;
处理器;以及
存储器,所述存储器包含至少一个指令,所述指令被所述处理器执行;
其中,所述处理器基于第一机器学习模型而从利用所述照相机针对对象体而在时间上连续拍摄的生物图像中的第n图像提取所述第n图像的第一属性信息,其中,n为自然数,
利用与第n+1以上生物图像在时间上对应的所述传感器感测的传感器数据中的至少任意一传感器数据和所述第n图像的第一属性信息生成融合数据,
并基于第二机器学习模型而从所述融合数据提取所述第n+1以上生物图像的第二属性信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0014897 | 2021-02-02 | ||
KR1020210014897A KR20220111526A (ko) | 2021-02-02 | 2021-02-02 | 실시간 생체 이미지 인식 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114841913A true CN114841913A (zh) | 2022-08-02 |
Family
ID=82561584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210063851.5A Pending CN114841913A (zh) | 2021-02-02 | 2022-01-20 | 实时生物图像识别方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220245815A1 (zh) |
JP (1) | JP7297334B2 (zh) |
KR (1) | KR20220111526A (zh) |
CN (1) | CN114841913A (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130114849A1 (en) * | 2011-11-04 | 2013-05-09 | Microsoft Corporation | Server-assisted object recognition and tracking for mobile devices |
US20170069083A1 (en) * | 2015-09-08 | 2017-03-09 | Braun Gmbh | Determination of a currently treated body portion of a user |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
US20180089537A1 (en) * | 2016-09-26 | 2018-03-29 | Canon Kabushiki Kaisha | Learning apparatus, image identification apparatus, learning method, image identification method, and storage medium |
CN109890576A (zh) * | 2016-08-25 | 2019-06-14 | Lg电子株式会社 | 移动机器人及其控制方法 |
CN109886243A (zh) * | 2019-03-01 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质、设备以及系统 |
US20190251684A1 (en) * | 2018-02-09 | 2019-08-15 | Samsung Electronics Co., Ltd. | Method and apparatus with image fusion |
CN110248097A (zh) * | 2019-06-28 | 2019-09-17 | Oppo广东移动通信有限公司 | 追焦方法、装置、终端设备、计算机可读存储介质 |
US20190318475A1 (en) * | 2016-11-22 | 2019-10-17 | Koninklijke Philips N.V. | Vascular tree standardization for biophysical simulation and/or an extension simulation for pruned portions |
CN110581946A (zh) * | 2018-06-11 | 2019-12-17 | 欧姆龙株式会社 | 控制系统、控制装置、图像处理装置以及存储介质 |
US20200005037A1 (en) * | 2018-06-29 | 2020-01-02 | Lenovo (Beijing) Co., Ltd. | Information processing method and related electronic device |
CN112017210A (zh) * | 2020-07-14 | 2020-12-01 | 创泽智能机器人集团股份有限公司 | 目标物体跟踪方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102140402B1 (ko) | 2019-09-05 | 2020-08-03 | 주식회사 루닛 | 기계학습을 이용한 의료 영상 판독의 품질 관리 방법 및 장치 |
KR20210099967A (ko) * | 2020-02-05 | 2021-08-13 | 삼성메디슨 주식회사 | 초음파 진단 장치 및 그 동작 방법 |
US11693919B2 (en) * | 2020-06-22 | 2023-07-04 | Shanghai United Imaging Intelligence Co., Ltd. | Anatomy-aware motion estimation |
US11657373B2 (en) * | 2020-08-21 | 2023-05-23 | Accenture Global Solutions Limited | System and method for identifying structural asset features and damage |
-
2021
- 2021-02-02 KR KR1020210014897A patent/KR20220111526A/ko not_active Application Discontinuation
-
2022
- 2022-01-20 CN CN202210063851.5A patent/CN114841913A/zh active Pending
- 2022-01-21 US US17/581,822 patent/US20220245815A1/en active Pending
- 2022-01-24 JP JP2022008472A patent/JP7297334B2/ja active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130114849A1 (en) * | 2011-11-04 | 2013-05-09 | Microsoft Corporation | Server-assisted object recognition and tracking for mobile devices |
US20170069083A1 (en) * | 2015-09-08 | 2017-03-09 | Braun Gmbh | Determination of a currently treated body portion of a user |
CN109890576A (zh) * | 2016-08-25 | 2019-06-14 | Lg电子株式会社 | 移动机器人及其控制方法 |
US20180089537A1 (en) * | 2016-09-26 | 2018-03-29 | Canon Kabushiki Kaisha | Learning apparatus, image identification apparatus, learning method, image identification method, and storage medium |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
US20190318475A1 (en) * | 2016-11-22 | 2019-10-17 | Koninklijke Philips N.V. | Vascular tree standardization for biophysical simulation and/or an extension simulation for pruned portions |
US20190251684A1 (en) * | 2018-02-09 | 2019-08-15 | Samsung Electronics Co., Ltd. | Method and apparatus with image fusion |
CN110581946A (zh) * | 2018-06-11 | 2019-12-17 | 欧姆龙株式会社 | 控制系统、控制装置、图像处理装置以及存储介质 |
US20200005037A1 (en) * | 2018-06-29 | 2020-01-02 | Lenovo (Beijing) Co., Ltd. | Information processing method and related electronic device |
CN109886243A (zh) * | 2019-03-01 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质、设备以及系统 |
CN110248097A (zh) * | 2019-06-28 | 2019-09-17 | Oppo广东移动通信有限公司 | 追焦方法、装置、终端设备、计算机可读存储介质 |
CN112017210A (zh) * | 2020-07-14 | 2020-12-01 | 创泽智能机器人集团股份有限公司 | 目标物体跟踪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20220111526A (ko) | 2022-08-09 |
JP7297334B2 (ja) | 2023-06-26 |
JP2022118706A (ja) | 2022-08-15 |
US20220245815A1 (en) | 2022-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Min et al. | Overview of deep learning in gastrointestinal endoscopy | |
TWI793337B (zh) | 訓練生成對抗網路之系統及方法以及經訓練之生成對抗網路之使用 | |
US10860930B2 (en) | Learning method, image recognition device, and computer-readable storage medium | |
KR101898575B1 (ko) | 진행성 병변에 대한 미래 상태를 예측하는 방법 및 이를 이용한 장치 | |
KR102177568B1 (ko) | 레이블 있는 데이터 및 레이블 없는 데이터를 병용하는 준지도 강화 학습 방법 및 이를 이용한 장치 | |
JP2024069393A (ja) | 医療画像装置からのリアルタイムビデオを処理し、且つ、ビデオ内の物体を検出するシステム及び方法 | |
JP2021513435A (ja) | 胃腸腫瘍を診断するシステム及び方法 | |
KR102526700B1 (ko) | 전자 장치 및 그의 3d 이미지 표시 방법 | |
US20220351407A1 (en) | Program, information processing method, and information processing device | |
KR102258756B1 (ko) | 의료 영상을 이용한 암의 병기 결정 방법 및 의료 영상 분석 장치 | |
WO2021250951A1 (ja) | プログラム、情報処理方法及び情報処理装置 | |
WO2022231329A1 (ko) | 생체 이미지 조직 표시 방법 및 장치 | |
US20220301159A1 (en) | Artificial intelligence-based colonoscopic image diagnosis assisting system and method | |
KR102530010B1 (ko) | 의료 영상 기반 질환 중증도 결정 장치 및 방법 | |
WO2019143179A1 (ko) | 동일 피사체에 대하여 시간 간격을 두고 촬영된 영상 간에 동일 관심구역을 자동으로 검출하는 방법 및 이를 이용한 장치 | |
CN114120030A (zh) | 基于注意力机制的医学图像处理方法及相关设备 | |
Ahn et al. | Finding small-bowel lesions: challenges in endoscopy-image-based learning systems | |
US20220084194A1 (en) | Computer program, processor for endoscope, and information processing method | |
Liao et al. | Deep learning for registration of region of interest in consecutive wireless capsule endoscopy frames | |
Wahab et al. | Machine learning based small bowel video capsule endoscopy analysis: Challenges and opportunities | |
US20220301165A1 (en) | Method and apparatus for extracting physiologic information from biometric image | |
CN114841913A (zh) | 实时生物图像识别方法及装置 | |
KR20220078495A (ko) | 캡슐 내시경 영상 기반 소장 병변 판독 방법, 장치 및 프로그램 | |
KR20220168611A (ko) | 딥러닝을 이용한 하지 x선 이미지 자동 분석 장치 및 방법 | |
WO2023075055A1 (ko) | 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |