KR20230066526A - Image Processing Method, Apparatus, Computing Device and Storage Medium - Google Patents

Image Processing Method, Apparatus, Computing Device and Storage Medium Download PDF

Info

Publication number
KR20230066526A
KR20230066526A KR1020230055668A KR20230055668A KR20230066526A KR 20230066526 A KR20230066526 A KR 20230066526A KR 1020230055668 A KR1020230055668 A KR 1020230055668A KR 20230055668 A KR20230055668 A KR 20230055668A KR 20230066526 A KR20230066526 A KR 20230066526A
Authority
KR
South Korea
Prior art keywords
image
image sequence
sequence
images
collection
Prior art date
Application number
KR1020230055668A
Other languages
Korean (ko)
Inventor
웨팅 샤오
광 양
차오 정
인헝 주
Original Assignee
슈쿤 (베이징) 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 슈쿤 (베이징) 테크놀로지 컴퍼니 리미티드 filed Critical 슈쿤 (베이징) 테크놀로지 컴퍼니 리미티드
Publication of KR20230066526A publication Critical patent/KR20230066526A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

According to the present disclosure, provided are a method, a device, and a computing device for processing an image and a storage medium thereof. The method of the present invention comprises the steps of: obtaining a first image sequence corresponding to a first body region and a second image sequence corresponding to the first body region, wherein at least one of a collection position, a collection depth, and a collection angle is different in images of the first image sequence, and images of the second image sequence have basically the same collection angle, and are sequentially collected at different time points; and generating a third image sequence on the basis of the first and second image sequences, wherein the third image sequence includes at least one update image, wherein the updated image corresponds to at least one image of the second image sequence and has a different observation angle from the image.

Description

이미지 처리 방법, 장치, 컴퓨팅 디바이스 및 저장 매체{Image Processing Method, Apparatus, Computing Device and Storage Medium}Image processing method, apparatus, computing device and storage medium {Image Processing Method, Apparatus, Computing Device and Storage Medium}

본 개시는 이미지 처리 분야에 관한 것으로, 특히 이미지 처리 방법, 장치, 컴퓨팅 디바이스 및 저장 매체에 관한 것이다.This disclosure relates to the field of image processing, and more particularly to image processing methods, apparatus, computing devices, and storage media.

현재 의사들은 의료 진단을 위해 의료 스캐닝 기기(예를 들어, 핵자기공명영상(NMRI) 스캐너, 자기공명영상(MRI) 스캐너, 컴퓨터 단층 촬영(CT) 스캐너 등)로 스캔하여 획득되는 의료 이미지 시퀀스 또는 이미지 집합을 자주 사용한다. 의료 스캐닝 기기로 하나 또는 복수의 원본 이미지를 획득한 후, 하나 또는 복수의 원본 이미지를 처리하여 의사의 확인을 용이하게 함으로써, 의사가 처리 결과를 참조하여 보다 용이한 진단을 내릴 수 있도록 한다.Currently, doctors use medical image sequences obtained by scanning with medical scanning devices (e.g., nuclear magnetic resonance imaging (NMRI) scanners, magnetic resonance imaging (MRI) scanners, computed tomography (CT) scanners, etc.) for medical diagnosis, or Image sets are often used. After obtaining one or more original images with the medical scanning device, the one or more original images are processed to facilitate the doctor's confirmation, so that the doctor can refer to the processing result to make a diagnosis more easily.

본 개시의 일 양태에 따르면, 이미지 처리 방법을 제공하며, 상기 방법은, 제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하는 단계 - 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집됨 -; 및 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 단계 - 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가짐 -; 를 포함한다. According to one aspect of the present disclosure, an image processing method is provided, comprising: acquiring a first image sequence corresponding to a first body region and a second image sequence corresponding to the first body region - the first image sequence corresponding to the first body region; The images in one image sequence differ from each other in at least one of the collection position, collection depth, or collection angle, the images in the second image sequence basically have the same collection angle, and the images in the second image sequence are at different points in time. Collected sequentially -; and generating a third image sequence based on the first image sequence and the second image sequence, wherein the third image sequence includes at least one update image, wherein the at least one update image corresponds to the second image sequence. corresponds to at least one image in the sequence, and has a different viewing angle than the at least one image; includes

본 개시의 다른 양태에 따르면, 이미지 처리 장치를 제공하며, 상기 장치는, 제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하기 위한 이미지 시퀀스 획득 유닛 - 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집됨 -; 및 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하기 위한 이미지 시퀀스 생성 유닛 - 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가짐 -; 을 포함한다. According to another aspect of the present disclosure, an image processing device is provided, comprising: obtaining an image sequence for acquiring a first image sequence corresponding to a first body region and a second image sequence corresponding to the first body region; unit - the images in the first image sequence differ from each other in at least one of the collection position, collection depth, or collection angle, the images in the second image sequence have essentially the same collection angle, and the images in the second image sequence are sequentially collected at different time points; and an image sequence generating unit for generating a third image sequence based on the first image sequence and the second image sequence, the third image sequence comprising at least one updated image, the at least one updated image comprising: corresponding to at least one image of the second image sequence, and having a different viewing angle than the at least one image; includes

본 개시의 다른 양태에 따르면, 메모리, 프로세서 및 상기 메모리에 저장된 컴퓨터 프로그램을 포함하는 컴퓨팅 디바이스를 제공하고, 상기 프로세서는 상기 컴퓨터 프로그램을 실행하여 하나 또는 다수의 실시예의 이미지 처리 방법을 구현하기 위해 상기 컴퓨터 프로그램을 실행하도록 구성된다.According to another aspect of the present disclosure, there is provided a computing device including a memory, a processor, and a computer program stored in the memory, wherein the processor implements the image processing method of one or more embodiments by executing the computer program. It is configured to run a computer program.

본 개시의 다른 양태에 따르면, 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체를 제공하며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 하나 또는 다수의 실시예에 따른 이미지 처리 방법을 구현한다. According to another aspect of the present disclosure, a non-transitory computer readable storage medium in which a computer program is stored is provided, and when the computer program is executed by a processor, an image processing method according to one or more embodiments is implemented.

본 개시의 다른 양태에 따르면, 명령을 포함하고, 상기 명령이 적어도 하나의 프로세서에 의해 실행될 때 하나 또는 다수의 실시예에 따른 이미지 처리 방법을 구현하는 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램을 제공한다.According to another aspect of the present disclosure, a computer program stored in a computer readable storage medium including instructions and implementing an image processing method according to one or more embodiments when the instructions are executed by at least one processor is provided. .

아래에 설명된 실시예에 따르면, 본 개시의 이들 측면 및 다른 측면은 명확해질 것이며, 아래에 설명되는 실시예들을 참조하여 설명될 것이다.According to the embodiments described below, these and other aspects of the present disclosure will become clear and will be explained with reference to the embodiments described below.

본 개시의 추가 세부 사항, 특징 및 이점은 도면과 함께 다음의 예시적인 실시예에 대한 설명에서 개시된다.
도 1은 예시적인 실시예에 따른 본 명세서에 설명된 다양한 방법을 실시할 수 있는 예시적 시스템을 나타내는 예시도이다.
도 2는 예시적인 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
도 3a 내지 3d는 본 개시의 예시적인 실시예에 따른 일부 예시적인 이미지를 나타낸다.
도 4는 예시적인 실시예에 따른 이미지 처리 장치를 나타내는 예시적 블록도이다.
도 5는 예시적인 실시예에 적용될 수 있는 예시적인 컴퓨터 기기를 나타내는 블록도이다.
Additional details, features and advantages of the present disclosure are set forth in the following description of exemplary embodiments in conjunction with the drawings.
1 is an exemplary diagram illustrating an exemplary system capable of implementing various methods described herein according to exemplary embodiments.
Fig. 2 is a flowchart illustrating an image processing method according to an exemplary embodiment.
3A-3D show some example images according to example embodiments of the present disclosure.
Fig. 4 is an exemplary block diagram illustrating an image processing device according to an exemplary embodiment.
Fig. 5 is a block diagram illustrating an exemplary computer device that may be applied to an exemplary embodiment.

본 개시에서 달리 명시되지 않는 한, “제1”, “제2” 등의 용어를 사용하여 다양한 요소를 설명함에 있어서 이들 요소의 위치 관계, 시계열 관계 또는 중요도 관계를 한정하려는 의도가 없으며, 이러한 용어는 한 구성요소를 다른 구성요소와 구별하는 데에만 사용된다. 일부 예에서, 제1 요소와 제2 요소는 요소의 동일한 예시를 가리킬 수 있지만 어떤 경우에는 문맥상 설명에 따라 다른 예시를 가리킬 수도 있다.Unless otherwise specified in the present disclosure, in describing various elements using terms such as “first” and “second”, there is no intention to limit the positional relationship, time series relationship, or importance relationship of these elements, and these terms is only used to distinguish one component from another. In some instances, a first element and a second element may refer to the same instance of an element, but in some cases may refer to different instances depending on the context.

본 개시에서 다양한 예시적인 설명에 사용되는 용어는 특정 예시를 설명하기 위한 목적일 뿐 한정하려는 의도는 아니다. 문맥상 명백히 달리 나타내지 않는 한, 요소의 개수를 특별히 한정하지 않으면 하나 또는 복수의 해당 요소가 존재할 수 있다. 본 명세서에서 사용된 바와 같이, 용어 “복수”는 둘 이상을 의미하며, 용어 “…에 기반한다”는 “적어도 부분적으로 …에 기반한다”로 해석되어야 한다. 또한, “및/또는” 및 “... 중 적어도 하나”라는 용어는 나열된 항목 중 어느 하나 및 가능한 모든 조합 방식을 포함한다.Terms used in various exemplary descriptions in this disclosure are for the purpose of describing specific examples and are not intended to be limiting. Unless the context clearly indicates otherwise, unless the number of elements is specifically limited, one or a plurality of corresponding elements may exist. As used herein, the term "plurality" means two or more, and the term "... "Based on" means "at least in part... should be interpreted as “based on”. Also, the terms "and/or" and "at least one of..." include any one of the listed items and all possible combinations.

이하, 첨부된 도면을 참조하여 본 발명의 예시적인 실시예들을 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 예시적인 실시예에 따른 본 명세서에 설명된 다양한 방법을 실시할 수 있는 예시적 시스템(100)을 나타내는 예시도이다.1 is an exemplary diagram illustrating an exemplary system 100 capable of implementing various methods described herein according to exemplary embodiments.

도 1을 참조하면, 상기 시스템(100)은 클라이언트 기기(110), 서버(120) 및 클라이언트 기기(110)와 서버(120)를 통신적으로 커플링하는 네트워크(130)를 포함한다.Referring to FIG. 1 , the system 100 includes a client device 110 , a server 120 and a network 130 communicatively coupling the client device 110 and the server 120 .

클라이언트 기기(110)는 디스플레이(114) 및 디스플레이(114)를 통해 표시될 수 있는 클라이언트 애플리케이션(APP)(112)을 포함한다. 클라이언트 애플리케이션(112)은 실행 전에 다운로드 및 설치가 필요한 애플리케이션 프로그램이나 경량 애플리케이션인 애플릿(liteapp)일 수 있다. 클라이언트 애플리케이션(112) 이 실행전에 다운로드 및 설치가 필요한 애플리케이션인 경우, 클라이언트 애플리케이션(112)은 클라이언트 기기(110)에 미리 설치되어 활성화될 수 있다. 클라이언트 애플리케이션(112)이 애플릿인 경우, 사용자(102)는 클라이언트 애플리케이션(112)을 설치하지 않고도, 호스트 애플리케이션에서 클라이언트 애플리케이션(112)(예를 들어, 클라이언트 애플리케이션(112)의 명칭 등)을 검색하거나 클라이언트 애플리케이션(112)의 그래픽 코드(예를 들어, 바코드, QR 코드 등)를 스캔하는 등 방식을 통해 클라이언트 기기(110) 상에서 직접 클라이언트 애플리케이션(112)을 실행할 수 있다. 일부 실시예에서, 클라이언트 기기(110)는 모바일 컴퓨터, 휴대폰, 웨어러블 컴퓨터 기기(예를 들어, 스마트 워치, 스마트 안경을 망라한 헤드 마운트 기기 등) 또는 다른 유형의 모바일 기기를 포함하는 임의의 유형의 모바일 컴퓨터 기기일 수 있다. 일부 실시예에서, 클라이언트 기기(110)는 대안적으로 고정 컴퓨터 기기일 수 있으며, 예를 들어, 데스크톱, 서버 컴퓨터 또는 다른 유형의 고정 컴퓨터 기기이다. 일부 선택적인 실시예에서, 클라이언트 기기(110)는 의료 이미지 인쇄 기기이거나 이를 포함할 수 있다.The client device 110 includes a display 114 and a client application (APP) 112 that can be displayed on the display 114 . The client application 112 may be an application program that needs to be downloaded and installed before execution or a light-weight application, such as an applet (liteapp). If the client application 112 is an application that needs to be downloaded and installed before execution, the client application 112 may be pre-installed on the client device 110 and activated. If the client application 112 is an applet, the user 102 searches for the client application 112 (eg, the name of the client application 112, etc.) from the host application, without installing the client application 112, or The client application 112 may be directly executed on the client device 110 through a method such as scanning a graphic code (eg, barcode, QR code, etc.) of the client application 112 . In some embodiments, client device 110 is any type of mobile device, including a mobile computer, cell phone, wearable computer device (eg, smart watch, head-mounted device encompassing smart glasses, etc.) or other type of mobile device. It may be a computer device. In some embodiments, client device 110 may alternatively be a fixed computer device, such as a desktop, server computer, or other type of fixed computer device. In some optional embodiments, the client device 110 may be or include a medical image printing device.

서버(120)는 전형적으로 인터넷 서비스 제공자(Internet Service Provider, ISP) 또는 인터넷 콘텐츠 제공자(Internet Content Provider, ICP)에 의해 구축되는 서버이다. 서버(120)는 단일 서버, 다중 서버 클러스터, 분산 시스템(distributed system) 또는 기본 클라우드 서비스(예를 들어 클라우드 데이터베이스, 클라우드 컴퓨팅, 클라우드 스토리지, 클라우드 통신)를 제공하는 클라우드 서버를 나타낼 수 있다. 도 1에서는 서버(120)가 단 하나의 클라이언트 기기(110)와 통신하는 것으로 나타내고 있지만, 서버(120)는 동시에 복수의 클라이언트 기기에 백그라운드 서비스를 제공할 수 있음을 이해할 것이다.Server 120 is a server typically built by an Internet Service Provider (ISP) or Internet Content Provider (ICP). Server 120 may represent a single server, a multi-server cluster, a distributed system, or a cloud server providing basic cloud services (eg, cloud database, cloud computing, cloud storage, cloud communication). Although FIG. 1 shows server 120 as communicating with only one client device 110 , it will be appreciated that server 120 may provide background services to multiple client devices simultaneously.

네트워크(130)의 예시는 LAN, WAN, 개인 통신망(Personal Area Network, PAN), 및/또는 인터넷과 같은 통신 네트워크의 조합을 포함한다. 네트워크(130)는 유선 또는 무선 네트워크일 수 있다. 일부 실시예에서, 네트워크(130)를 통해 교환되는 데이터는 하이퍼텍스트 마크업 언어(Hyper Text Markup Language, HTML), 확장 가능 마크업 언어(eXtensible Markup Language, XML) 등을 포함하는 기술 및/또는 포맷을 사용하여 처리된다. 또한, 보안 소켓 계층(Secure Sockets Layer, SSL), 전송 계층 보안(Transport Layer Security, TLS), 가상 사설망(Virtual Private Network, VPN), IP 보안(Internet Protocol SECurity, IPsec) 등과 같은 암호화 기술을 사용하여 전체 또는 일부 링크를 암호화할 수도 있다. 일부 실시예에서, 위에서 언급한 데이터 통신 기술을 대체하거나 보완하기 위해 맞춤형 및/또는 전용 데이터 통신 기술을 사용할 수도 있다.Examples of networks 130 include combinations of communication networks such as LANs, WANs, Personal Area Networks (PANs), and/or the Internet. Network 130 may be a wired or wireless network. In some embodiments, data exchanged over network 130 is in a format and/or technology including Hyper Text Markup Language (HTML), Extensible Markup Language (XML), and the like. processed using In addition, it uses encryption technologies such as Secure Sockets Layer (SSL), Transport Layer Security (TLS), Virtual Private Network (VPN), and Internet Protocol SECurity (IPsec). You can also encrypt all or some links. In some embodiments, custom and/or proprietary data communication technologies may be used to replace or supplement the data communication technologies noted above.

시스템(100)은 또한 이미지 수집 기기(140)를 포함할 수 있다. 일부 실시예에서, 도 1에 나타낸 이미지 수집 기기(140)는 양전자방출단층촬영 시스템(Positron Emission Tomography, PET), 양전자컴퓨터단층촬영 시스템(Positron Emission Tomography with Computerized Tomography, PET/CT), 단일광자방출 컴퓨터단층촬영 시스템(Single Photon emission Computed Tomography with Computerized Tomography, SPECT/CT), 컴퓨터단층촬영 시스템(Computerized Tomography, CT), 의료용 초음파진단 시스템(Medical Ultrasonograph), 핵자기공명영상 시스템(Nuclear Magnetic Resonance Imaging, NMRI), 자기공명영상(Magnetic Resonance Imaging, MRI), 심혈관조영 시스템(Cardiac Angiograph, CA), 디지털방사선촬영 시스템(Digital Radiograph, DR) 등에 사용되는 스캐닝 또는 이미징 기기를 포함하지만 이에 한정되지 않는 의료용 스캔 기기일 수 있다. 예를 들어, 이미지 수집 기기(140)는 디지털 감산 혈관 조영 스캐너, 자기 공명 혈관 조영 스캐너, 단층 혈관 스캐너, 양전자방출단층 스캐너, 양전자컴퓨터단층 스캐너, 단일광자방출 컴퓨터단층 스캐너, 컴퓨터단층 스캐너, 의료용 초음파진단 기기, 핵자기공명영상 스캐너, 자기공명영상 스캐너, 디지털방사선촬영 스캐너 등을 포함할 수 있다. 이미지 수집 기기(140)는 스캔 데이터 변환(예를 들어, 의료 이미지 시퀀스로 변환), 압축, 픽셀 보정, 3차원 재구성 등을 포함하지만 이에 한정되지 않는 이미지 데이터 처리를 구현하기 위해, 서버(예를 들어, 도 1에서의 서버(120) 또는 미도시된 이미징 시스템의 별도의 서버)에 연결될 수 있다. System 100 may also include image collection device 140 . In some embodiments, the image collection device 140 shown in FIG. 1 is a Positron Emission Tomography (PET) system, a Positron Emission Tomography with Computerized Tomography (PET/CT) system, or a single photon emission tomography (PET/CT) system. Single Photon emission Computed Tomography with Computerized Tomography (SPECT/CT), Computed Tomography (CT), Medical Ultrasonograph, Nuclear Magnetic Resonance Imaging, Medical scans, including but not limited to scanning or imaging devices used in NMRI), Magnetic Resonance Imaging (MRI), Cardiac Angiograph (CA), Digital Radiograph (DR), etc. can be a device. For example, the image acquisition device 140 may include a digital subtractive angiography scanner, a magnetic resonance angiography scanner, a tomographic blood vessel scanner, a positron emission tomography scanner, a positron emission tomography scanner, a single photon emission computed tomography scanner, a computed tomography scanner, and medical ultrasound. It may include a diagnostic device, a nuclear magnetic resonance imaging scanner, a magnetic resonance imaging scanner, a digital radiography scanner, and the like. The image collection device 140 may be configured to perform image data processing including but not limited to scan data conversion (eg, conversion to a medical image sequence), compression, pixel correction, 3D reconstruction, etc. For example, it may be connected to the server 120 in FIG. 1 or a separate server of an imaging system (not shown).

이미지 수집 기기(140)는, 예를 들어 네트워크(130)를 통해 클라이언트 기기(110)에 연결되거나 다른 방식으로 클라이언트 기기에 직접 연결되어 클라이언트 기기와 통신할 수 있다.The image collection device 140 may be connected to the client device 110 via, for example, the network 130 or otherwise directly connected to the client device to communicate with the client device.

선택적으로, 시스템은 또한 스마트 컴퓨팅 디바이스 또는 컴퓨팅 카드(150)를 포함할 수 있다. 이미지 수집 기기(140)는 이러한 컴퓨팅 카드(150) 등을 포함하거나 이에 연결(예를 들어, 분리 가능하게 연결)될 수 있다. 하나의 예시로서, 컴퓨팅 카드(150)는 변환, 압축, 픽셀 보정, 재구성 등을 포함하지만 이에 한정되지 않는 이미지 데이터의 처리를 구현할 수 있다. 다른 하나의 예시로서, 컴퓨팅 카드(150)는 본 개시의 실시예에 따른 이미지 처리 방법을 구현할 수 있다. Optionally, the system may also include a smart computing device or computing card 150 . The image collection device 140 may include or be connected (eg, detachably connected) to the computing card 150 or the like. As one example, computing card 150 may implement processing of image data including but not limited to transformation, compression, pixel correction, reconstruction, and the like. As another example, the computing card 150 may implement an image processing method according to an embodiment of the present disclosure.

시스템은 데이터 저장부와 같은 미도시된 다른 부분을 포함할 수도 있다. 데이터 저장부는 데이터베이스, 데이터 저장소 또는 데이터를 저장하기 위한 다른 형태의 하나 또는 복수의 장치일 수 있고, 통상적인 데이터베이스일 수 있으며, 클라우드 데이터베이스, 분산 데이터베이스 등일 수도 있다. 예를 들어, 이미지 수집 기기(140)에 의해 형성된 직접 이미지 데이터 또는 이미지 처리를 통해 획득된 의료 이미지 시퀀스 또는 3차원 영상 데이터 등은 후속 서버(120) 및 클라이언트 기기(110)가 데이터 저장부로부터 검색할 수 있도록 데이터 저장부에 저장될 수 있다. 또한, 상기 이미지 수집 기기(140)는 이미지 데이터 또는 이미지 처리를 통해 획득된 의료 이미지 시퀀스 또는 3차원 영상 데이터 등을 서버(120) 또는 클라이언트 기기(110) 등에 직접 제공할 수도 있다.The system may also include other parts not shown, such as a data storage unit. The data storage unit may be a database, a data store, or one or more devices of another form for storing data, and may be a conventional database, or may be a cloud database, a distributed database, and the like. For example, direct image data formed by the image collection device 140 or medical image sequences or 3D image data acquired through image processing are searched by the subsequent server 120 and the client device 110 from the data storage unit. It can be stored in the data storage unit so that it can be used. In addition, the image collection device 140 may directly provide image data or medical image sequences or 3D image data obtained through image processing to the server 120 or the client device 110 .

사용자는 클라이언트 기기(110)를 사용하여 수집된 이미지 또는 영상(예비 이미지 데이터(preliminary image data) 또는 분석 처리를 거친 이미지 등을 포함)을 확인하고, 분석 결과를 확인하며, 수집된 이미지 또는 분석 결과와 인터랙션(interact)하고, 수집된 명령 및 구성 데이터를 입력하는 등을 진행할 수 있다. 클라이언트 기기(110)는 구성 데이터, 명령 또는 기타 정보를 이미지 수집 기기(140)에 전송하여 이미지 수집 기기의 수집 및 데이터 처리 등을 제어할 수 있다. The user uses the client device 110 to check collected images or videos (including preliminary image data or images that have undergone analysis processing), check analysis results, and collect images or analysis results. You can interact with it, enter collected commands and configuration data, and so on. The client device 110 may transmit configuration data, commands, or other information to the image collection device 140 to control collection and data processing of the image collection device.

본 개시의 실시예의 목적을 구현하기 위해, 도 1의 예시에서, 클라이언트 애플리케이션(112)은 예를 들어, 수집된 이미지 시퀀스에 대해 저장 관리, 색인, 정렬, 분류 등을 진행하는 것과 같은 다양한 기능을 제공할 수 있는 이미지 시퀀스 관리 애플리케이션 프로그램일 수 있다. 이에 대응되게, 서버(120)는 이미지 시퀀스 관리 애플리케이션 프로그램과 함께 사용하는 서버일 수 있다. 상기 서버(120)는 사용자의 요청 또는 본 개시의 실시예에 따라 생성된 명령에 기반하여, 클라이언트 기기(110)에서 실행되는 클라이언트 애플리케이션(112)에 이미지 시퀀스 관리 서비스를 제공할 수 있으며, 예를 들어, 클라우드에서 이미지 시퀀스 저장을 관리하고, 지정된 색인(시퀀스 유형, 환자 식별자, 인체 부위, 수집 대상, 수집 단계, 수집 기계, 병소 검출 여부, 심각성 등)을 저장하고, 지정된 색인에 따라 검색하여 클라이언트 기기에 이미지 시퀀스를 제공하는 등을 제공할 수 있다. 대안적으로, 서버(120)는 이러한 서비스 능력 또는 저장 공간을 클라이언트 기기(110)에 제공 또는 할당할 수도 있고, 클라이언트 기기(110)에서 실행되는 클라이언트 애플리케이션(112)에 의해, 사용자 요청 또는 본 개시의 실시예에 따라 생성된 명령 등에 기반하여, 대응되는 이미지 시퀀스 관리 서비스를 제공하는 등이다. 이상 단 하나의 예시를 제공하였으며, 본 개시는 이에 한정되지 않음을 이해할 수 있다. In order to implement the objectives of the embodiments of the present disclosure, in the example of FIG. 1 , the client application 112 may perform various functions, such as, for example, storage management, indexing, sorting, classification, etc. on the collected image sequences. It may be an image sequence management application program that can provide. Correspondingly, the server 120 may be a server used together with an image sequence management application program. The server 120 may provide an image sequence management service to the client application 112 running on the client device 110 based on a user's request or a command generated according to an embodiment of the present disclosure. For example, it manages storage of image sequences in the cloud, stores specified indexes (sequence type, patient identifier, body part, collection object, collection stage, collection machine, lesion detection status, severity, etc.), and searches according to the specified index to client You can provide a device with an image sequence, and the like. Alternatively, the server 120 may provide or allocate such service capabilities or storage space to the client device 110 , by a client application 112 running on the client device 110 , upon user request or according to the present disclosure. Based on the command generated according to the embodiment of, providing a corresponding image sequence management service, and the like. Only one example has been provided above, and it can be understood that the present disclosure is not limited thereto.

도 2는 예시적인 실시예에 따른 이미지 처리 방법(200)을 나타내는 흐름도이다. 방법(200)은 클라이언트 기기(예를 들어, 도 1에 도시된 클라이언트 기기(110))에서 실행될 수 있는 바, 즉, 방법(200)의 각 단계의 실행 주체는 도 1에 표시된 클라이언트 기기(110)일 수 있다. 일부 실시예에서, 방법(200)은 서버(예를 들어, 도 1에 도시된 서버(120))에서 실행될 수 있다. 일부 실시예에서, 방법(200)은 클라이언트 기기(예를 들어, 클라이언트 기기(110))와 서버(예를 들어, 서버(120))의 상호 조합에 의해 실행될 수 있다. Fig. 2 is a flowchart illustrating an image processing method 200 according to an exemplary embodiment. The method 200 may be executed in a client device (eg, the client device 110 shown in FIG. 1), that is, the execution subject of each step of the method 200 is the client device 110 shown in FIG. ) can be. In some embodiments, method 200 may be executed on a server (eg, server 120 shown in FIG. 1 ). In some embodiments, method 200 may be executed by a mutual combination of a client device (eg, client device 110 ) and a server (eg, server 120 ).

이하에서는 실행 주체가 클라이언트 기기(110)임을 예로 들어 방법(200)의 각 단계를 상세하게 설명한다. Hereinafter, each step of the method 200 will be described in detail by taking the execution entity as the client device 110 as an example.

도 2를 참조하면, 단계 210에서, 제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하며, 여기서, 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집된다. Referring to FIG. 2 , in step 210, a first image sequence corresponding to a first body region and a second image sequence corresponding to the first body region are acquired, wherein the images in the first image sequence are mutually related to each other. At least one of the acquisition position, acquisition depth, and acquisition angle is different, the images in the second image sequence basically have the same acquisition angle, and the images in the second image sequence are sequentially acquired at different time points.

단계 220에서, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하며, 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가진다. In step 220, a third image sequence is generated based on the first image sequence and the second image sequence, wherein the third image sequence includes at least one update image, and the at least one update image comprises the first image sequence. Corresponds to at least one image in the sequence of two images, and has a different viewing angle than the at least one image.

이러한 실시예에 따르면, 3차원 이미지 시퀀스를 기반으로 시계열 상의 2차원 이미지 시퀀스에 대한 3차원 재구성 수행이 가능하다. According to this embodiment, it is possible to perform 3D reconstruction of a 2D image sequence on a time series based on a 3D image sequence.

의료 이미지 수집 분야에서, 예를 들어, CT 이미지, MR 이미지에 대해 3차원 향상을 수행하는 등과 같은 3차원 이미지 표현을 생성하기 위한 몇 가지 방안들이 이미 존재한다. 그러나, 비록 2차원 이미지를 기반으로 3차원 이미지를 생성하는 다양한 기술방안들이 이미 존재하지만, 인체 영역에 대해 수집한2차원 이미지가 인체 호흡, 혈관 박동 등에 따라, 시계열 상에서 변화하기 때문에, 이러한 방안은 시계열적으로 수집된2차원 이미지 시퀀스에 직접 이식하기 어렵다. 이에 반해, 본 개시의 실시예에 따르면, 참조로서 동일한 인체 영역에 대해 수집된 3차원 이미지 시퀀스를 이용함으로써, 시계열 2차원 이미지의 적어도 하나의 상이한 각도의 재구성을 생성할 수 있다. In the field of medical image acquisition, several approaches already exist to create a three-dimensional image representation, such as performing three-dimensional enhancement on, for example, CT images, MR images, and the like. However, although various technical methods for generating 3D images based on 2D images already exist, since the 2D images collected for the human body region change in time series according to human breathing, blood vessel pulsation, etc., these methods are It is difficult to directly implant in a sequence of two-dimensional images collected in time series. In contrast, according to an embodiment of the present disclosure, a reconstruction of at least one different angle of a time-series two-dimensional image may be generated by using a 3D image sequence collected for the same body region as a reference.

상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 이는 이미지 시퀀스가 상이한 위치(예를 들어, 상이한 프로브 위치)에서 수집된 이미지, 동일한 위치이지만 상이한 이미징 깊이에서 수집된 이미지 및/또는 상이한 각도로 수집된 이미지, 및/또는 이들의 조합에 포함됨을 의미할 수 있음을 이해할 수 있다. 비한정적인 일례로서, 제1 이미지 시퀀스는 동일한 각도이지만 상이한 위치 또는 깊이에서 수집된 하나의 이미지 세트를 포함하고, 기본상 유사한 위치 및 상이한 각도에서 수집된 다른 하나의 이미지 세트를 포함할 수 있으며, 본 개시는 이에 한정되지 않는다. 이는 제1 이미지 시퀀스가 제1 인체 영역에 대해 3차원 표현을 수행할 수 있음을 의미할 수 있음을 이해할 수 있다. 비한정적인 일례로서, 제1 이미지 시퀀스는 관상동맥 CT 혈관조영술(CTA), CT 정맥조영술(CTV), 자기공명혈관조영술(MRA), 또는 당업자가 이해할 수 있는 3차원 표현 능력을 구비 가능한 다른 이미지 시퀀스일 수 있다. 상기 제1 이미지 시퀀스는 제1 인체 영역에 대한 3차원 표현이며, 제1 이미지 시퀀스 중의 이미지가 3차원 이미지이거나 특정 3차원 표현 능력을 가질 필요는 없음을 이해할 수 있다. 이에 반해, 제1 이미지 시퀀스는 제1 인체 영역에 대해 수집된, 일정한 깊이 또는 3차원 공간 정보를 포함할 수 있는 복수의 2차원 이미지를 포함할 수 있다. 예를 들어, 제1 이미지 시퀀스는 후처리, 렌더링, 향상 등을 통해 3차원 형태로 구현될 수 있으나, 본 개시는 이에 한정되지 않는다. The images in the first image sequence differ from each other in at least one of acquisition position, acquisition depth, or acquisition angle, which means that the image sequences are images acquired at different positions (e.g., different probe positions), same position but different imaging It can be understood that it can mean included in images collected at depth and/or images collected at different angles, and/or combinations thereof. As a non-limiting example, a first sequence of images may include one set of images collected from the same angle but from a different location or depth, and may include another set of images collected from essentially similar locations and different angles; This disclosure is not limited to this. It can be understood that this may mean that the first image sequence can perform a 3D representation of the first body region. As a non-limiting example, the first image sequence may be a coronary CT angiography (CTA), CT venography (CTV), magnetic resonance angiography (MRA), or other image capable of three-dimensional representation comprehensible to those skilled in the art. can be a sequence. It is to be understood that the first image sequence is a 3D representation of the first body region, and images in the first image sequence are not required to be 3D images or have specific 3D representation capabilities. In contrast, the first image sequence may include a plurality of 2D images that may include a predetermined depth or 3D space information collected for the first body region. For example, the first image sequence may be implemented in a 3D form through post-processing, rendering, and enhancement, but the present disclosure is not limited thereto.

이 밖에, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 이러한 설명은 제2 이미지 시퀀스 중의 이미지의 수집 각도가 미리 정해진 임계값(예를 들어, 프로브의 흔들림 오차 임계값)을 만족한다는 것을 의미할 수 있음을 이해할 수 있다. 다시 말해서, 제2 이미지 시퀀스는 제1 인체 영역에 대한 시계열 2차원 이미지 시퀀스일 수 있으며, 예시적으로 사용자에게 해당 인체 영역 중의 일부 특징이 시간의 경과에 따른 변화를 도시하기 위해 사용될 수 있으며, 일반적으로 본 개시의 실시예에 따른 방법을 적용하기 전에는, 3차원 표현 능력을 구비하지 않는다. 예시적으로, 제2 이미지 시퀀스 중의 이미지는 또한 기본상 동일한 수집 위치 및/또는 수집 깊이(예를 들어, 동일한 수집 단면)를 가질 수 있다. 비한정적인 일례로서, 제2 이미지 시퀀스는 디지털 차감 혈관 조영술(DSA) 이미지일 수 있으나, 본 개시는 이에 한정되지 않는다. In addition, the images in the second image sequence basically have the same collection angle, and this description indicates that the collection angle of the images in the second image sequence satisfies a predetermined threshold value (e.g., a probe shake error threshold value). I can understand what it means to do. In other words, the second image sequence may be a sequence of time-series two-dimensional images of the first body region, and may be used to show changes over time of some features of the corresponding body region to the user as an example. Prior to applying the method according to the embodiment of the present disclosure, it does not have 3D expression capability. Illustratively, the images in the second image sequence may also have essentially the same collection location and/or collection depth (eg, same collection cross-section). As a non-limiting example, the second image sequence may be a digital subtraction angiography (DSA) image, but the present disclosure is not limited thereto.

본문 전체에서, “제1 이미지 시퀀스는 제1 인체 영역에 대한...” 및 “제2 이미지 시퀀스는 제1 인체 영역에 대한...”이라는 설명은 제1 이미지 시퀀스 및 제2 이미지 시퀀스가 정확히 동일한 이미징 또는 수집 범위를 갖는다는 것을 의미하지 않음을 이해할 수 있다. “제1 이미지 시퀀스는 제1 인체 영역에 대한...” 및 “제2 이미지 시퀀스는 제1 인체 영역에 대한...”이라는 설명은 심지어 제1 이미지 시퀀스 및 제2 이미지 시퀀스가 기본상 동일한 이미징 또는 수집 범위를 가질 것을 요구하지 않으며, 다만 제1 이미지 시퀀스가 해당 인체 영역 중의 토폴리지, 인체 조직, 인체 기관, 병소 등에 대한 충분한 정보를 포함하여, 제2 이미지 시퀀스 중의 특정 토폴리지, 인체 조직, 인체 기관, 병소, 조영제 등 데이터에 대한 3차원 데이터를 참조로서 생성하기만 하면 된다. 또 다른 예를 들어, 제1 이미지 시퀀스는 제1 인체 영역의 어느 한 공간 범위에 대해 수집될 수 있는 반면, 제2 이미지 시퀀스 중의 이미지는 상기 제1 인체 영역 중의 하나의 단면에만 위치할 수 있다. Throughout the text, the descriptions “The first image sequence is for a first body region…” and “The second image sequence is for a first body region…” indicate that the first image sequence and the second image sequence are It can be understood that it does not mean having exactly the same imaging or collection range. The descriptions "The first image sequence is for a first human body region..." and "The second image sequence is for a first human body region..." even indicate that the first image sequence and the second image sequence are essentially the same. It is not required to have an imaging or collection range, provided that the first image sequence contains sufficient information about the topology, human tissue, human organ, lesion, etc. in the corresponding human body region, and the specific topology, human tissue in the second image sequence , 3D data for data such as human organs, lesions, and contrast agents need only be created as a reference. As another example, a first image sequence may be collected for a spatial extent of a first body region, whereas an image in a second image sequence may be located in only a cross-section of one of the first body regions.

이 밖에, 이해할 수 있는 것은, “관찰 각도”는 이미지의 시각(angle of view)을 의미할 수 있으며, 이미지가 위치한 2차원 평면의 방향, 법선 벡터의 방향 등으로 표기할 수 있다. 이미지가 직접 수집하여 획득된 이미지이거나 평면 처리만을 거친 이미지인 경우, 관찰 각도는 수집 각도와 같을 수 있다. 다른 경우에, 관찰 각도는 공간에서의 어느 한 특정 수집 각도에 대응할 수 있고, 관찰 각도는 이미지가 해당 각도에서 수집되지 않았을 수 있지만, 해당 각도로 수집 대상(예를 들어, 제1 인체 부위 또는 그 일부분)을 확인하는 것에 대응한다. In addition, it can be understood that the “viewing angle” may mean the angle of view of the image, and may be expressed as the direction of the two-dimensional plane on which the image is located, the direction of the normal vector, and the like. When the image is an image obtained by direct collection or an image that has undergone only flat processing, the observation angle may be the same as the collection angle. In other cases, the viewing angle may correspond to any particular collection angle in space, and the viewing angle may indicate that the image may not have been collected at that angle, but the object collected at that angle (e.g., a first body part or its It corresponds to confirming a part).

일부 예에서, 제3 이미지 시퀀스는 복수의 업데이트 이미지를 포함할 수 있다. 비한정적인 일례로서, 제3 이미지 시퀀스는 하나의 세트의 업데이트 이미지를 포함할 수 있으며, 해당 업데이트 이미지 세트의 이미지 개수는 제2 이미지 시퀀스의 이미지 개수와 동일하다. 다시 말해서, 이러한 예에서, 제3 이미지 시퀀스는 제2 이미지 시퀀스의 모든 이미지를 업데이트한 시계열 이미지 시퀀스를 포함할 수 있다. 다른 예에서, 하나의 세트의 업데이트 이미지의 개수는 제2 이미지 시퀀스 중의 미리 정해진 조건을 만족하는 이미지 개수와 동일하고, 미리 정해진 조건은 미리 정해진 시간 간격의 이미지, 품질 요구사항을 만족하는 이미지, 몇 개의 이미지마다 선택된 하나의 이미지 프레임... 등의 예가 있으나 이에 한정되지 않는다. 다른 비한정적인 예로서, 제3 이미지 시퀀스는 복수의 세트의 업데이트 이미지를 포함할 수 있으며, 여기서, 각각의 업데이트 이미지 세트는 하나의 관찰 각도에 대응하며, 이로써, 상이한 각도에서 관찰한 복수의 시계열 시퀀스를 획득할 수 있다. 일부 예에서, 제3 이미지 시퀀스는 업데이트된 하나 또는 복수의 이미지, 하나 또는 복수의 이미지 세트 외에도, 제2 이미지 시퀀스 자체 또는 처리된 제2 이미지 시퀀스를 더 포함할 수 있다. 상술한 내용은 예시일 뿐, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다. In some examples, the third image sequence may include a plurality of update images. As a non-limiting example, the third image sequence may include one set of update images, and the number of images in the update image set is equal to the number of images in the second image sequence. In other words, in this example, the third image sequence may include a time-series image sequence with all images of the second image sequence updated. In another example, the number of updated images in one set is equal to the number of images satisfying a predetermined condition in the second image sequence, and the predetermined condition is an image at a predetermined time interval, an image satisfying a quality requirement, a number of An example of one image frame selected for each image frame... is not limited thereto. As another non-limiting example, the third image sequence can include a plurality of sets of update images, where each set of update images corresponds to one viewing angle, thereby plural time series viewed from different angles. sequence can be obtained. In some examples, the third image sequence may further include the second image sequence itself or the processed second image sequence, in addition to the updated one or more images or one or more set of images. It can be understood that the foregoing is only an example, and the present disclosure is not limited thereto.

일부 실시예에 따르면, 제2 이미지 시퀀스 중의 이미지는 조영제 보조 이미징 이미지이다. According to some embodiments, the image in the second image sequence is a contrast auxiliary imaging image.

본 개시에 따른 방법은 조영제 보조 이미징 이미지 시퀀스에 특히 유리하다. 한편으로, 조영제 이미징 이미지 시퀀스는 인체 내 조영제의 이동 상황을 관찰하기 위해 흔히 시간 순서에 따라 수집된 복수의 이미지를 필요로 하므로, 조영제의 증가 및 상이한 시점에서의 혈관 박동을 포함하여 시계열 상에서의 이미지의 변화가 특히 뚜렷하다. 다른 한편으로, 기존의 조영제 이미징 기기의 한계로 인해, 기존의 방법에 따라 2차원 이미지에서 3차원 이미지로의 재구성을 수행할 만큼의 충분히 많은 상이한 각도와 위치에서 충분히 많은 2차원 이미지를 수집하는데 어려운 경우가 많다. 적어도 위와 같은 이유로, 현재까지는 조영제 이미징 이미지 시퀀스에 대해 3차원화하는 방법 또는 제품이 없다. 이에 반해, 본 개시의 실시예에 따르면, 조영제 이미징 이미지의 3차원 보조 이미지를 생성할 수 있다. The method according to the present disclosure is particularly advantageous for contrast-assisted imaging image sequences. On the one hand, since the contrast agent imaging image sequence often requires a plurality of images collected in time sequence to observe the movement of the contrast agent in the human body, images on a time series including the increase of the contrast agent and the pulsation of blood vessels at different time points. change is particularly evident. On the other hand, it is difficult to collect enough 2D images from enough different angles and positions to perform reconstruction from 2D images to 3D images according to existing methods due to the limitations of existing contrast imaging devices. There are many cases. For at least the above reasons, there is currently no method or product for three-dimensionalizing a contrast agent imaging image sequence. In contrast, according to an embodiment of the present disclosure, a 3D auxiliary image of a contrast agent imaging image may be generated.

일부 실시예에 따르면, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 단계는, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여, 상기 제1 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직과, 상기 제2 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직 사이의 대응관계를 결정하는 단계; 및 상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스를 생성하는 단계를 포함한다. According to some embodiments, generating a third image sequence based on the first image sequence and the second image sequence may include the first image sequence based on the first image sequence and the second image sequence. at least one body organ, region or tissue in the first body region appearing in at least one image of and at least one body organ in the first body region appearing in at least one image of the second image sequence; determining a correspondence between parts or tissues; and generating the third image sequence based on the correspondence, the first image sequence, and the second image sequence.

이러한 실시예에 따르면, 대응관계에 기반하여 3차원인 제1 이미지 시퀀스를 기초로, 제2 이미지 시퀀스에 기반한, 상이한 관찰 각도의 이미지를 쉽게 생성함으로써, 3차원 시각 보조 또는 3차원 재구성을 구현할 수 있다. According to this embodiment, 3D visual assistance or 3D reconstruction can be implemented by easily generating images of different observation angles based on the second image sequence based on the 3D first image sequence based on the correspondence relationship. there is.

이해할 수 있는 것은, 본문 전체에서, “기관”, “조직”, “인체 부위” 등 용어의 사용은 엄밀한 의학적 의미로 한정되지 않으며, 예를 들어, 하나 또는 복수의 기관의 집합, 하나 또는 복수의 조직의 집합, 기관의 일부분, 조직의 일부분을 의미하며, 인체 부위 또는 인체 부분으로 이해될 수 있는 가장 광범위한 의미를 포함하도록 의도된다. 예를 들어, 내장 기관 또는 그 일부분, 병변 조직 또는 그 일부분, 작은 세그먼트 혈관, 여러 개의 혈관으로 구성된 토폴리지 등은 모두 인체 부위로 지칭될 수 있으며, 본 개시는 이에 한정되지 않는다. It can be understood that throughout the text, the use of terms such as “organ”, “tissue”, “body part”, etc. is not limited to the strict medical meaning, and for example, a set of one or more organs, one or more It means a set of tissues, a part of an organ, or a part of a tissue, and is intended to include the broadest meaning that can be understood as a human body part or a human body part. For example, internal organs or parts thereof, lesion tissues or parts thereof, small segment blood vessels, topologies composed of multiple blood vessels, and the like may all be referred to as human body parts, but the present disclosure is not limited thereto.

하나의 예로서, 제2 이미지 시퀀스 중의 혈관 세그먼트 영역, 형태, 조영제 수치 및 다른 파라미터를 제1 이미지 시퀀스의 3차원 토폴리지 구조에서 대응되는 혈관 세그먼트 영역에 매핑시킴으로써, 상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스 중의 적어도 하나의 이미지를 생성할 수 있다. 예를 들어, 상기 제1 이미지 시퀀스에서 상기 제2 이미지 시퀀스 중의 대응되는 이미지와 상이한 관찰 각도를 갖는 이미지에 기반하거나, 제1 이미지 시퀀스의 3차원 표현을 상기 제2 이미지 시퀀스 중의 대응되는 이미지와 상이한 관찰 각도를 갖는 이미지에 매핑시킴으로써, 해당 2차원 뷰 중의 토폴리지에 기반하여 제3 이미지 시퀀스 중의 대응되는 이미지를 생성할 수 있다. 다른 예로서, 생성된 제3 이미지 시퀀스는 제1 이미지 시퀀스에 비해 더 간단한 토폴리지를 가질 수 있다. 예를 들어, 제2 이미지 시퀀스에는 2차원 평면에서 교차하는 두 개의 혈관이 존재하고, 본 개시의 방법은 상기 제1 이미지 시퀀스를 이용하여, 제2 이미지 시퀀스의 대응되는 이미지의 2차원 평면에서 이 두 혈관을 구분하는 단계를 포함할 수 있으며, 따라서, 3차원화의 목적을 달성한다. 이러한 예에서, 제1 이미지 시퀀스와 완전히 일치하는 혈관 토폴리지를 생성할 필요가 없을 수 있다. 당업자가 이해할 수 있는 다른 이미지 생성 또는 3차원 재구성 방식도 사용될 수 있으며, 본 개시는 이에 한정되지 않는다. 하나의 예로서, 아래에서 추가로 설명되는 바와 같이, 이미지에 존재하는 교차, 중첩, 차단 등을 보상하기 위해, 제2 이미지 시퀀스에서 대응되는 이미지의 토폴리지 구조가 업데이트되도록, 적어도 하나의 업데이트 이미지의 관찰 각도가 선택될 수 있다.As an example, by mapping the blood vessel segment region, shape, contrast agent level, and other parameters in the second image sequence to the corresponding blood vessel segment region in the 3D topology structure of the first image sequence, the correspondence relationship, the first image At least one image of the third image sequence may be generated based on the sequence and the second image sequence. For example, based on an image in the first image sequence having a different viewing angle than the corresponding image in the second image sequence, or based on a three-dimensional representation of the first image sequence different from the corresponding image in the second image sequence. A corresponding image of the third image sequence may be generated based on the topology of the corresponding 2D view by mapping to an image having an observation angle. As another example, the generated third image sequence may have a simpler topology than the first image sequence. For example, two blood vessels intersecting in a 2D plane exist in the second image sequence, and the method of the present disclosure uses the first image sequence to view the blood vessels in the 2D plane of the corresponding image of the second image sequence. Separating the two blood vessels may be included, thus achieving the purpose of 3-dimensionalization. In such an example, it may not be necessary to create a vessel topology that completely matches the first image sequence. Other image generation or 3D reconstruction schemes understood by those skilled in the art may also be used, and the present disclosure is not limited thereto. As an example, at least one updated image such that the topological structure of the corresponding image in the second image sequence is updated to compensate for intersections, overlaps, occlusions, etc. present in the images, as described further below. An observation angle of can be selected.

또 다른 예로서, 대응되는 이미지에 존재하는 병소 또는 비정상 영역의 각도, 위치, CT값 정보 등에 따라 제3 이미지 시퀀스 중의 업데이트 이미지의 각도, 치수(윈도우 폭), 위치(윈도우 위치) 등을 선택할 수 있다. As another example, the angle, dimension (window width), position (window position), etc. of the updated image in the third image sequence may be selected according to the angle, position, and CT value information of the lesion or abnormal region existing in the corresponding image. there is.

이러한 예에서, 본 개시의 방법은 제1 이미지 시퀀스 및 제2 이미지 시퀀스 중의 적어도 하나를 처리하여, 그 중의 병소 또는 비정상 영역을 식별하는 단계를 포함할 수 있다. 예를 들어, 본 개시의 방법은 제1 이미지 시퀀스를 처리하여 그 중의 병소 또는 비정상 영역을 식별하는 단계를 포함할 수 있고, 또한 예를 들어, 두 이미지에 의해 확립된 대응관계에 기반하여, 식별된 병소 또는 비정상 영역을 제2 이미지 시퀀스의 적어도 하나의 이미지 중의 대응되는 위치에 투영한다. 또 다른 예를 들어, 본 개시의 방법은 제2 이미지 시퀀스를 처리하여 그 중의 병소 또는 비정상 영역을 식별하는 단계를 포함할 수 있다. 본 개시의 방법은 제1 이미지 시퀀스 및 제2 이미지 시퀀스를 조합하여 처리하는 단계를 포함할 수 있고, 또한 예시적으로 양자로부터 각각 추출된 병소 또는 비정상 데이터에 대해 상호 검증, 조합, 보완 등을 수행할 수 있다. 다른 예에서, 획득된 제1 이미지 시퀀스 및 제2 이미지 시퀀스 중의 적어도 하나는 사전 처리되거나 사전 식별된 병소 또는 비정상 정보를 가질 수 있고, 본 개시의 방법은 이러한 정보에 기반하여 업데이트 이미지를 생성하는 단계를 포함할 수 있으며, 추가 처리 단계가 필요하지 않다.In such examples, methods of the present disclosure may include processing at least one of the first image sequence and the second image sequence to identify a lesion or abnormal region therein. For example, a method of the present disclosure may include processing a first sequence of images to identify a lesion or abnormal region therein, and further, based on, for example, a correspondence established by the two images, the identification The affected lesion or abnormal region is projected onto a corresponding position in at least one image of the second image sequence. For another example, a method of the present disclosure may include processing a second image sequence to identify a lesion or abnormal region therein. The method of the present disclosure may include combining and processing a first image sequence and a second image sequence, and exemplarily performs mutual verification, combination, supplementation, etc. on lesions or abnormal data extracted from both. can do. In another example, at least one of the acquired first image sequence and the second image sequence may have pre-processed or pre-identified lesion or abnormal information, and the method of the present disclosure includes generating an updated image based on such information. , and no additional processing steps are required.

하나 또는 복수의 예에 따르면, 본 개시의 방법은 식별되거나 사전 식별된 병소 또는 비정상 영역을 더 잘 표시할 수 있도록 적어도 하나의 업데이트 이미지를 생성하는 단계를 포함할 수 있다. 예를 들어, 병소 또는 비정상 영역 단면을 최대화하는 관찰 각도를 선택하여 업데이트 이미지를 생성할 수 있으며, 업데이트 이미지의 치수, 중심 위치를 조정하여 병소 또는 비정상 영역이 이미지의 중간 또는 관찰자가 확인할 수 있는 다른 위치 등에 표시되도록 할 수 있다. 다른 예로서, 병소 또는 비정상 정보의 형태, 크기, 복잡도, 심각도에 기반하여 생성된 업데이트 이미지의 개수, 해상도 등을 조정할 수 있다. 예를 들어, 식별된 병소가 높은 중요도 레벨(예를 들어, 더 심각한 병변과 관련됨), 복잡한 형태 및/또는 작은 치수를 가지는 경우, 병변 영역에 대해 두 개 이상의 관찰 각도의 이미지를 생성하거나, 더 높은 해상도, 더 정밀한 이미지를 생성할 수 있다.According to one or more examples, the method of the present disclosure may include generating at least one updated image to better represent the identified or pre-identified lesion or abnormal area. For example, an updated image can be created by selecting an observation angle that maximizes the cross-section of the lesion or abnormal region, and the dimension, center position of the updated image can be adjusted so that the lesion or abnormal region is located in the middle of the image or elsewhere visible to the observer. location, etc. As another example, the number, resolution, etc. of generated updated images may be adjusted based on the shape, size, complexity, and severity of lesion or abnormal information. For example, if the identified lesion has a high level of importance (eg, associated with more severe lesions), complex shape, and/or small dimensions, images of two or more viewing angles are generated for the lesion area, or more Higher resolution, more precise images can be created.

하나 또는 복수의 실시예에 따라, 식별된 병소 및 다른 정보에 기반하여 제3 이미지의 각도, 개수, 해상도 등을 지능적으로 선택하여, 생성된 제3 이미지가 병소 또는 비정상 영역의 정보를 더 잘 표시하는데 유리하도록 할 수 있다.According to one or more embodiments, the angle, number, resolution, etc. of the third images are intelligently selected based on the identified lesions and other information so that the generated third images better represent information of the lesions or abnormal regions. can make it advantageous.

도 3a 내지 도 3b를 참조하여 본 개시에 따른 보다 구체적인 비한정적인 예를 설명한다. 도 3a에 도시된 바와 같이, 복수의 이미지의 제2 이미지 시퀀스(미도시) 중의 어느 이미지(310)가 도시되고, 혈관(311, 312, 313, 314)이 도시되며, 또한, 혈관(313)과 혈관(314)은 해당 이미지(310)의 2차원 평면에서 교차가 존재한다.A more specific, non-limiting example according to the present disclosure will be described with reference to FIGS. 3A to 3B. As shown in FIG. 3A, an image 310 of a second image sequence (not shown) of a plurality of images is shown, and blood vessels 311, 312, 313, and 314 are shown, and blood vessels 313 The blood vessels 314 intersect in the 2D plane of the image 310 .

도 3b는 이미지(310)에 기반하여 생성된 제3 이미지 시퀀스 중의 대응되는 이미지(320)이다. 제3 이미지 시퀀스가 3차원 데이터 포맷을 사용하는 경우, 이미지(320)는 제3 이미지 시퀀스의 대응되는 하나의 2차원 투영일 수도 있으며, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다. 도 3b에 도시된 바와 같이, 복수의 이미지를 포함할 수 있는 제2 이미지 시퀀스 중의 어느 이미지(320)가 도시되고, 도 3a의 혈관(311, 312, 313, 314)에 각각 대응할 수 있는 혈관(321, 322, 323, 324)이 도시된다. 도 3b의 도면에서, 혈관(323)과 혈관(324)은 해당 이미지(320)의 2차원 평면에서 더 이상 교차하지 않는다.3B is a corresponding image 320 of a third image sequence generated based on image 310 . It is to be understood that when the third image sequence uses a 3D data format, the image 320 may be a 2D projection of a corresponding one of the third image sequence, and the present disclosure is not limited thereto. As shown in FIG. 3B, an image 320 of a second image sequence that may include a plurality of images is shown, and blood vessels (311, 312, 313, and 314 respectively corresponding to the blood vessels 311, 312, 313, and 314 of FIG. 3A) are shown. 321, 322, 323, 324) are shown. In the diagram of FIG. 3B , blood vessels 323 and blood vessels 324 no longer intersect in the two-dimensional plane of the image 320 .

하나의 예로서, 본 개시의 실시예에 따른 방법은 이미지(310)에서 교차가 존재하는 혈관에 기반하여, 그 중의 대응되는 혈관이 더 이상 교차하지 않는 각도(예를 들어, 이미지(320)의 각도)를 결정하고, 사용자가 확인하도록 이미지(320)를 생성 및 나타낸다. 예시적으로, 결정된 각도에 기반하여, 이미지(320)를 포함하는 시계열 상의 이미지 시퀀스(미도시)를 생성하여, 해당 혈관이 교차가 존재하지 않는 각도에서 조영제가 인체 혈관에서의 변화를 완전하게 나타낸다. 예를 들어, 생성된 이미지 시퀀스는 제2 이미지와 동일한 시간 범위, 개수 등을 가질 수 있다. 이 경우, 제3 이미지 시퀀스는 생성된 새로운 2차원 이미지 시퀀스를 의미할 수 있으며, 2차원 이미지 시퀀스의 형태를 사용할 수 있으나, 제2 이미지 시퀀스의 상이한 시각의 정보를 제공할 수 있다. 일부 경우에, 제3 이미지 시퀀스는 시계열 3차원 정보를 제공할 수 있고, 따라서 제2 이미지 시퀀스의 3차원 표현으로 지칭될 수 있으나, 본 개시는 이에 한정되지 않는다. 다른 하나의 예로서, 제3 이미지 시퀀스는 제2 이미지 시퀀스 및 생성된 새로운 각도의 이미지 시퀀스의 조합을 포함할 수 있으며, 이러한 제3 이미지 시퀀스는 적어도 하나의 수집 시점에서 인체 영역에 대해 적어도 두 개의 각도의 이미지를 가진다. 다른 예에서, 하나 이상의 각도가 결정될 수 있고, 하나 이상의 이미지(또는, 하나 이상의 이미지 시퀀스)가 생성될 수 있으며, 제3 이미지 시퀀스는 생성된 이미지 또는 이미지 시퀀스를 포함할 수 있으며, 본 개시는 이에 한정되지 않는다. As an example, a method according to an embodiment of the present disclosure may, based on blood vessels at which intersections exist in the image 310, the angle at which corresponding blood vessels among them no longer intersect (eg, the angle of the image 320). angle), and creates and presents an image 320 for the user to view. Exemplarily, based on the determined angle, an image sequence (not shown) on a time series including the image 320 is generated to completely represent changes in the blood vessels of the human body by the contrast agent at an angle at which the corresponding blood vessels do not cross each other. . For example, the generated image sequence may have the same time range, number, and the like as the second image. In this case, the third image sequence may refer to a new 2D image sequence that has been generated, and the form of the 2D image sequence may be used, but information of a different view of the second image sequence may be provided. In some cases, the third image sequence may provide time-series 3-dimensional information, and thus may be referred to as a 3-dimensional representation of the second image sequence, but the present disclosure is not limited thereto. As another example, the third image sequence may include a combination of the second image sequence and the generated image sequence of the new angle, wherein the third image sequence includes at least two images of the human body region at at least one collection point in time. It has an angular image. In another example, one or more angles may be determined, one or more images (or one or more image sequences) may be generated, and a third image sequence may include the generated image or image sequence, and the present disclosure relates to this Not limited.

다른 하나의 예로서, 본 개시의 실시예에 따른 방법은 제1 이미지 시퀀스 및 제2 이미지 시퀀스에 기반하여, 제2 이미지 시퀀스 중의 적어도 하나의 시점에 대해 3차원 영상을 생성(즉, 제2 이미지 시퀀스 중의 복수의 이미지 또는 각각의 이미지에 대해 3차원 영상을 생성)하는 단계를 포함할 수 있다. 따라서, 사용자는 드래그, 회전 등 작업을 통해, 제2 이미지 시퀀스 중의 적어도 하나의 시점, 심지어 모든 시점의 이미지에 대해 상이한 각도에서의 관찰을 수행한다. 이러한 예에서, 이미지(310, 320)는 사용자에 의해 선택된 특정 각도에서 나타낸 뷰일 수 있으며, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다.As another example, a method according to an embodiment of the present disclosure generates a 3D image for at least one viewpoint of a second image sequence based on the first image sequence and the second image sequence (ie, the second image sequence). generating a 3D image for a plurality of images or each image in the sequence). Accordingly, the user observes images of at least one viewpoint or even all viewpoints in the second image sequence from different angles by dragging, rotating, or the like. In these examples, images 310 and 320 may be views from specific angles selected by a user, and it is to be understood that the present disclosure is not limited thereto.

일부 예에서, 사용자에게 조영제 농도 값을 시각적으로 나타낼 수 있다. 도 3c를 참조하면, 수집된 제2 이미지 시퀀스 중의 하나의 이미지의 국부 이미지(330)를 도시하며, 여기서 혈관(331) 및 혈관(332)은 교차가 존재한다. 이미지(330)에서, 상이한 깊이로 영역(3311, 3312, 3321, 3322, 333)의 조영제의 농도를 나타낸다. 이해할 수 있는 것은, 이러한 2차원 이미지에서, 수집된 교차 영역(333)의 조영제 농도는 두 혈관(331) 및 혈관(332) 양자의 조영제 농도 값의 중첩이 된다. 이 밖에, 도면에서 각 영역의 밀도를 음영으로 나타내었으나, 도면은 예시일 뿐이며, 상이한 영역의 농도는 색상, 명암, 깊이, 그라데이션, 수치, 수치 범위, 레벨 등 다양한 형태로 표시할 수 있으며, 상이한 영역 간의 농도는 서로 같을 수 있거나, 동일한 영역에서의 상이한 위치의 농도는 상이할 수 있으며, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다.In some examples, the contrast agent concentration value may be visually displayed to the user. Referring to FIG. 3C , a local image 330 of one image of the acquired second image sequence is shown, where blood vessels 331 and blood vessels 332 have intersections. In image 330, the concentration of contrast agent in regions 3311, 3312, 3321, 3322, and 333 at different depths are shown. Understandably, in this two-dimensional image, the contrast agent concentration of the collected intersection area 333 is a superposition of the contrast agent concentration values of both blood vessels 331 and blood vessels 332 . In addition, although the density of each area is indicated by shading in the drawing, the drawing is only an example, and the density of different areas can be displayed in various forms such as color, contrast, depth, gradation, numerical value, numerical range, level, etc. Concentrations between regions may be equal to each other, or concentrations at different locations in the same region may be different, and it is to be understood that the present disclosure is not limited thereto.

계속하여 도 3d를 참조하면, 본 개시의 하나 또는 복수의 실시예에 따르면, 제2 이미지 시퀀스에 기반한, 상이한 관찰 각도의 이미지를 생성함으로써, 국부 이미지(340)를 포함하는 이미지 또는 이미지 시퀀스를 생성할 수 있다. 이미지(340)에서의 혈관(341) 및 혈관(342)은 이미지(330)에서의 혈관(331) 및 혈관(332)에 각각 대응할 수 있으며, 이미지(340)의 각도는 혈관(341) 및 혈관(342)으로 하여금 더 이상 교차하지 않도록 한다. 이러한 예에서, 영역(3411, 3412, 3413, 3421, 3422, 3423)의 조영값 농도를 각각 계산하고, 패턴, 음영, 명암, 색상, 수치 등을 포함하지만 이에 한정되지 않는 임의의 원하는 방식으로 표시될 수 있다. 영역(3411, 3412, 3421, 3422)은 제2 이미지 시퀀스 중의 영역(3311, 3312, 3321, 3322)에 각각 대응하며, 이로부터 농도 값을 획득할 수 있으며, 예를 들어, 직접 획득하거나, 또는 각도, 혈관 형태의 변경에 기반하여 조정한다. 영역(3413) 및 영역(3423)의 농도는 영역(333)의 농도를 통해 획득될 수 있으며, 예를 들어, 교차 부분의 농도에서 비교차 부분의 인접한 영역의 농도를 종합적으로 감하여 결정되거나, 시뮬레이션 계산, 신경망 분석 등을 포함하되 이에 한정되지 않는 다른 방법을 통해 획득된다. 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다.Continuing to refer to FIG. 3D , according to one or more embodiments of the present disclosure, an image or image sequence including a local image 340 is generated by generating images of different viewing angles based on the second image sequence. can do. Blood vessels 341 and blood vessels 342 in the image 340 may correspond to blood vessels 331 and blood vessels 332 in the image 330, respectively, and the angles of the image 340 are the blood vessels 341 and blood vessels. Let (342) no longer intersect. In this example, the contrast value density of regions 3411, 3412, 3413, 3421, 3422, and 3423 are calculated, respectively, and displayed in any desired manner, including but not limited to pattern, shade, contrast, color, numerical, and the like. It can be. Areas 3411, 3412, 3421, and 3422 correspond to areas 3311, 3312, 3321, and 3322 in the second image sequence, respectively, and density values may be obtained from them, for example, directly obtained, or Adjust based on changes in angle and vessel shape. The concentrations of the regions 3413 and 3423 may be obtained through the concentration of the region 333, for example, determined by comprehensively subtracting the concentrations of adjacent regions of the non-intersecting region from the concentrations of the intersecting regions, or may be simulated. obtained through other methods including, but not limited to, computation, neural network analysis, and the like. It can be understood that the present disclosure is not limited thereto.

도 3a 내지 도 3d는 교차 혈관의 존재 여부를 중심으로 본 개시의 실시예의 일부 구체적인 예를 설명하였으나, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다. 본 개시는 3차원 이미지 시퀀스에 기반하여 2차원 이미지 시계열 시퀀스에 대해 적어도 하나의 다른 각도의 이미지를 참조로서 생성하여, 시각적 보조 또는 3차원 재구성의 효과를 달성할 수 있으며, 이러한 기술적인 목적은 제2 이미지 시퀀스 중의 이미지에 반드시 혈관 교차가 존재할 것을 요구하지 않으며, 생성된 업데이트 이미지에 반드시 혈관 교차가 존재하지 않을 것도 요구하지 않으며, 사용자(예를 들어, 의사, 진단자)가 인체 영역의 혈관 형태, 조영제 농도 등을 보다 편리하게 확인할 수 있도록 상이한 관찰 각도의 이미지를 생성하기만 하면 된다. 3A to 3D have described some specific examples of the embodiments of the present disclosure, focusing on the presence or absence of cross blood vessels, but it can be understood that the present disclosure is not limited thereto. The present disclosure can achieve the effect of visual assistance or 3D reconstruction by generating at least one image of a different angle for a 2D image time series sequence based on a 3D image sequence as a reference, and this technical object is the first. It is not required that blood vessel intersections exist in the images of the two-image sequence, and it is not required that blood vessel intersections not necessarily exist in the generated updated image, and the user (eg, doctor, diagnostician) determines the blood vessel shape of the human body region. It is only necessary to create images of different viewing angles so that the contrast agent concentration, etc. can be checked more conveniently.

일부 실시예에 따르면, 상기 제1 이미지 시퀀스의 적어도 하나의 이미지는 하나 또는 복수의 식별된 혈관 세그먼트 영역을 포함하며, 상기 식별된 혈관 세그먼트 영역은 상응하는 명명을 가지며; 상기 대응관계는 상기 제1 이미지 시퀀스의 상기 적어도 하나의 이미지에서 상기 식별된 혈관 세그먼트 영역으로부터 상기 제2 이미지 시퀀스의 상기 적어도 하나의 이미지에서 적어도 하나의 혈관 세그먼트 영역까지의 명명 매핑이다.According to some embodiments, at least one image of the first image sequence includes one or a plurality of identified blood vessel segment regions, the identified blood vessel segment regions having a corresponding name; The correspondence is a naming mapping from the identified blood vessel segment region in the at least one image of the first image sequence to at least one blood vessel segment region in the at least one image of the second image sequence.

이러한 실시예에 따르면, 제1 이미지 시퀀스에서 식별된 정보를 효과적으로 이용할 수 있으므로, 제2 이미지 시퀀스의 변환된 시각의 표현 형태를 편리하게 획득할 수 있다. 예를 들어, 관련 분야에서, 각 혈관의 명명을 제공할 수 있는 CTA 이미지의 프레젠테이션 방안이 이미 존재한다. 따라서, 해당 명명에 대응하는 혈관의 3차원 공간 범위를 추가로 획득할 수 있으며, 명명을 이용하여 제1 이미지 시퀀스를 시계열적으로 수집된(예를 들어, 조영제 이미징된 것이지만 이에 한정되지 않음) 제2 이미지 시퀀스에 매핑한다. 일부 비한정적인 예로서, CTA 또는 MRA를 통해 수집된 이미지는 식별된 혈관 명칭 RCA, LM, LCX, LAD 등을 포함할 수 있으며, 이러한 명명을 통해, 대응되는 제2 이미지 시퀀스(예를 들어, DSA 영상이지만 이에 한정되지 않음) 중 대응되는 하나 또는 복수의 혈관을 식별할 수 있으며, 이로써, 상이한 형태의 이미지 시퀀스 간의 매핑을 완료한다.According to this embodiment, since the information identified in the first image sequence can be effectively used, the converted visual expression form of the second image sequence can be conveniently obtained. For example, in the related art, there is already a presentation scheme of CTA images capable of providing the naming of each blood vessel. Accordingly, a 3D spatial extent of the blood vessel corresponding to the nomenclature may be further obtained, and the first image sequence is time-sequentially collected (eg, but not limited to, contrast imaged) using the nomenclature. 2 Map to image sequence. As some non-limiting examples, images collected via CTA or MRA may include identified blood vessel names RCA, LM, LCX, LAD, etc., through these naming, the corresponding second image sequence (e.g., DSA images (but not limited thereto) corresponding to one or a plurality of blood vessels may be identified, thereby completing mapping between different types of image sequences.

일부 실시예에 따르면, 상기 제1 이미지 시퀀스의 적어도 하나의 이미지는 식별된 병소 영역을 포함하고, 여기서, 상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스를 생성하는 단계는, 상기 대응관계에 기반하여, 상기 제3 이미지 시퀀스의 적어도 하나의 이미지에서, 상기 식별된 병소 영역에 대응하는 이미지 부분을 생성하는 단계를 포함한다.According to some embodiments, at least one image of the first image sequence comprises an identified lesion area, wherein the third image sequence based on the correspondence, the first image sequence and the second image sequence. The generating may include generating an image portion corresponding to the identified lesion area in at least one image of the third image sequence, based on the correspondence.

이러한 실시예에서, 생성된 제3 이미지 시퀀스는 사용자가 제1 이미지 시퀀스의 식별된 병소와 제2 이미지 시퀀스의 시계열 상황을 함께 관찰하는 것을 용이하게 한다. 특히, 사용자는 시계열적으로, 3차원적으로(예를 들어, 적어도 두 개의 각도에서) 시간에 따라 변화하는 제2 이미지 시퀀스를 확인할 수 있으므로, 사용자가 수집 결과를 확인하는 것을 용이하게 하며, 예를 들어, 상이한 이미지 시퀀스를 반복적으로 건너뛰어 확인 및 비교할 필요가 없다. 예를 들어, 이러한 표현 방식은 보다 정확한 진단을 내리는 데 도움이 된다. 하나의 예로서, 식별된 병소는 식별된 CTA 플라크일 수 있으나, 본 개시는 이에 한정되지 않는다. 예를 들어, 제2 이미지 시퀀스가 조영제 보조 이미징 시퀀스인 경우, 생성된 제3 이미지 시퀀스는 사용자가 병소와 조영제 상황을 함께 관찰하는 것을 용이하게 할 수 있으며, 특히, 사용자는 시계열적으로 또한 적어도 두 개의 각도에서 조영제의 시간에 따른 변화를 확인할 수 있으며, 병소 형태와 결합하여 조영제의 시간에 따른 변화를 확인할 수 있으나, 본 개시는 이에 한정되지 않는다.In this embodiment, the generated third image sequence facilitates the user to view the identified lesion of the first image sequence together with the time series situation of the second image sequence. In particular, since the user can check the second image sequence that changes over time in a time series and in three dimensions (eg, from at least two angles), it is easy for the user to check the collection result. For example, there is no need to repeatedly jump through different image sequences to check and compare. For example, this type of presentation can help make a more accurate diagnosis. As an example, the identified lesion may be an identified CTA plaque, but the present disclosure is not limited thereto. For example, when the second image sequence is a contrast agent auxiliary imaging sequence, the generated third image sequence can facilitate the user to observe the lesion and the contrast agent situation together, and in particular, the user can view at least two It is possible to check the change over time of the contrast medium from the dog's angle, and the change over time of the contrast medium in combination with the shape of the lesion can be checked, but the present disclosure is not limited thereto.

일부 실시예에 따르면, 상기 대응관계를 결정하는 단계는, 상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계; 상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계; 및 상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 상기 대응관계를 결정하는 단계를 포함한다. According to some embodiments, the determining of the correspondence may include determining a reference image in the second image sequence; obtaining a reference two-dimensional view of the first image sequence based on the reference image; and determining the corresponding relationship based on the reference 2D view and the reference image.

이러한 실시예에 따르면, 시계열 이미지 시퀀스로부터 하나의 이미지를 참조로서 결정하고, 제1 이미지 시퀀스에 기반하여 하나의 2차원 이미지를 기준 뷰로서 결정하며, 참조 이미지와 기준 뷰를 비교함으로써, 두 개의 이미지 시퀀스에서 혈관에 대응하는 대응관계(예를 들어, 명명 대응관계 등)를 획득할 수 있다. 따라서, 상이한 데이터 포맷의 두 이미지 시퀀스 간의 매핑 관계를 간단하고 정확하게 확립할 수 있다. 예를 들어, 참조 이미지 및 기준 뷰 간의 매핑 관계를 확립한 이후, 기준 이미지 및 제2 이미지 시퀀스 중의 다른 이미지 간의 매핑 관계 또는 대응관계를 확립할 수 있다.According to this embodiment, by determining one image from the time-series image sequence as a reference, determining one two-dimensional image as a reference view based on the first image sequence, and comparing the reference image and the reference view, the two images Correspondence (eg, naming correspondence, etc.) corresponding to blood vessels in the sequence may be obtained. Thus, it is possible to simply and accurately establish a mapping relationship between two image sequences of different data formats. For example, after establishing a mapping relationship between a reference image and a reference view, a mapping relationship or correspondence between the reference image and other images in the second image sequence may be established.

예시적으로, 상기 참조 이미지에 기반하여 획득된 상기 제1 이미지 시퀀스의 기준 2차원 뷰는 상기 기준 2차원 뷰가 상기 키 이미지 프레임과 기본상 동일한 각도(예를 들어, 정확히 동일하거나 임계값 범위 내에서의 편차 각도)를 갖도록 할 수 있다. 기준 2차원 뷰는 제1 이미지 시퀀스에 포함된 이미지 중 어느 이미지일 수 있다. 또는, 제1 이미지 시퀀스에 기반하여 생성된 3차원 공간 데이터를 어느 2차원 평면에 투영하여, 해당 기준 2차원 뷰를 획득할 수 있다. Exemplarily, in the reference 2D view of the first image sequence obtained based on the reference image, the reference 2D view has the same angle as the key image frame (eg, exactly the same or within a threshold range). Deviation angle at ) can be made. The reference 2D view may be any image among images included in the first image sequence. Alternatively, a corresponding reference 2D view may be obtained by projecting 3D spatial data generated based on the first image sequence onto a certain 2D plane.

상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 결정된 상기 대응관계는 기준 2차원 뷰와 참조 이미지 중 혈관의 형태에 기반하여 획득될 수 있다. 하나의 예로서, 참조 이미지는 키 이미지 프레임이라고도 지칭될 수 있다. 하나 또는 복수의 판단 표준에 기반하여 참조 이미지를 결정할 수 있으며, 일부 예는 아래에서 설명된다.The corresponding relationship determined based on the reference 2D view and the reference image may be obtained based on a shape of a blood vessel in the reference 2D view and the reference image. As an example, a reference image may also be referred to as a key image frame. The reference image may be determined based on one or more criteria, some examples of which are described below.

일부 실시예에 따르면, 상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계는, 상기 제2 이미지 시퀀스의 수집 각도에 기반하여 상기 기준 2차원 뷰를 획득하는 단계를 포함한다.According to some embodiments, the obtaining of the reference 2D view of the first image sequence based on the reference image includes obtaining the reference 2D view based on a collection angle of the second image sequence. do.

이러한 실시예에 따르면, 제2 이미지 시퀀스의 수집 각도를 직접 획득하거나 간접적으로 계산함으로써 제1 이미지 시퀀스의 기준 2차원 뷰를 획득할 수 있다. 예를 들어, 일부 수집 장치의 경우, 또는 일부 수집 파라미터 설정 하에서, 제1 이미지 시퀀스의 3차원 공간에서의 각도에 대응하는 현실 세계에서의 각도가 알려져 있고, 및/또는, 제2 이미지 시퀀스의 수집 각도가 알려져 있다. 또는, 이미지 데이터에 기반하여 이러한 수집 각도를 결정할 수 있으며, 예를 들어, 이미지에서의 특정 인체 기관, 조직의 위치 및 방향을 통해, 광원의 위치 등을 기반으로, 이미지 데이터로부터 수집 각도를 계산한다.According to this embodiment, the reference 2D view of the first image sequence may be obtained by directly acquiring or indirectly calculating the collection angle of the second image sequence. For example, for some collection devices, or under some collection parameter settings, an angle in the real world corresponding to an angle in three-dimensional space of a first image sequence is known, and/or a collection of a second image sequence. angle is known. Alternatively, the collection angle may be determined based on the image data, for example, based on the location and orientation of a specific human body organ or tissue in the image, the location of a light source, etc., the collection angle is calculated from the image data. .

이해할 수 있는 것은, 상기 기준 2차원 뷰를 획득하는 단계는, 제1 이미지 시퀀스로부터 제2 이미지 시퀀스의 수집 각도와 대응되거나, 근접하거나 일정한 각도 범위 내에 있는 이미지를 선택하는 단계를 포함할 수 있으나, “상기 기준 2차원 뷰를 획득한다”라는 설명은 기준 2차원 뷰가 최초 수집된 제1 이미지 시퀀스 중의 하나의 이미지여야 함을 요구하지 않는다. 앞에서 이미 언급한 바와 같이, 일부 예에서, 제1 이미지 시퀀스에 기반하여 풀 각도의 3차원 공간 데이터를 생성할 수 있으며, 이로써 획득된 기준 2차원 뷰는 이러한 3차원 공간 데이터가 어느 한 각도에서의 2차원 투영도일 수 있다.It can be understood that the obtaining of the reference 2D view may include selecting an image corresponding to, close to, or within a certain angular range of the collection angle of the second image sequence from the first image sequence, The description of “obtaining the reference 2D view” does not require that the reference 2D view be an image of one of the initially collected first image sequences. As already mentioned above, in some examples, full-angle 3D spatial data may be generated based on the first image sequence, and the reference 2D view obtained thereby is such that the 3D spatial data is viewed from any one angle. It may be a two-dimensional projection.

일부 실시예에 따르면, 상기 제1 이미지 시퀀스에 기반하여 복수의 상이한 관찰 각도를 갖는 복수의 관찰뷰를 획득하는 단계; 및 상기 참조 이미지와 비교하여, 상기 복수의 관찰뷰로부터 상기 기준 2차원 뷰를 결정하는 단계를 포함한다. According to some embodiments, obtaining a plurality of observation views having a plurality of different viewing angles based on the first image sequence; and determining the reference 2D view from the plurality of observation views by comparing the reference image with the reference image.

이러한 실시예에 따르면, 제1 이미지 시퀀스의 복수의 관찰뷰와 제2 이미지 시퀀스(구체적으로, 제2 이미지 시퀀스의 참조 뷰)를 비교하여, 제1 이미지 시퀀스 또는 제2 이미지 시퀀스의 수집 각도의 획득이 불필요하거나 불가능한 경우, 요구되는 기준 2차원 뷰는 여전히 결정될 수 있다. 예를 들어, 복수의 관찰뷰 중 각 관찰뷰에서의 혈관 형태 또는 다른 인체 조직 기관의 형태를 참조 이미지에서의 혈관 형태와 비교함으로써, 가장 가까운 형태를 가진 이미지를 기준 2차원 뷰로 결정할 수 있다.According to this embodiment, the acquisition angle of the first image sequence or the second image sequence is obtained by comparing the plurality of observation views of the first image sequence with the second image sequence (specifically, the reference view of the second image sequence). If this is unnecessary or impossible, the required reference two-dimensional view can still be determined. For example, an image having the closest shape may be determined as a reference 2D view by comparing a blood vessel shape or a shape of another human tissue organ in each observation view among a plurality of observation views with a blood vessel shape in a reference image.

앞에서 이미 언급한 바와 같이, 상기 제1 이미지 시퀀스에 기반하여 복수의 상이한 관찰 각도를 갖는 복수의 관찰뷰를 획득하는 단계는, 제1 이미지 시퀀스로부터 상이한 복수의 수집 각도를 가진 이미지를 획득하는 단계를 포함할 수 있고, 상기 제1 이미지 시퀀스의 3차원 표현에 대해 복수의 투영 각도에 따라 투영을 수행하여 복수의 투영 결과를 생성하는 단계를 포함할 수도 있으며, 본 개시는 이에 한정되지 않는다. As already mentioned above, acquiring a plurality of observation views having a plurality of different observation angles based on the first image sequence includes acquiring images having a plurality of different collection angles from the first image sequence. and generating a plurality of projection results by performing projection on the 3D representation of the first image sequence according to a plurality of projection angles, but the present disclosure is not limited thereto.

일부 실시예에 따르면, 상기 제2 이미지 시퀀스 중 제1 표준을 만족하는 제1 혈관 세그먼트 영역을 결정하는 단계 - 상기 제1 표준은 혈관 세그먼트 길이, 조영제의 현상 정도, 수집 선명도 중 적어도 하나를 포함함 -; 및 상기 제1 혈관 세그먼트 영역이 위치하는 이미지 프레임을 상기 참조 이미지로 결정하는 단계를 포함한다.According to some embodiments, determining a first vessel segment region satisfying a first criterion from among the second image sequence, wherein the first criterion includes at least one of a vessel segment length, a development degree of a contrast agent, and collection sharpness. -; and determining an image frame in which the first blood vessel segment region is located as the reference image.

이러한 실시예에서, 제2 이미지 시퀀스로부터 혈관이 가장 길거나, 현상이 가장 우수하거나 및/또는 가장 뚜렷한 이미지를 참조 이미지로 선택함으로써, 보다 정확한 대응관계를 획득할 수 있다.In this embodiment, a more accurate correspondence can be obtained by selecting, as a reference image, an image having the longest blood vessel, the best phenomenon, and/or the most distinct blood vessel from the second image sequence.

일부 예에서, 이미지에서 특정 혈관, 예를 들어 현재 수집 목표와 관련된 특정 혈관, 대동맥, 이미지에서 가장 두꺼운 혈관, 현상제가 처음 도착한 혈관, 현상제 농도가 가장 높거나 일정한 임계값보다 높은 혈관 등을 먼저 식별할 수 있으며, 해당 특정 혈관을 “제1 혈관 세그먼트 영역”으로 사용하여, 표준에 부합되는 이미지를 참조 이미지로 선택한다. 다른 일부 예에서, 모든 이미지 및 모든 혈관 중에서 선택할 수 있으며, 제1 표준의 요구사항에 가장 적합한 혈관 세그먼트 영역(예를 들어, 모든 이미지에서 가장 긴 하나의 혈관, 선명도가 가장 좋은 하나의 혈관)을 제1 혈관 세그먼트 영역으로 확정하고, 해당 제1 혈관 세그먼트 영역에 기반하여 참조 이미지를 선택한다. 상기 내용은 예시이며, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다. In some examples, a specific vessel in the image, eg, a specific vessel related to the current collection target, an aorta, the thickest vessel in the image, a vessel in which the developer arrived first, a vessel in which the developer concentration is the highest or higher than a certain threshold value, etc., first. It can be identified, and an image conforming to the standard is selected as a reference image by using the specific blood vessel as the “first blood vessel segment region”. In some other examples, one may choose from all images and all vessels, and select the vessel segment region that best meets the requirements of the first criterion (eg, one vessel that is the longest in all images, one vessel that has the best sharpness). The first blood vessel segment region is determined, and a reference image is selected based on the first blood vessel segment region. It can be understood that the above is an example and the present disclosure is not limited thereto.

다른 일부 예에서, 제1 표준은 추가적으로 또는 대안적으로 혈관의 개수가 가장 많음 및/또는 혈관 분기점이 가장 뚜렷함 등을 포함할 수 있다. 또 다른 일부 예에 따르면, 제1 표준은 현상제의 총 농도가 특정 임계값을 초과하거나, 현상제를 섭취한 후 특정 시간이 경과한 경우를 포함할 수 있으며, 이러한 이미지에서 현상제의 혈관 경로가 길거나 가장 긴 이미지를 참조로 선택하며, 본 개시는 이에 한정되지 않는다. In some other examples, the first criterion may additionally or alternatively include the greatest number of blood vessels and/or the most distinct blood vessel bifurcations, and the like. According to some other examples, the first standard may include a case where the total concentration of the developer exceeds a specific threshold or a specific time elapses after the developer is ingested, and the vascular path of the developer in these images. Select the longest or longest image as a reference, and the present disclosure is not limited thereto.

일부 실시예에 따르면, 상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계는, 상기 제2 이미지 시퀀스 중의 제1 형태점을 획득하는 단계 - 상기 제1 형태점은 혈관의 분기점, 연결점 및 전환점 중 적어도 하나에 대응함 -; 및 상기 제1 형태점이 위치하는 이미지 프레임을 상기 참조 이미지로 결정하는 단계를 포함한다. According to some embodiments, the determining of the reference image in the second image sequence may include: obtaining a first shape point in the second image sequence, wherein the first shape point is at least one of a bifurcation point, a connection point, and a turning point of a blood vessel; corresponds to one -; and determining an image frame in which the first shape point is located as the reference image.

이러한 실시예에 따르면, 선택된 참조 이미지는 분기 및 전환점과 같은 일부 원하는 상징적 특징을 가질 수 있다. 3차원 재구성 과정에서, 이러한 상징점은 매우 중요한데, 이는 적어도 직선 구간에 비해, 분기, 연결, 전환 등 혈관 간의 관계를 포함하는 형태점이 일정한 각도 및 특수 형태를 가지는 경우가 많기 때문이며, 따라서, 이러한 참조점을 기반으로, 제1 이미지 시퀀스에서 대응되는 각도를 보다 쉽게 식별하여, 대응되는 기준 2차원 뷰를 결정하며, 이로써 제1 이미지 시퀀스와 제2 이미지 시퀀스의 대응관계를 정확하게 확립할 수 있다. According to this embodiment, the selected reference image may have some desired symbolic features such as divergence and turning points. In the 3D reconstruction process, these symbol points are very important, because shape points including relationships between blood vessels, such as branching, connection, and transition, often have a certain angle and special shape, at least compared to straight sections. Therefore, these reference points Based on the points, corresponding angles in the first image sequence are more easily identified, and corresponding reference two-dimensional views are determined, thereby accurately establishing the correspondence between the first image sequence and the second image sequence.

일부 예에서, 이러한 형태점은 식별된 이미지에서 토폴리지를 분석함으로써 식별될 수 있다. 일부 예에서, 형태점의 식별은 수집 목적, 수집된 인체 영역 등 파라미터에 기반하여(예를 들어, 현재 수집 대상이 관상 동맥인 것에 기반하여), 관상 동맥에 대응하는 특정 분기점을 식별하는데 치중할 수 있다. 다른 일부 예에서, 사전 훈련된 네트워크 모델을 통해 형태점을 식별할 수 있다. 또 다른 실시예에서, 기존 알고리즘에 의해 형태점을 식별하는데 정확도 요구사항을 만족하지 못하는 경우, 사용자(예를 들어, 의사)가 가장 중요한 형태점을 보조 결정하도록, 형태점을 수동으로 표기하는 프롬프트를 입력할 수도 있다. 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다.In some instances, these feature points may be identified by analyzing the topology in the identified image. In some examples, the identification of the shape point may focus on identifying a specific bifurcation point corresponding to a coronary artery based on parameters such as the purpose of collection and the collected body region (eg, based on the current collection target being a coronary artery). can In some other examples, shape points may be identified through a pre-trained network model. In another embodiment, if the accuracy requirements are not satisfied in identifying the shape points by the existing algorithm, the user (e.g., the doctor) is prompted to manually mark the shape points to assist in determining the most important shape points. can also be entered. It can be understood that the present disclosure is not limited thereto.

일부 실시예에 따르면, 본 개시의 방법은 상기 기준 2차원 뷰 중의, 상기 제1 형태점에 대응하는 제2 형태점을 획득하는 단계를 더 포함할 수 있으며, 여기서, 상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 상기 대응관계를 결정하는 단계는, 상기 기준 2차원 뷰 중 상기 제2 형태점과 관련되는 하나 또는 복수의 혈관 세그먼트 영역 및 상기 참조 이미지 중 상기 제1 형태점과 관련되는 하나 또는 복수의 혈관 세그먼트 영역 사이의 대응관계를 결정하는 단계를 포함한다.According to some embodiments, the method of the present disclosure may further include acquiring a second shape point corresponding to the first shape point in the reference 2D view, wherein the reference 2D view and the The determining of the correspondence based on the reference image may include one or a plurality of blood vessel segment regions related to the second shape point in the reference 2D view and one or more blood vessel segment regions related to the first shape point in the reference image. and determining a correspondence between the plurality of blood vessel segment regions.

이러한 실시예에 따르면, 기준 2차원 뷰에서 유사하게 일정한 각도 또는 방향을 가진 형태점을 식별함으로써, 제1 이미지 시퀀스와 제2 이미지 시퀀스 간의 대응관계를 보다 간단하고 정확하게 확립할 수 있다.According to this embodiment, it is possible to more simply and accurately establish a correspondence between the first image sequence and the second image sequence by identifying shape points similarly having a constant angle or direction in the reference 2D view.

일부 실시예에 따르면, 제2 이미지가 조영값 정보를 포함하는 경우, 방법(200)은 향상된 제1 이미지 시퀀스를 생성하는 단계를 더 포함할 수 있고, 상기 향상된 제1 이미지 시퀀스는 상기 제2 이미지 시퀀스에 기반한 조영값을 포함한다. 이러한 실시예에서, 3차원 이미지 시퀀스(예를 들어, CTA, MRA 등)에 기반하여 시계열 이미지 시퀀스에 대해 상이한 각도의 재구성을 수행할 수 있으며, 제2 이미지 시퀀스 중의 조영값에 기반하여 제1 이미지 시퀀스에 대해 향상 및 렌더링을 수행할 수 있으며, 이로써 사용자(예컨대, 진단 의사)가 상이한 시퀀스를 반복적으로 비교할 필요성을 감소시킴으로써, 사용자가 현재 확인하고자 하는 이미지 시퀀스에서 보다 전면적인 정보를 쉽게 획득할 수 있게 하여, 사용자의 진단 등에 더욱 도움이 된다. According to some embodiments, if the second image includes contrast value information, the method 200 may further include generating an enhanced first image sequence, wherein the enhanced first image sequence comprises the second image sequence. Include contrast values based on the sequence. In such an embodiment, reconstruction of different angles may be performed on a sequence of time-series images based on a sequence of three-dimensional images (eg, CTA, MRA, etc.), and the first image based on the contrast values in the second image sequence. Enhancements and rendering can be performed on sequences, thereby reducing the need for users (e.g., diagnosing physicians) to repeatedly compare different sequences, making it easier for users to obtain more comprehensive information on the image sequence they are currently viewing. It is more helpful for the user's diagnosis and the like.

이해할 수 있는 것은, 각각의 동작은 도면에 특정 순서로 도시되어 있지만, 이는 이러한 동작이 도시된 특정 순서 또는 순차적인 순서로 수행되어야 하는 것으로 이해되어서는 안 되며, 원하는 결과를 얻기 위해 도시된 모든 동작을 수행해야 하는 것으로 이해되어서는 안 된다. It should be understood that while each action is shown in a specific order in the figures, it should not be understood that these actions must be performed in the specific order shown or in sequential order, rather than all actions shown to achieve a desired result. should not be understood as having to

본 개시 전반에 걸쳐, 이미지 시퀀스는 직접 수집 및 저장하거나 사용자가 사용하도록 단말 기기에 다른 방식으로 전송할 수 있는 이미지 데이터이다. 이미지 시퀀스는 다양한 이미지 처리를 거친 후의 처리된 이미지 데이터일 수도 있다. 이미지 시퀀스는 또한 다른 분석 과정(예를 들어, 병변 특징의 유무 또는 병소의 분석 과정)을 거칠 수 있으며 분석 결과(예를 들어, 관심 영역에 대한 동그라미 표시, 조직의 분할 결과 등)를 더 포함할 수 있다. 본 개시는 이에 한정되지 않음을 이해할 수 있다. Throughout this disclosure, an image sequence is image data that can be directly collected and stored or otherwise transmitted to a terminal device for use by a user. The image sequence may be processed image data after various image processing. The image sequence may also be subjected to other analysis processes (eg, the presence or absence of lesion features or the process of analyzing lesions) and may further include analysis results (eg, circle the region of interest, tissue segmentation results, etc.). can It can be understood that the present disclosure is not limited thereto.

도 4는 예시적 실시예에 따른 이미지 처리 장치(400)의 개략적인 블록도이다. 이미지 처리 장치(400)는 이미지 시퀀스 획득 유닛(410) 및 이미지 시퀀스 생성 유닛(420)을 포함할 수 있다. 이미지 시퀀스 획득 유닛(410)은 제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하기 위한 것일 수 있으며, 여기서, 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집된다. 이미지 시퀀스 생성 유닛(420)은 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하기 위한 것일 수 있으며, 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가진다. Fig. 4 is a schematic block diagram of an image processing device 400 according to an exemplary embodiment. The image processing device 400 may include an image sequence acquisition unit 410 and an image sequence generation unit 420 . The image sequence acquiring unit 410 may be configured to acquire a first image sequence corresponding to a first body region and a second image sequence corresponding to the first body region, wherein an image in the first image sequence is At least one of a collection position, a collection depth, or a collection angle is different from each other, the images in the second image sequence basically have the same collection angle, and the images in the second image sequence are sequentially acquired at different time points. The image sequence generating unit 420 may be for generating a third image sequence based on the first image sequence and the second image sequence, the third image sequence including at least one updated image, The at least one updated image corresponds to at least one image of the second image sequence and has a different viewing angle than the at least one image.

도 4에 도시된 장치(400)의 각 모듈은 도 2에 설명된 방법(200)의 각 단계에 대응됨을 이해해야 한다. 이에 따라, 전술한 방법(200)에 대해 설명한 동작, 특징 및 이점은 장치(400) 및 이가 포함하는 모듈에도 마찬가지로 적용된다. 간결함을 위해 일부 동작, 특징 및 이점은 여기에서 중복하여 설명하지 않는다. It should be understood that each module of the apparatus 400 shown in FIG. 4 corresponds to each step of the method 200 described in FIG. 2 . Accordingly, the operations, features, and advantages described for method 200 described above apply equally to device 400 and the modules it includes. For brevity, some operations, features, and benefits are not duplicated herein.

본 개시의 실시예에 따르면, 메모리, 프로세서 및 메모리에 저장된 컴퓨터 프로그램을 포함하는 컴퓨팅 디바이스를 더 포함하며, 여기서, 프로세서는 컴퓨터 프로그램을 실행하여 본 개시의 실시예에 따른 이미지 처리 방법 및 이의 변형예의 단계를 구현하도록 구성된다. According to an embodiment of the present disclosure, the computer further includes a computing device including a memory, a processor, and a computer program stored in the memory, wherein the processor executes the computer program to perform an image processing method according to an embodiment of the present disclosure and variations thereof. It is configured to implement the steps.

본 개시의 실시예에 따르면, 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체를 더 개시하였으며, 여기서, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 본 개시의 실시예에 따른 이미지 처리 방법 및 이의 변형예의 단계를 구현한다. According to an embodiment of the present disclosure, a non-transitory computer readable storage medium in which a computer program is stored is further disclosed, wherein, when the computer program is executed by a processor, steps of an image processing method according to an embodiment of the present disclosure and variations thereof implement

본 개시의 실시예에 따르면, 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 더 개시하였고, 여기서 컴퓨터 프로그램이 프로세서에 의해 실행될 때 본 개시의 실시예에 따른 이미지 처리 방법 및 이의 변형예의 단계를 구현한다. According to an embodiment of the present disclosure, a computer program product including a computer program is further disclosed, wherein the computer program implements steps of an image processing method according to an embodiment of the present disclosure and variations thereof when executed by a processor.

위에서 특정 모듈을 참조하여 특정 기능에 대해 논의하였으나, 본 명세서에서 논의된 각 모듈의 기능은 복수의 모듈로 나뉠 수 있고, 및/또는 여러 모듈의 적어도 일부 기능은 단일 모듈로 조합될 수 있다는 점에 유의해야 한다. 본 명세서에서 논의된 특정 모듈의 실행 동작은 상기 특정 모듈 자체적으로 동작을 실행하거나, 대안적으로 상기 특정 모듈이 상기 동작을 실행하는 다른 구성 요소 또는 모듈을 호출하거나, 다른 방식으로 액세스하는 동작(상기 특정 모듈과 함께 상기 동작을 실행함)을 실행하는 다른 구성 요소 또는 모듈을 포함한다. 따라서, 동작을 실행하는 특정 모듈은 동작을 실행하는 상기 특정 모듈 및/또는 상기 특정 모듈에 의해 호출되거나 상기 특정 모듈이 다른 방식으로 액세스하는, 동작을 실행하는 다른 모듈을 포함할 수 있다. 예를 들어, 위에서 설명한 복수의 모듈은 일부 실시예에서 단일 모듈로 조합될 수 있으며, 그 반대도 마찬가지이다. 본 명세서에 사용된 문구 “엔티티 A가 동작 B를 개시한다”라고 함은 엔티티 A가 동작 B를 실행하도록 명령하는 것을 의미할 수 있으나, 엔티티 A가 자체적으로 반드시 해당 동작 B를 실행하는 것은 아니다. Although specific functions have been discussed above with reference to specific modules, it should be noted that the functions of each module discussed herein may be divided into multiple modules, and/or at least some functions of multiple modules may be combined into a single module. Be careful. An operation of executing a specific module as discussed herein refers to an operation in which the specific module itself executes an operation or, alternatively, the particular module invokes or otherwise accesses another component or module that executes the operation (see above). and other components or modules that execute the above actions) together with the specific module. Thus, a particular module executing an operation may include the particular module executing the operation and/or other modules executing the operation that are called by or otherwise accessed by the particular module. For example, multiple modules described above may be combined into a single module in some embodiments, and vice versa. As used herein, the phrase “entity A initiates action B” may mean that entity A instructs action B to be executed, but entity A itself does not necessarily execute that action B.

또한 본 명세서에서는 소프트웨어 하드웨어 요소 또는 프로그램 모듈의 일반적인 맥락에서 다양한 기술을 설명할 수 있음을 이해해야 한다. 위에서 도 4에 관련하여 설명된 각 모듈은 하드웨어에서, 또는 소프트웨어 및/또는 펌웨어와 결합된 하드웨어에서 구현될 수 있다. 예를 들어, 이러한 모듈은 하나 또는 복수의 프로세서에서 실행되고 컴퓨터 판독 가능한 저장 매체에 저장되도록 구성된 컴퓨터 프로그램 코드/명령으로 구현될 수 있다. 대안적으로, 이러한 모듈은 하드웨어 논리/회로로 구현될 수 있다. 예를 들어, 일부 실시예에서, 본 명세서에 설명된 모듈 중 하나 또는 복수는 시스템 온칩(System on Chip, SoC)에서 함께 구현될 수 있다. SoC는 집적회로 칩(프로세서(예를 들어, 중앙처리장치(Central Processing Unit, CPU), 마이크로컨트롤러, 마이크로프로세서, 디지털신호프로세서(Digital Signal Processor, DSP) 등), 메모리, 하나 또는 복수의 통신 인터페이스, 및/또는 다른 회로의 하나 또는 복수의 부품을 포함함)을 포함할 수 있으며, 수신된 프로그램 코드를 선택적으로 실행하거나, 및/또는 기능을 수행하기 위한 임베디드 펌웨어를 포함할 수 있다. It should also be understood that various techniques may be described herein in the general context of software hardware elements or program modules. Each of the modules described above with respect to FIG. 4 may be implemented in hardware, or in hardware combined with software and/or firmware. For example, these modules may be implemented as computer program codes/instructions configured to be executed on one or more processors and stored in a computer-readable storage medium. Alternatively, these modules may be implemented with hardware logic/circuits. For example, in some embodiments, one or multiple of the modules described herein may be implemented together in a System on Chip (SoC). SoC is an integrated circuit chip (processor (eg, central processing unit (CPU), microcontroller, microprocessor, digital signal processor (DSP), etc.), memory, one or more communication interfaces) , and/or one or more components of other circuitry), and may include embedded firmware for selectively executing received program code and/or performing functions.

본 개시의 일 양태에 따르면, 메모리, 프로세서 및 메모리에 저장된 컴퓨터 프로그램을 포함하는 컴퓨팅 디바이스를 제공한다. 상기 프로세서는 전술한 임의의 방법 실시예의 단계를 구현하기 위한 컴퓨터 프로그램을 수행하도록 구성된다.According to one aspect of the present disclosure, a computing device comprising a memory, a processor and a computer program stored in the memory is provided. The processor is configured to execute a computer program for implementing the steps of any method embodiment described above.

본 개시의 일 양태에 따르면, 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체를 제공하며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 전술한 임의의 방법 실시예의 단계를 구현한다. According to one aspect of the present disclosure, there is provided a non-transitory computer-readable storage medium storing a computer program, and when the computer program is executed by a processor, the steps of any of the foregoing method embodiments are implemented.

본 개시의 일 양태에 따르면, 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 더 개시하였고, 여기서 컴퓨터 프로그램이 프로세서에 의해 실행될 때 전술한 임의의 방법 실시예의 단계를 구현한다. According to one aspect of the present disclosure, a computer program product comprising a computer program is further disclosed, wherein the computer program when executed by a processor implements the steps of any of the foregoing method embodiments.

이하에서는 도 5와 함께 이러한 컴퓨터 기기, 비일시적 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 제품의 예시적인 예시를 설명하도록 한다.Illustrative examples of such a computer device, a non-transitory computer-readable storage medium and a computer program product are described below in conjunction with FIG. 5 .

도 5는 본 명세서에 설명된 방법을 실시하기 위한 컴퓨터 기기(500)의 예시적인 구성을 나타낸다. 예를 들어, 도 1에 도시된 서버(120) 및/또는 클라이언트 기기(110)는 컴퓨터 기기(500)와 유사한 아키텍처를 포함할 수 있다. 상기 이미지 처리 기기/장치는 컴퓨터 기기(500), 또는 유사한 기기 또는 시스템에 의해 전부 또는 적어도 부분적으로 구현될 수도 있다. 5 shows an exemplary configuration of a computer device 500 for practicing the methods described herein. For example, server 120 and/or client device 110 shown in FIG. 1 may include an architecture similar to computer device 500 . The image processing device/device may be fully or at least partially implemented by the computer device 500 or a similar device or system.

컴퓨터 기기(500)는 서비스 제공업체의 서버, 클라이언트(예를 들어, 클라이언트 기기)와 관련된 기기, 시스템 온칩, 및/또는 임의의 다른 적합한 컴퓨터 기기 또는 컴퓨팅 시스템과 같은 다양한 상이한 유형의 기기일 수 있다. 컴퓨터 기기(500)의 예시는 데스크톱 컴퓨터, 서버 컴퓨터, 노트북 컴퓨터 또는 넷북 컴퓨터, 모바일 기기(예를 들어, 태블릿 컴퓨터, 셀룰러 또는 다른 무선 전화(예를 들어, 스마트폰), 메모장 컴퓨터(Notepad computer), 이동국(mobile station)), 웨어러블 장치(예를 들어, 안경, 손목시계), 엔터테인먼트 기기(예를 들어, 엔터테인먼트 기구, 통신적으로 디스플레이 기기에 커플링된 셋톱박스, 게임기), TV 또는 다른 디스플레이 장치, 자동차 컴퓨터 등을 포함하지만 이에 한정되지 않는다. 따라서, 컴퓨터 기기(500)의 범위는 많은 양의 메모리 및 프로세서 자원을 가진 전체 자원 기기(예를 들어, 개인용 컴퓨터, 게임 콘솔)에서 제한된 메모리 및/또는 처리 자원을 가진 저자원 기기(예를 들어, 기존 셋톱박스, 휴대용 게임 콘솔)에 이르기까지 다양할 수 있다.Computer device 500 may be a variety of different types of devices, such as a server of a service provider, a device associated with a client (eg, a client device), a system on a chip, and/or any other suitable computer device or computing system. . Examples of computer device 500 include a desktop computer, server computer, notebook computer or netbook computer, mobile device (e.g. tablet computer, cellular or other wireless phone (e.g. smart phone), notepad computer) , mobile stations), wearable devices (eg glasses, wristwatches), entertainment devices (eg entertainment devices, set-top boxes communicatively coupled to display devices, game consoles), TVs or other displays devices, automotive computers, and the like, but are not limited thereto. Accordingly, the computer device 500 ranges from fully resourced devices with large amounts of memory and processor resources (eg, personal computers, game consoles) to low-resource devices with limited memory and/or processing resources (eg, personal computers, game consoles). , existing set-top boxes, handheld game consoles).

컴퓨터 기기(500)는 시스템 버스(514) 또는 다른 적절한 접속을 통해 서로 통신할 수 있는 적어도 하나의 프로세서(502), 메모리(504), (복수의) 통신 인터페이스(506), 디스플레이 기기(508), 다른 입출력(I/O) 기기(510) 및 하나 또는 복수의 대용량 저장 기기(512)를 포함할 수 있다. Computer device 500 includes at least one processor 502, memory 504, (plural) communication interfaces 506, display device 508 capable of communicating with each other via a system bus 514 or other suitable connection. , another input/output (I/O) device 510 and one or more mass storage devices 512.

프로세서(502)는 단일 처리 유닛 또는 다중 처리 유닛일 수 있으며, 모든 처리 유닛은 단일 또는 다중 컴퓨팅 유닛 또는 다중 코어를 포함할 수 있다. 프로세서(502)는 하나 또는 복수의 마이크로프로세서, 마이크로컴퓨터, 마이크로컨트롤러, 디지털신호 프로세서, 중앙처리 장치, 상태 머신, 논리회로 및/또는 동작 명령에 기반하여 신호를 조작하는 임의의 장치로 실시될 수 있다. 프로세서(502)는 다른 기능 외에, 메모리(504), 대용량 저장 기기(512) 또는 다른 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 판독 가능한 명령(예를 들어 오퍼레이팅 시스템(516)의 프로그램 코드, 애플리케이션 프로그램(518)의 프로그램 코드, 기타 프로그램(520)의 프로그램 코드 등)을 획득하여 실행하도록 구성될 수 있다. Processor 502 may be a single processing unit or multiple processing units, and all processing units may include single or multiple computing units or multiple cores. Processor 502 may be implemented as one or more microprocessors, microcomputers, microcontrollers, digital signal processors, central processing units, state machines, logic circuits, and/or any device that manipulates signals based on operational instructions. there is. Processor 502, in addition to other functions, may include computer readable instructions (e.g., program code of operating system 516, application programs 518) stored in memory 504, mass storage device 512, or other computer readable medium. program code of, program code of other programs 520, etc.) may be configured to obtain and execute.

메모리(504) 및 대용량 저장 기기(512)는 전술한 각 기능을 실행하기 위해 프로세서(502)에 의해 실행되는 명령을 저장하기 위한 컴퓨터 판독 가능한 저장 매체의 예시이다. 예를 들어, 메모리(504)는 일반적으로 휘발성 메모리와 비휘발성 메모리(예를 들어, RAM, ROM 등)를 모두 포함할 수 있다. 또한, 대용량 저장 기기(512)는 일반적으로 하드 디스크 드라이브, 솔리드 스테이트 드라이브, 리무버블 미디어, 외장 및 리무버블 드라이브, 메모리 카드, 플래시 메모리, 플로피 디스크, 광 디스크(예를 들어 CD, DVD), 스토리지 어레이, 네트워크 결합 스토리지(Network Attached Storage), 스토리지 영역 네트워크 등을 포함할 수 있다. 메모리(504) 및 대용량 저장 기기(512)는 모두 본 명세서에서 메모리 또는 컴퓨터 판독 가능한 저장 매체로 총칭될 수 있으며, 컴퓨터 판독 가능한 명령 및 프로세서 실행 가능한 프로그램 명령을 컴퓨터 프로그램 코드로 저장할 수 있는 비일시적 매체일 수 있으며, 상기 컴퓨터 프로그램 코드는 본 명세서의 예시에서 설명한 동작 및 기능을 구현하도록 구성된 특정 기계인 프로세서(502)에 의해 실행될 수 있다. The memory 504 and the mass storage device 512 are examples of computer readable storage media for storing instructions executed by the processor 502 to execute each function described above. For example, memory 504 may typically include both volatile and non-volatile memory (eg, RAM, ROM, etc.). In addition, mass storage device 512 typically includes hard disk drives, solid state drives, removable media, external and removable drives, memory cards, flash memory, floppy disks, optical disks (eg CDs, DVDs), storage may include arrays, network attached storage, storage area networks, and the like. Memory 504 and mass storage device 512 may both be collectively referred to herein as a memory or computer-readable storage medium, which is a non-transitory medium capable of storing computer-readable instructions and processor-executable program instructions in the form of computer program code. , and the computer program code may be executed by the processor 502, which is a specific machine configured to implement the operations and functions described in the examples herein.

복수의 프로그램 모듈은 대용량 저장 기기(512)에 저장될 수 있다. 이들 프로그램은 오퍼레이팅 시스템(516), 하나 또는 복수의 애플리케이션 프로그램(518), 기타 프로그램(520) 및 프로그램 데이터(522)를 포함하고, 이들은 메모리(504)에 로드되어 실행될 수 있다. 이러한 애플리케이션 프로그램 또는 프로그램 모듈의 예시는 예를 들어 방법(200)(방법(200)의 임의의 적절한 단계를 포함함) 및/또는 본 명세서에 설명된 다른 실시예의 부재/기능을 구현하기 위한 프로그램 논리(예를 들어, 컴퓨터 프로그램 코드 또는 명령)를 포함할 수 있다.A plurality of program modules may be stored in the mass storage device 512 . These programs include an operating system 516, one or a plurality of application programs 518, other programs 520, and program data 522, which can be loaded into memory 504 and executed. Examples of such application programs or program modules include, for example, program logic for implementing elements/functions of method 200 (including any suitable steps of method 200) and/or other embodiments described herein. (eg, computer program code or instructions).

도 5에서 컴퓨터 기기(500)의 메모리(504)에 저장된 것으로 도시되었으나, 모듈(516, 518, 520 및 522) 또는 그 일부는 컴퓨터 기기(500)에 의해 액세스 가능한 임의의 형태의 컴퓨터 판독 가능한 매체를 사용하여 실시될 수 있다. 본 명세서에서 사용된 바와 같이, “컴퓨터 판독 가능한 매체”는 적어도 두 가지 유형의 컴퓨터 판독 가능한 매체, 즉, 컴퓨터 저장 매체 및 통신 매체를 포함한다. Although shown as stored in memory 504 of computer device 500 in FIG. 5 , modules 516 , 518 , 520 and 522 , or portions thereof, are in any form of computer readable medium accessible by computer device 500 . can be implemented using As used herein, “computer readable media” includes at least two types of computer readable media: computer storage media and communication media.

컴퓨터 저장 매체는 컴퓨터 판독 가능한 명령, 데이터 구조, 프로그램 모듈 또는 다른 데이터와 같은 정보를 저장하기 위한 임의의 방법 또는 기술에 의해 구현되는 휘발성 및 비휘발성, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 유니버설 디스크(DVD) 또는 다른 광학 저장 장치, 자기 박스, 자기 테이프, 자기 디스크 저장 장치 또는 다른 자기 저장 장치, 또는 컴퓨터 장치에 대한 액세스를 위해 정보를 저장하는 데 사용될 수 있는 다른 비전송 매체를 포함하지만, 이에 한정되지 않는다. Computer storage media includes volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Computer storage media may include RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital universal disk (DVD) or other optical storage device, magnetic box, magnetic tape, magnetic disk storage device or other magnetic storage device, or It includes, but is not limited to, other non-transport media that may be used to store information for access by a computing device.

대조적으로, 통신 매체는 예를 들어 반송파 또는 다른 전송 메커니즘과 같은 변조된 데이터 신호에서 컴퓨터 판독 가능한 명령, 데이터 구조, 프로그램 모듈 또는 다른 데이터를 구체적으로 구현할 수 있다. 본 명세서에서 정의한 컴퓨터 저장 매체는 통신 매체를 포함하지 않는다. In contrast, communication media may embody computer readable instructions, data structures, program modules, or other data in a modulated data signal, such as, for example, a carrier wave or other transport mechanism. Computer storage media, as defined herein, does not include communication media.

컴퓨터 기기(500)는 전술한 바와 같이 네트워크, 직접 연결 등을 통해 다른 장치와 데이터를 교환하기 위한 하나 이상의 통신 인터페이스(506)를 더 포함할 수 있다. 이러한 통신 인터페이스는 임의의 유형의 네트워크 인터페이스(예를 들어, NIC), 유선 또는 무선(예를 들어, IEEE 802.11 무선 LAN(WLAN)) 인터페이스, Wi-MAX 인터페이스, 이더넷 인터페이스, 범용 직렬 버스(USB) 인터페이스, 셀룰러 네트워크 인터페이스, BluetoothTM 인터페이스, 근거리 통신(NFC) 인터페이스 등 중 하나 또는 복수 개일 수 있다. 통신 인터페이스(506)는 유선 네트워크(예를 들어, LAN, 케이블 등) 및 무선 네트워크(예를 들어, WLAN, 셀룰러, 위성 등), 인터넷 등을 포함하는 다양한 네트워크 및 프로토콜 유형 내의 통신을 촉진할 수 있다. 통신 인터페이스(506)는 또한 스토리지 어레이, 네트워크 결합 스토리지, 스토리지 영역 네트워크 등과 같은 외부 저장 장치(미도시)와의 통신을 제공할 수 있다. Computer device 500 may further include one or more communication interfaces 506 for exchanging data with other devices via a network, direct connection, or the like, as described above. Such communication interface may be any type of network interface (e.g. NIC), wired or wireless (e.g. IEEE 802.11 wireless LAN (WLAN)) interface, Wi-MAX interface, Ethernet interface, Universal Serial Bus (USB) interface, a cellular network interface, a Bluetooth interface, a near field communication (NFC) interface, or the like. Communications interface 506 may facilitate communication within a variety of network and protocol types, including wired networks (eg, LAN, cable, etc.) and wireless networks (eg, WLAN, cellular, satellite, etc.), the Internet, and the like. there is. Communications interface 506 may also provide communication with external storage devices (not shown) such as storage arrays, network attached storage, storage area networks, and the like.

일부 예시에서, 사용자에게 정보 및 이미지를 표시하기 위한 모니터와 같은 디스플레이 기기(508)를 포함할 수 있다. 다른 I/O 기기(510)는 사용자로부터 다양한 입력을 수신하여 사용자에게 다양한 출력을 제공하는 기기일 수 있으며 터치 입력 기기, 제스처 입력 기기, 카메라, 키보드, 리모컨, 마우스, 프린터, 오디오 입출력 기기 등을 포함할 수 있다. In some examples, it may include a display device 508 such as a monitor for displaying information and images to a user. The other I/O device 510 may be a device that receives various inputs from the user and provides various outputs to the user, and may include a touch input device, a gesture input device, a camera, a keyboard, a remote controller, a mouse, a printer, an audio input/output device, and the like. can include

본 개시는 도면 및 전술한 설명에서 상세하게 도시 및 설명되었지만, 이러한 설명은 한정적이지 않고 설명적이고 개략적인 것으로 간주되어야 하며, 본 개시는 개시된 실시예에 한정되지 않는다. 개시된 실시예에 대한 변형은 도면, 개시 내용 및 첨부된 청구범위를 연구함으로써 청구된 주제를 실천함에 있어서, 본 분야의 기술자에 의해 이해되고 구현될 수 있다. 청구범위에서, 단어 “포함”은 나열되지 않은 다른 요소나 단계를 배제하지 않으며 단어 “일” 또는 “하나”는 복수 개를 배제하지 않는다. 상이한 종속항에 어떤 수단이 인용되어 있다는 단순한 사실이 이들 수단의 조합이 유리하게 사용될 수 없음을 시사하지 않는다.Although the present disclosure has been shown and described in detail in the drawings and foregoing description, such description is to be regarded as explanatory and schematic rather than limiting, and the present disclosure is not limited to the disclosed embodiments. Variations to the disclosed embodiments can be understood and implemented by those skilled in the art in practicing the claimed subject matter by studying the drawings, the disclosure and the appended claims. In the claims, the word “comprising” does not exclude other unlisted elements or steps, and the words “an” or “an” do not exclude a plurality. The mere fact that certain measures are recited in different dependent claims does not indicate that a combination of these measures cannot be used to advantage.

Claims (16)

이미지 처리 방법에 있어서,
제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하는 단계 - 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집됨 -; 및
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 단계 - 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가짐 -; 를 포함하는 이미지 처리 방법.
In the image processing method,
acquiring a first image sequence corresponding to a first human body region and a second image sequence corresponding to the first human body region, images in the first image sequence having at least one of a collection position, a collection depth, and a collection angle with respect to each other; is different, the images in the second image sequence basically have the same acquisition angle, and the images in the second image sequence are sequentially collected at different time points; and
generating a third image sequence based on the first image sequence and the second image sequence, the third image sequence including at least one update image, the at least one update image comprising the second image sequence corresponds to at least one image of and has a different viewing angle than the at least one image; Image processing method comprising a.
제1항에 있어서,
상기 제2 이미지 시퀀스 중의 이미지는 조영제 보조 이미징 이미지인 이미지 처리 방법.
According to claim 1,
The image of the second image sequence is a contrast agent auxiliary imaging image.
제1항 또는 제2항에 있어서,
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 단계는,
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여, 상기 제1 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직과, 상기 제2 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직 사이의 대응관계를 결정하는 단계; 및
상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스를 생성하는 단계; 를 포함하는 이미지 처리 방법.
According to claim 1 or 2,
Generating a third image sequence based on the first image sequence and the second image sequence,
at least one human body organ, part or tissue in the first body region appearing in at least one image of the first image sequence, based on the first image sequence and the second image sequence; and the second image sequence determining a correspondence between at least one human body organ, part, or tissue in the first body region appearing in at least one image of the body; and
generating the third image sequence based on the correspondence, the first image sequence, and the second image sequence; Image processing method comprising a.
제3항에 있어서,
상기 제1 이미지 시퀀스의 적어도 하나의 이미지는 하나 또는 복수의 식별된 혈관 세그먼트 영역을 포함하고, 상기 식별된 혈관 세그먼트 영역은 상응하는 명명을 가지며;
상기 대응관계는 상기 제1 이미지 시퀀스의 상기 적어도 하나의 이미지에서 상기 식별된 혈관 세그먼트 영역으로부터 상기 제2 이미지 시퀀스의 상기 적어도 하나의 이미지에서 적어도 하나의 혈관 세그먼트 영역까지의 명명 매핑인 이미지 처리 방법.
According to claim 3,
at least one image of the first image sequence includes one or a plurality of identified blood vessel segment regions, and the identified blood vessel segment regions have corresponding names;
The correspondence relationship is a naming mapping from the identified blood vessel segment region in the at least one image of the first image sequence to at least one blood vessel segment region in the at least one image of the second image sequence.
제3항 또는 제4항에 있어서,
상기 제1 이미지 시퀀스의 적어도 하나의 이미지는 식별된 병소 영역을 포함하고, 여기서, 상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스를 생성하는 단계는, 상기 대응관계에 기반하여, 상기 제3 이미지 시퀀스의 적어도 하나의 이미지에서, 상기 식별된 병소 영역에 대응하는 이미지 부분을 생성하는 단계를 포함하는 이미지 처리 방법.
According to claim 3 or 4,
At least one image of the first image sequence includes the identified lesion area, wherein generating the third image sequence based on the correspondence, the first image sequence, and the second image sequence comprises: and generating an image portion corresponding to the identified lesion area in at least one image of the third image sequence based on the correspondence relationship.
제3항 내지 제5항 중 어느 한 항에 있어서,
상기 대응관계를 결정하는 단계는,
상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계;
상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계; 및
상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 상기 대응관계를 결정하는 단계; 를 포함하는 이미지 처리 방법.
According to any one of claims 3 to 5,
The step of determining the correspondence relationship is,
determining a reference image of the second image sequence;
obtaining a reference two-dimensional view of the first image sequence based on the reference image; and
determining the correspondence based on the reference 2D view and the reference image; Image processing method comprising a.
제6항에 있어서,
상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계는,
상기 제2 이미지 시퀀스의 수집 각도에 기반하여 상기 기준 2차원 뷰를 획득하는 단계를 포함하는 이미지 처리 방법.
According to claim 6,
Obtaining a reference 2D view of the first image sequence based on the reference image,
and obtaining the reference 2D view based on a collection angle of the second image sequence.
제6항에 있어서,
상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계는,
상기 제1 이미지 시퀀스에 기반하여 복수의 상이한 관찰 각도를 갖는 복수의 관찰뷰를 획득하는 단계; 및
상기 참조 이미지와 비교하여, 상기 복수의 관찰뷰로부터 상기 기준 2차원 뷰를 결정하는 단계; 를 포함하는 이미지 처리 방법.
According to claim 6,
Obtaining a reference 2D view of the first image sequence based on the reference image,
obtaining a plurality of observation views having a plurality of different observation angles based on the first image sequence; and
comparing with the reference image, determining the reference 2D view from the plurality of observation views; Image processing method comprising a.
제6항 내지 제8항 중 어느 한 항에 있어서,
상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계는,
상기 제2 이미지 시퀀스 중 제1 표준을 만족하는 제1 혈관 세그먼트 영역을 결정하는 단계 - 상기 제1 표준은 혈관 세그먼트 길이, 조영제의 현상 정도 및 수집 선명도 중 적어도 하나를 포함함 -; 및
상기 제1 혈관 세그먼트 영역이 위치하는 이미지 프레임을 상기 참조 이미지로 결정하는 단계; 를 포함하는 이미지 처리 방법.
According to any one of claims 6 to 8,
Determining a reference image in the second image sequence,
determining a first blood vessel segment region from the second image sequence that satisfies a first criterion, wherein the first criterion includes at least one of a blood vessel segment length, a development degree of a contrast agent, and collection sharpness; and
determining an image frame in which the first blood vessel segment region is located as the reference image; Image processing method comprising a.
제6항 내지 제8항 중 어느 한 항에 있어서,
상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계는,
상기 제2 이미지 시퀀스 중의 제1 형태점을 획득하는 단계 - 상기 제1 형태점은 혈관의 분기점, 연결점 및 전환점 중 적어도 하나에 대응함 -; 및
상기 제1 형태점이 위치하는 이미지 프레임을 상기 참조 이미지로 결정하는 단계를 포함하는 이미지 처리 방법.
According to any one of claims 6 to 8,
Determining a reference image in the second image sequence,
acquiring a first shape point in the second image sequence, wherein the first shape point corresponds to at least one of a branch point, a connection point, and a turning point of blood vessels; and
and determining an image frame in which the first shape point is located as the reference image.
제10항에 있어서,
상기 기준 2차원 뷰 중의, 상기 제1 형태점에 대응하는 제2 형태점을 획득하는 단계를 더 포함하며, 여기서, 상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 상기 대응관계를 결정하는 단계는, 상기 기준 2차원 뷰 중 상기 제2 형태점과 관련되는 하나 또는 복수의 혈관 세그먼트 영역 및 상기 참조 이미지 중 상기 제1 형태점과 관련되는 하나 또는 복수의 혈관 세그먼트 영역 사이의 대응관계를 결정하는 단계를 포함하는 이미지 처리 방법.
According to claim 10,
The method further includes obtaining a second shape point corresponding to the first shape point in the reference 2D view, wherein determining the correspondence relationship based on the reference 2D view and the reference image determining a correspondence between one or more blood vessel segment regions associated with the second shape point in the reference 2D view and one or more blood vessel segment regions associated with the first shape point in the reference image; Image processing method comprising a.
제2항 내지 제10항 중 어느 한 항에 있어서,
향상된 제1 이미지 시퀀스를 생성하는 단계를 더 포함하고, 상기 향상된 제1 이미지 시퀀스는 상기 제2 이미지 시퀀스에 기초한 조영값을 포함하는 이미지 처리 방법.
According to any one of claims 2 to 10,
The image processing method further comprising generating an enhanced first image sequence, wherein the enhanced first image sequence includes an contrast value based on the second image sequence.
이미지 처리 장치에 있어서,
제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하기 위한 이미지 시퀀스 획득 유닛 - 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집됨 -; 및
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하기 위한 이미지 시퀀스 생성 유닛 - 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가짐 -; 을 포함하는 이미지 처리 장치.
In the image processing device,
an image sequence acquiring unit for acquiring a first image sequence corresponding to a first body region and a second image sequence corresponding to the first human body region, the images in the first image sequence having a collection position, a collection depth or a collection point relative to each other; at least one of the angles is different, the images in the second image sequence basically have the same acquisition angle, and the images in the second image sequence are sequentially collected at different time points; and
image sequence generation unit for generating a third image sequence based on the first image sequence and the second image sequence, the third image sequence comprising at least one updated image, the at least one updated image comprising the corresponding to at least one image of the second image sequence, and having a different viewing angle than the at least one image; Image processing device comprising a.
메모리, 프로세서 및 상기 메모리에 저장된 컴퓨터 프로그램을 포함하고,
상기 프로세서는 상기 컴퓨터 프로그램을 실행하여 제1항 내지 제12항 중 어느 한 항에 따른 방법을 구현하도록 구성된 컴퓨팅 디바이스.
a memory, a processor and a computer program stored in the memory;
A computing device, wherein the processor is configured to execute the computer program to implement the method according to any one of claims 1 to 12.
컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체에 있어서,
상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 제1항 내지 제12항 중 어느 한 항에 따른 방법의 단계를 구현하는 비일시적 컴퓨터 판독 가능한 저장 매체.
A non-transitory computer-readable storage medium in which a computer program is stored,
A non-transitory computer-readable storage medium embodying the steps of the method according to any one of claims 1 to 12 when the computer program is executed by a processor.
컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
상기 컴퓨터 프로그램은 명령을 포함하되, 상기 명령은 적어도 하나의 프로세서에 의해 실행될 때 제1항 내지 제12항 중 어느 한 항에 따른 방법의 단계를 구현하는 컴퓨터 프로그램.

A computer program stored in a computer readable storage medium,
13. A computer program comprising instructions, which when executed by at least one processor implement the steps of the method according to any one of claims 1 to 12.

KR1020230055668A 2022-10-20 2023-04-27 Image Processing Method, Apparatus, Computing Device and Storage Medium KR20230066526A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202211288426.2 2022-10-20
CN202211288426.2A CN115546174B (en) 2022-10-20 2022-10-20 Image processing method, device, computing equipment and storage medium

Publications (1)

Publication Number Publication Date
KR20230066526A true KR20230066526A (en) 2023-05-16

Family

ID=84736455

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230055668A KR20230066526A (en) 2022-10-20 2023-04-27 Image Processing Method, Apparatus, Computing Device and Storage Medium

Country Status (2)

Country Link
KR (1) KR20230066526A (en)
CN (1) CN115546174B (en)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2873371B1 (en) * 2013-11-13 2022-12-21 Pie Medical Imaging BV Method and system for registering intravascular images
CN105005998B (en) * 2015-08-05 2018-01-09 大连理工大学 A kind of cerebrovascular image partition method based on multi-angle serializing image space feature point set
DE102016211766A1 (en) * 2016-06-29 2018-01-18 Siemens Healthcare Gmbh Generation of a picture sequence
DE102018212389B3 (en) * 2018-07-25 2020-01-02 Siemens Healthcare Gmbh Method for operating an x-ray device, x-ray device, computer program and electronically readable storage medium
CN110766735B (en) * 2019-10-21 2020-06-26 北京推想科技有限公司 Image matching method, device, equipment and storage medium
CN111368787A (en) * 2020-03-17 2020-07-03 浙江大学 Video processing method and device, equipment and computer readable storage medium
CN114764767A (en) * 2020-12-30 2022-07-19 上海联影医疗科技股份有限公司 Blood vessel extraction method and computer device
CN111862305B (en) * 2020-06-30 2024-06-18 阿波罗智能技术(北京)有限公司 Method, apparatus, electronic device, storage medium, and program product for processing image
CN112749611B (en) * 2020-07-27 2024-02-13 腾讯科技(深圳)有限公司 Face point cloud model generation method and device, storage medium and electronic equipment
CN112168346A (en) * 2020-11-02 2021-01-05 沈阳蓝软智能医疗科技有限公司 Method for real-time coincidence of three-dimensional medical image and patient and operation auxiliary system
CN113066064B (en) * 2021-03-29 2023-06-06 郑州铁路职业技术学院 Cone beam CT image biological structure identification and three-dimensional reconstruction system based on artificial intelligence
CN113657430A (en) * 2021-06-30 2021-11-16 浙江大华技术股份有限公司 Pedestrian clustering method, device and storage medium
CN113808175B (en) * 2021-08-31 2023-03-10 数坤(北京)网络科技股份有限公司 Image registration method, device and equipment and readable storage medium
CN113808179B (en) * 2021-08-31 2023-03-31 数坤(北京)网络科技股份有限公司 Image registration method and device and readable storage medium
CN113920314B (en) * 2021-09-30 2022-09-02 北京百度网讯科技有限公司 Semantic segmentation and model training method, device, equipment and storage medium
CN113920114B (en) * 2021-12-13 2022-04-22 杭州太美星程医药科技有限公司 Image processing method, image processing apparatus, computer device, storage medium, and program product
CN114331992A (en) * 2021-12-23 2022-04-12 数坤(北京)网络科技股份有限公司 Image sequence processing method and device, computing equipment and storage medium
CN114708583A (en) * 2022-02-24 2022-07-05 广州文远知行科技有限公司 Target object detection method, device, equipment and storage medium
CN114663381A (en) * 2022-03-17 2022-06-24 西安大医集团股份有限公司 Image registration method and device, terminal equipment and computer-readable storage medium

Also Published As

Publication number Publication date
CN115546174B (en) 2023-09-08
CN115546174A (en) 2022-12-30

Similar Documents

Publication Publication Date Title
CN108701220B (en) System and method for processing multimodal images
JP6422486B2 (en) Advanced medical image processing wizard
CN104346821B (en) Automatic planning for medical imaging
CN112435341B (en) Training method and device for three-dimensional reconstruction network, and three-dimensional reconstruction method and device
US9519993B2 (en) Medical image processing apparatus
JP2023139022A (en) Medical image processing method, medical image processing device, medical image processing system, and medical image processing program
EP3136338A1 (en) Projection images processing apparatus, projection images processing method, and program
WO2018097880A1 (en) Systems and methods for an integrated system for visualizing, simulating, modifying and 3d printing 3d objects
US11978137B2 (en) Generating reformatted views of a three-dimensional anatomy scan using deep-learning estimated scan prescription masks
US11132793B2 (en) Case-adaptive medical image quality assessment
CN113888566A (en) Target contour curve determining method and device, electronic equipment and storage medium
US11995834B2 (en) Method and system for the automated determination of examination results in an image sequence
KR20230066526A (en) Image Processing Method, Apparatus, Computing Device and Storage Medium
CN108601512B (en) System and method for providing surgical assistance in the presence of tissue deformation
US11776688B2 (en) Capturing user constructed map of bodily region of interest for remote telemedicine navigation
CN114048738A (en) Data acquisition method, device, computing equipment and medium based on symptom description
US20110242096A1 (en) Anatomy diagram generation method and apparatus, and medium storing program
US11138736B2 (en) Information processing apparatus and information processing method
WO2022223042A1 (en) Surgical path processing system, method, apparatus and device, and storage medium
EP4163872A1 (en) Enhanced segmentation
EP4040388A1 (en) Intuitive display for rotator cuff tear diagnostics
CN117541742A (en) Image processing method, device, computing equipment and storage medium
KR20230049589A (en) Method, device, computing device and storage medium for determining blood flow rate
JP2023092327A (en) Information processor and program
CN116327239A (en) Method, apparatus, computing device, and storage medium for assisting ultrasound scanning

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal