KR101329748B1 - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR101329748B1
KR101329748B1 KR1020120023619A KR20120023619A KR101329748B1 KR 101329748 B1 KR101329748 B1 KR 101329748B1 KR 1020120023619 A KR1020120023619 A KR 1020120023619A KR 20120023619 A KR20120023619 A KR 20120023619A KR 101329748 B1 KR101329748 B1 KR 101329748B1
Authority
KR
South Korea
Prior art keywords
volume
data
image
depth
volume data
Prior art date
Application number
KR1020120023619A
Other languages
English (en)
Other versions
KR20130116399A (ko
Inventor
김성윤
이준교
Original Assignee
삼성메디슨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성메디슨 주식회사 filed Critical 삼성메디슨 주식회사
Priority to KR1020120023619A priority Critical patent/KR101329748B1/ko
Priority to EP13157544.1A priority patent/EP2637142B1/en
Priority to US13/789,628 priority patent/US9256978B2/en
Priority to JP2013045615A priority patent/JP2013186905A/ja
Publication of KR20130116399A publication Critical patent/KR20130116399A/ko
Application granted granted Critical
Publication of KR101329748B1 publication Critical patent/KR101329748B1/ko
Priority to US15/001,133 priority patent/US10390795B2/en
Priority to US15/287,414 priority patent/US20170020485A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pregnancy & Childbirth (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Image Generation (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

영상 처리 장치 및 방법이 개시된다. 대상체 모델을 포함하는 볼륨 데이터를 획득하는 데이터 획득부, 이미지 평면에 대한 상기 대상체 모델의 표면 깊이를 지시하는 깊이 데이터를 획득하는 깊이 데이터 획득부, 상기 깊이 데이터를 기반으로 상기 볼륨 데이터를 처리하여 가공 볼륨 데이터를 획득하고, 상기 가공 볼륨 데이터를 기반으로 렌더링 영상을 획득하는 영상 처리부 및 상기 렌더링 영상을 표시하는 표시부를 포함하는 영상 처리 장치가 개시된다.

Description

영상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND OPERATING METHOD THEREOF}
본 발명은 영상 처리 장치 및 방법에 관한 것이다.
영상 처리 장치는 입체 영상을 위한 볼륨 데이터를 기반으로 렌더링(rendering)하여 3차원 질감을 갖는 2차원 렌더링 영상을 획득할 수 있다. 또한, 영상 처리 장치는 볼륨 데이터를 처리하여 렌더링 영상의 영상 품질을 향상시키거나, 볼륨 데이터를 처리하여 렌더링 영상을 편집할 수 있다.
따라서 효율적으로 볼륨 데이터를 처리할 수 있는 영상 처리 장치 및 방법이 요구된다.
본 발명이 해결하고자 하는 기술적 과제는, 효율적으로 볼륨 데이터를 처리할 수 있는 영상 처리 장치 및 방법을 제공하는 것에 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 영상 처리 장치는 대상체 모델을 포함하는 볼륨 데이터를 획득하는 데이터 획득부, 이미지 평면에 대한 상기 대상체 모델의 표면 깊이를 지시하는 깊이 데이터를 획득하는 깊이 데이터 획득부, 상기 깊이 데이터를 기반으로 상기 볼륨 데이터를 처리하여 가공 볼륨 데이터를 획득하고, 상기 가공 볼륨 데이터를 기반으로 렌더링 영상을 획득하는 영상 처리부 및 상기 렌더링 영상을 표시하는 표시부를 포함한다.
사용자로부터 상기 렌더링 영상의 편집을 지시하는 편집 요청을 입력받는 입력부를 더 포함하고, 상기 영상 처리부는 상기 편집 요청 및 상기 깊이 데이터를 기반으로 편집 렌더링 영상을 획득하고, 상기 표시부는 상기 편집 렌더링 영상을 표시할 수 있다.
상기 영상 처리부는, 상기 깊이 데이터를 기반으로 획득되는 상기 대상체 모델의 표면을 경계로 상기 볼륨 데이터를 대상체 볼륨 및 비대상체 볼륨으로 구분하고, 상기 볼륨 데이터에서 상기 비대상체 볼륨이 제거된 가공 볼륨 데이터를 획득할 수 있다.
상기 영상 처리부는, 상기 깊이 데이터를 기반으로 상기 대상체 모델의 표면을 지시하는 마스크 볼륨을 획득하고, 상기 마스크 볼륨으로 상기 볼륨 데이터를 마스킹하여 상기 가공 볼륨 데이터를 획득할 수 있다.
상기 영상 처리부는, 상기 편집 요청을 기반으로 상기 렌더링 영상 내 편집 영역을 획득하고, 상기 깊이 데이터를 기반으로 상기 가공 볼륨 데이터 내 상기 편집 영역에 대응되는 삭제 볼륨을 설정하고, 상기 가공 볼륨 데이터에서 상기 삭제 볼륨이 제거된 편집 볼륨 데이터를 획득하고, 상기 편집 볼륨 데이터를 기반으로 상기 편집 렌더링 영상을 획득할 수 있다.
상기 이미지 평면에 대한 상기 삭제 볼륨의 밑면 깊이는 대응되는 상기 대상체 모델의 표면 깊이와 같거나 더 깊을 수 있다.
상기 이미지 평면에 대한 상기 삭제 볼륨의 윗면 깊이는 상기 편집 영역 내 상기 대상체 모델의 최소 표면 깊이와 같거나 더 얕고, 상기 이미지 평면에 대한 상기 삭제 볼륨의 상기 밑면 깊이는 상기 편집 영역 내 상기 대상체 모델의 최대 표면 깊이와 같거나 더 얕을 수 있다.
상기 편집 요청은 상기 삭제 볼륨의 상기 밑면 깊이를 지시하는 사용자 깊이 정보를 더 포함할 수 있다.
상기 입력부는 상기 편집 렌더링 영상의 복원을 지시하는 복원 요청을 입력받고, 상기 영상 처리부는 상기 복원 요청을 기반으로 복원 렌더링 영상을 획득하고, 상기 표시부는 상기 복원 렌더링 영상을 표시할 수 있다.
상기 영상 처리부는, 상기 편집 볼륨 데이터에서 상기 삭제 볼륨 또는 상기 삭제 볼륨의 일부를 복원 볼륨으로 설정하고, 상기 편집 볼륨 데이터에서 상기 복원 볼륨이 복원된 복원 볼륨 데이터를 획득하고, 상기 복원 볼륨 데이터를 기반으로 상기 복원 렌더링 영상을 획득할 수 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 영상 처리 방법은 대상체 모델을 포함하는 볼륨 데이터를 획득하는 단계, 이미지 평면에 대한 상기 대상체 모델의 표면 깊이를 지시하는 깊이 데이터를 획득하는 단계, 상기 깊이 데이터를 기반으로 상기 볼륨 데이터를 처리하여 가공 볼륨 데이터를 획득하고, 상기 가공 볼륨 데이터를 기반으로 렌더링 영상을 획득하는 단계 및 상기 렌더링 영상을 표시하는 단계를 포함한다.
상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 컴퓨터로 판독 가능한 기록 매체는, 상기 영상 처리 방법을 구현하기 위한 프로그램이 기록된다.
본 발명의 실시예에 따르면, 효율적으로 볼륨 데이터를 처리할 수 있는 영상 처리 장치 및 방법을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치의 블록도이다.
도 2는 도 1의 데이터 획득부에서 획득되는 볼륨 데이터의 일 예를 나타내는 도면이다.
도 3은 도 1의 깊이 데이터 획득부에서 깊이 데이터를 획득하는 방법의 일 예를 나타내는 도면이다.
도 4는 도 1의 영상 처리부에서 획득되는 가공 볼륨 데이터의 일 예를 나타내는 도면이다.
도 5는 도 1의 영상 처리부에서 가공 볼륨 데이터 획득을 위해 이용하는 마스크 볼륨의 일 예를 나타내는 도면이다.
도 6은 대상체가 태아인 경우 렌더링 영상의 일 예를 나타내는 도면이다.
도 7은 대상체가 태아인 경우 편집 렌더링 영상의 일 예를 나타내는 도면이다.
도 8은 편집 영역이 설정된 렌더링 영상 및 편집 렌더링 영상의 일 예를 나타내는 도면이다.
도 9는 삭제 볼륨이 설정된 가공 볼륨 데이터의 일 예를 나타내는 도면이다.
도 10은 도 9의 일부를 확대한 도면이다.
도 11은 가공 볼륨 데이터에서 삭제 볼륨이 제거된 편집 볼륨 데이터의 일 예를 나타내는 도면이다.
도 12는 편집 렌더링 영상을 위한 편집 볼륨 데이터의 일 예를 나타내는 도면이다.
도 13은 복원 렌더링 영상을 위한 복원 볼륨 데이터의 일 예를 나타내는 도면이다.
도 14는 본 발명의 다른 실시예에 따른 영상 처리 방법을 나타내는 순서도이다.
도 15는 본 발명의 실시예와 다른 영상 처리 방법으로 획득된 편집 렌더링 영상의 일 예를 나타내는 도면이다.
이하에서는 도면을 참고하여 본 발명의 실시예들을 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치의 블록도이다.
도 1을 참고하면, 영상 처리 장치(100)는 제어부(110) 및 표시부(120)를 포함한다. 영상 처리 장치(100)는 입력부(130) 및 저장부(140)를 더 포함할 수 있다.
영상 처리 장치(100)는 초음파 영상 장치, 컴퓨터단층촬영(Computed Tomography: CT) 장치 또는 자기공명영상(Magnetic Resonance Imaging: MRI) 장치 등의 의료 영상 장치를 위해 사용될 수 있다. 예를 들어, 영상 처리 장치(100)는 의료 영상 장치에 포함될 수 있다. 다만, 영상 처리 장치(100)는 의료 영상 장치뿐 아니라, 볼륨 데이터 처리가 요구되는 다양한 영상 장치를 위해 사용될 수 있다.
제어부(110)는 데이터를 획득하거나 처리하여 표시부(120)에 표시되는 표시 영상을 생성할 수 있다. 표시부(120)는 제어부(110)에서 생성하는 표시 영상을 실시간으로 표시할 수 있다. 입력부(130)는 사용자로부터 사용자 요청을 입력받을 수 있다. 제어부(110)는 사용자 요청을 기반으로 데이터를 처리할 수 있다. 입력부(130) 또는 입력부(130)의 일부는 표시부(120)에 표시될 수 있다.
제어부(110)는 데이터 획득부(112), 깊이 데이터 획득부(114) 및 영상 처리부(116)를 포함할 수 있다. 데이터 획득부(112)는 대상체(object) 모델을 포함하는 볼륨 데이터를 획득한다. 깊이 데이터 획득부(114)는 이미지 평면에 대한 대상체 모델의 표면 깊이를 지시하는 깊이 데이터를 획득한다. 영상 처리부(116)는 깊이 데이터를 기반으로 볼륨 데이터를 처리하여 가공 볼륨 데이터를 획득하고, 가공 볼륨 데이터를 기반으로 렌더링 영상을 획득한다. 표시부(120)는 렌더링 영상을 표시한다.
도 2는 도 1의 데이터 획득부에서 획득되는 볼륨 데이터의 일 예를 나타내는 도면이다.
도 1 및 도 2를 참고하면, 데이터 획득부(112)에서 획득되는 볼륨 데이터(300)는 대상체 모델(200)을 포함한다. 볼륨 데이터(300)는 복수의 복셀(voxel)값을 포함할 수 있다. 대상체 모델(200)은 대상체의 입체 데이터이다. 도 2에서 대상체 모델(200)은 태아의 입체 데이터이나, 도 2는 예시일 뿐, 대상체가 태아에 제한되는 것은 아니다. 대상체는 인체를 포함하는 동물체이거나, 동물체의 일부일 수 있다. 예를 들어, 대상체는 태아 또는 동물체의 기관(organ)일 수 있다.
일 예로, 데이터 획득부(112)는 대상체를 포함하는 3차원 공간을 스캔하고, 스캔된 3차원 공간을 입체 영상화할 수 있는 볼륨 데이터(300)를 획득할 수 있다. 다른 예로, 데이터 획득부(112)는 영상 처리 장치(100) 외부의 스캔 장치에서 대상체를 스캔한 스캔 정보를 전달받고, 스캔 정보를 기반으로 볼륨 데이터(300)를 획득할 수도 있다. 또 다른 예로, 데이터 획득부(112)는 외부 장치로부터 볼륨 데이터(300)를 전달받을 수도 있다. 다만, 이에 한정되는 것은 아니고, 영상 처리 장치(100)는 다양한 방법으로 볼륨 데이터(300)를 획득할 수 있다.
도 3은 도 1의 깊이 데이터 획득부에서 깊이 데이터를 획득하는 방법의 일 예를 나타내는 도면이다.
도 1 및 도 3을 참고하면, 깊이 데이터 획득부(114)는 이미지 평면(IPL, image plane)에 대한 대상체 모델(200)의 표면 깊이(DP1~DP5)를 지시하는 깊이 데이터를 획득한다.
이미지 평면(IPL)은 가상 카메라에서 촬영된 볼륨 데이터(300)의 시점(viewpoint) 이미지가 맺히는 가상의 평면일 수 있다. 이미지 평면(IPL)에 맺히는 시점 이미지는 표시부(120)에 표시될 수 있다.
깊이 데이터 획득부(114)는 볼륨 데이터(300)에 대한 이미지 평면(IPL)의 위치 및 방향을 다양하게 설정할 수 있다. 이미지 평면(IPL)의 위치 및 방향은 입력부(130)를 통해 입력되는 사용자 요청을 기반으로 변경될 수 있다.
이미지 평면(IPL)은 행렬 형태로 배열되는 복수의 화소(PX1~PX5)를 포함할 수 있다. 도 3에서는 일렬로 배열된 제1 화소 내지 제5 화소(PX1~PX5)를 도시하였으나, 도 3은 예시일 뿐 이미지 평면(IPL)에 포함되는 복수의 화소(PX1~PX5)의 개수를 제한하는 것은 아니다.
깊이 데이터 획득부(114)는 복수의 화소(PX1~PX5)마다 대응되는 대상체 모델(200)의 표면 깊이(DP1~DP5)를 획득할 수 있다. 따라서, 깊이 데이터는 이미지 평면(IPL)의 복수의 화소(PX1~PX5)에 대한 복수의 표면 깊이(DP1~DP5)를 포함할 수 있다.
깊이 데이터 획득부(114)는 이미지 평면(IPL)에서 볼륨 데이터(300)로 입사되는 빛의 반사량을 기반으로 깊이 데이터를 획득할 수 있다. 볼륨 데이터(300)에서 대상체 모델(200)의 표면은 표면이 아닌 부분에 비해 반사량이 높을 수 있기 때문이다. 따라서 깊이 데이터 획득부(114)는 볼륨 데이터(300)에서 빛의 반사량이 최대인 최대 포인트들을 검출하여, 최대 포인트들을 대상체 모델(200)의 표면 포인트들(SP1~SP5)로 추정할 수 있다. 각 표면 포인트(SP1~SP5)는 복셀일 수 있다. 또한, 깊이 데이터 획득부(114)는 표면 포인트들(SP1~SP5)을 기반으로 깊이 데이터를 획득할 수 있다.
예를 들어, 깊이 데이터 획득부(114)는 볼륨 렌더링에 이용되는 레이 캐스팅(Ray Casting)을 기반으로 대상체 모델(200)의 깊이 데이터를 획득할 수 있다.
이미지 평면(IPL)의 복수의 화소(PX1~PX5)마다 이미지 평면(IPL)에서 볼륨 데이터(300)를 지나 가상 평면(VPL)으로 빛의 레이(ray, RY1~RY5)가 입사될 수 있다.
복수의 레이(RY1~RY5) 각각에는 복수의 샘플 포인트(S1, S2, ..., Sn, n은 자연수)가 설정될 수 있다. 복수의 샘플 포인트(S1, S2, ..., Sn) 각각은 복셀일 수 있다. 도 3에 도시된 복수의 샘플 포인트(S1, S2, ..., Sn)는 예시일 뿐, 도 3에 의해 샘플 포인트의 위치, 샘플 포인트 사이의 간격, 샘플 포인트의 개수 등이 제한되는 것은 아니다.
레이 캐스팅에서는 복수의 레이(RY1~RY5)마다 대응되는 레이 상의 복수의 샘플 포인트(S1, S2, ..., Sn)마다 빛의 반사량을 획득하고, 복수의 반사량을 더하여 복수의 샘플 포인트(S1, S2, ..., Sn)에 대한 반사량의 총합을 획득할 수 있다. 예를 들어, 제2 레이(RY2) 상의 복수의 샘플 포인트(S1, S2, ..., Sn)에 대한 반사량의 총합[TS(2)]은 다음 수학식과 같이 획득될 수 있다.
Figure 112012018712972-pat00001
수학식 1에서 Di는 제2 레이(RY2)의 제i 샘플 포인트(Si)에서의 빛의 강도(intensity)이고, Tj는 제2 레이(RY2)의 제j 샘플 포인트(Sj)에서의 투명도(transparency)이다.
깊이 데이터 획득부(114)는 복수의 레이(RY1~RY5)마다 복수의 샘플 포인트(S1, S2, ..., Sn)에 대한 복수의 반사량 중 최대 반사량을 검출하고, 최대 반사량의 샘플 포인트를 대상체 모델(200)의 표면 포인트(SP1~SP5)로 추정할 수 있다. 예를 들어, 깊이 데이터 획득부(114)는 제2 레이(RY2) 상의 복수의 샘플 포인트(S1, S2, ..., Sn)에 대한 복수의 반사량 중 최대 반사량[Tmax(2)]을 다음 수학식과 같이 검출할 수 있다.
Figure 112012018712972-pat00002
깊이 데이터 획득부(114)는 제2 레이(RY2) 상의 복수의 샘플 포인트(S1, S2, ..., Sn) 중 최대 반사량[Tmax(2)]의 샘플 포인트를 제2 표면 포인트(SP2)로 검출할 수 있다.
깊이 데이터 획득부(114)는 제2 레이(RY2) 상의 제2 표면 포인트(SP2)를 제2 화소(PX2)에 대한 대상체 모델(200)의 표면으로 추정하고, 제2 화소(PX2)에 대한 제2 표면 포인트(SP2)의 깊이를 제2 표면 깊이(DP2)로 획득할 수 있다. 깊이 데이터 획득부(114)는 다른 레이들에 대해서도 마찬가지로 표면 깊이를 획득함으로써 깊이 데이터를 획득할 수 있다.
다음 영상 처리부(116)에 대해 상술한다.
영상 처리부(116)는 깊이 데이터를 기반으로 볼륨 데이터(300)를 처리하여 가공 볼륨 데이터를 획득한다. 영상 처리부(116)는 깊이 데이터를 기반으로 대상체 모델(200)의 표면을 경계로 볼륨 데이터(300)를 대상체 볼륨 및 비대상체 볼륨으로 구분할 수 있다. 영상 처리부(116)는 볼륨 데이터(300)에서 비대상체 볼륨이 제거된 가공 볼륨 데이터를 획득할 수 있다.
도 4는 도 1의 영상 처리부에서 획득되는 가공 볼륨 데이터의 일 예를 나타내는 도면이다. 도 4의 가공 볼륨 데이터(300A)는 도 1의 영상 처리부(116)에서 깊이 데이터를 기반으로 도 3의 볼륨 데이터(300)를 처리하여 획득된 것으로 가정한다.
도 3 및 도 4를 참고하면, 가공 볼륨 데이터(300A)는 볼륨 데이터(300)에서 대상체 모델(200)의 표면(OMS)을 경계로 비대상체 볼륨이 제거된 것일 수 있다. 비대상체 볼륨은 이미지 평면(IPL)에 대한 깊이가 대상체 모델(200)의 표면(OMS)의 깊이보다 낮은 볼륨일 수 있다. 비대상체 볼륨의 제거란, 볼륨 데이터(300)에 포함되는 복수의 복셀값들 중 비대상체 볼륨에 포함되는 복수의 복셀값들을 모두 기준값으로 변경하는 것일 수 있다. 기준값으로 복셀값이 변경된 복셀들은 흑색과 같은 기준색으로 표시될 수 있다.
이와 같이, 영상 처리부(도 1의 116)는 볼륨 데이터(300)에서 비대상체 볼륨만을 제거하고, 대상체 모델(200)의 표면(OMS)과 표면(OMS)보다 깊은 볼륨은 제거하지 않을 수 있다. 대상체 모델(200)의 표면(OMS)보다 깊이가 낮은 비대상체 볼륨은 노이즈 또는 장애물일 가능성이 높다. 따라서, 영상 처리부(도 1의 116)는 대상체 모델(200)의 표면(OMS)을 보존하면서 볼륨 데이터(300)에서 노이즈 또는 장애물을 제거할 수 있다.
도 5는 도 1의 영상 처리부에서 가공 볼륨 데이터 획득을 위해 이용하는 마스크 볼륨의 일 예를 나타내는 도면이다.
도 5를 참고하면, 영상 처리부(도 1의 116)는 깊이 데이터를 기반으로 대상체 모델의 표면(OMS)을 지시하는 마스크 볼륨(MV)을 획득할 수 있다. 마스크 볼륨(MV)에서 헤칭된 부분은 대상체 볼륨(OBV)을 지시하고, 헤칭되지 않은 부분은 비대상체 볼륨을 지시할 수 있다.
다시 도 3 내지 도 5를 참고하면, 영상 처리부(도 1의 116)는 마스크 볼륨(MV)으로 볼륨 데이터(300)를 마스킹하여 가공 볼륨 데이터(300A)를 획득할 수 있다. 마스킹이란 볼륨 데이터(300)와 마스크 볼륨(MV)을 매칭시키고, 볼륨 데이터(300)에서 마스크 볼륨(MV)이 지시하는 비대상체 볼륨(헤칭되지 않은 부분)을 제거하여 가공 볼륨 데이터(300A)를 획득하는 영상 처리일 수 있다.
영상 처리부(도 1의 116)는 가공 볼륨 데이터(300A)를 기반으로 렌더링 영상을 획득한다. 렌더링 영상은 이미지 평면(IPL)에 맺히는 가공 볼륨 데이터(300A)의 시점 이미지일 수 있다. 영상 처리부(도 1의 116)는 레이 캐스팅을 기반으로 렌더링 영상을 획득할 수 있다. 다만, 영상 처리부(도 1의 116)는 레이 캐스팅뿐 아니라 다양한 볼륨 렌더링 방법을 기반으로 렌더링 영상을 획득할 수 있다. 표시부(도 1의 120)는 렌더링 영상을 표시한다.
도 6은 대상체가 태아인 경우 렌더링 영상의 일 예를 나타내는 도면이다.
도 1 및 도 6을 참고하면, 렌더링 영상(400)은 대상체의 얼굴의 일부가 대상체의 손에 의해 가려져 있다. 도 3을 참고하면, 이미지 평면(IPL)에 대한 대상체 모델(200)의 손의 깊이가 대상체 모델(200)의 얼굴의 깊이보다 낮기 때문이다.
그런데 대상체의 얼굴만이 관심 영역일 수 있다. 대상체의 손은 대상체의 일부이지만 비관심 영역일 수 있다. 따라서 렌더링 영상(400)이 비관심 영역을 포함하는 경우, 렌더링 영상(400)에서 비관심 영역을 제거할 수 있는 렌더링 영상(400)의 편집 방법이 요구된다.
입력부(130)는 사용자로부터 렌더링 영상(400)의 편집을 지시하는 편집 요청을 입력받을 수 있다. 영상 처리부(116)는 입력부(130)를 통해 입력되는 편집 요청 및 깊이 데이터 획득부(114)로부터 획득된 깊이 데이터를 기반으로 편집 렌더링 영상을 획득할 수 있다. 표시부(120)는 편집 렌더링 영상을 표시할 수 있다.
도 7은 대상체가 태아인 경우 편집 렌더링 영상의 일 예를 나타내는 도면이다. 도 7의 편집 렌더링 영상(500)은 도 6의 렌더링 영상(400)으로부터 편집 요청 및 깊이 데이터를 기반으로 획득된 것이라 가정한다.
도 6 및 도 7을 참고하면, 편집 렌더링 영상(500)에서는 렌더링 영상(400)에 표시되는 비관심 영역인 대상체의 손이 제거되어 있다. 또한, 편집 렌더링 영상(500)에서는 대상체의 손에 의해 가려져 있던 대상체의 얼굴이 표시된다.
다음, 도 1의 영상 처리부(116)에서 렌더링 영상(400)으로부터 편집 렌더링 영상(500)을 획득하는 방법의 일 예를 상술한다.
영상 처리부(116)는 편집 요청을 기반으로 렌더링 영상(400) 내 편집 영역을 획득하고, 깊이 데이터를 기반으로 가공 볼륨 데이터 내 편집 영역에 대응되는 삭제 볼륨을 설정하고, 가공 볼륨 데이터에서 삭제 볼륨이 제거된 편집 볼륨 데이터를 획득하고, 편집 볼륨 데이터를 기반으로 편집 렌더링 영상을 획득할 수 있다.
도 8은 편집 영역이 설정된 렌더링 영상 및 편집 렌더링 영상의 일 예를 나타내는 도면이다.
도 1 및 도 8을 참고하면, 영상 처리부(116)는 입력부(130)를 통해 입력되는 사용자의 편집 요청을 기반으로 렌더링 영상(400A)에 편집 영역(EA)를 설정할 수 있다. 표시부(120)는 편집 영역(EA)이 설정된 렌더링 영상(400A)을 표시할 수 있다. 또한, 표시부(120)는 렌더링 영상(400A)에서 편집 영역(EA)이 편집된 편집 렌더링 영상(500A)을 표시할 수 있다. 도 8에서 편집 영역(EA)은 원형이나, 편집 영역(EA)이 원형에 제한되는 것은 아니다.
편집 요청은 편집 영역(EA)을 지시하는 편집 영역 정보를 포함할 수 있다.
일 예로, 사용자는 표시부(130)에 표시되는 렌더링 영상(400A)에 편집 영역(EA)을 직접 입력하는 방법으로 편집 영역 정보를 입력할 수 있다. 예를 들어, 사용자는 마우스, 트랙볼(trackball) 등으로 구현되는 입력부(130)를 통해 렌더링 영상(400A) 내 편집 영역(EA)을 입력할 수 있다.
다른 예로, 사용자는 표시부(130)에 표시되는 렌더링 영상(400A)에서 하나의 포인트를 입력하는 방법으로 편집 영역 정보를 입력할 수 있다. 영상 처리부(116)는 포인트를 기반으로 편집 영역(EA)을 설정할 수 있다. 예를 들어, 포인트를 중심으로 하는 원형이 편집 영역(EA)으로 설정될 수 있다. 편집 영역(EA)의 반지름(r)은 디폴트(default)로 설정된 값이거나, 사용자에 의해 조절된 값일 수 있다. 또는, 포인트를 기반으로 타원형 또는 사각형과 같은 편집 영역(EA)이 설정될 수도 있다.
영상 처리부(116)는 렌더링 영상(400A)에 설정된 편집 영역(EA)을 기반으로 가공 볼륨 데이터 내 편집 영역(EA)에 대응되는 삭제 볼륨을 설정할 수 있다.
도 9는 삭제 볼륨이 설정된 가공 볼륨 데이터의 일 예를 나타내는 도면이고, 도 10은 도 9의 일부를 확대한 도면이고, 도 11은 가공 볼륨 데이터에서 삭제 볼륨이 제거된 편집 볼륨 데이터의 일 예를 나타내는 도면이다.
도 1 및 도 9 내지 도 11을 참고하면, 영상 처리부(116)는 이미지 평면(IPL)의 편집 영역(EA)을 기반으로 가공 볼륨 데이터(300B) 내 편집 영역(EA)에 대응되는 삭제 볼륨(DV)을 설정하고, 가공 볼륨 데이터(300B)에서 삭제 볼륨(DV)이 제거된 편집 볼륨 데이터(300C)를 획득할 수 있다.
이미지 평면(IPL)의 편집 영역(EA)은 적어도 하나의 화소(EP1~EP5)를 포함할 수 있다. 도 10에서는 일렬로 배열된 제1 화소 내지 제5 화소(EP1~EP5)를 도시하였으나, 도 10은 예시일 뿐 편집 영역(EA)에 포함되는 적어도 하나의 화소(EP1~EP5)의 개수를 제한하는 것은 아니다. 도 10의 화소(EP1~EP5)는 도 3의 화소들(PX1~PX5) 중 편집 영역(EA)에 포함되는 화소일 수 있다.
이미지 평면(IPL)에 대한 삭제 볼륨(DV)의 밑면(BS)의 깊이는 대응되는 대상체 모델(200)의 표면 깊이[S(p), p=1, 2, ..., 5]와 같거나, 더 깊을 수 있다. 즉, 이미지 평면(IPL)에 대한 삭제 볼륨(DV)의 밑면(BS)의 깊이는 대응되는 대상체 모델(200)의 표면 깊이[S(p), p=1, 2, ..., 5]보다 대응되는 제거 두께[d(p), p=1, 2, ..., 5]만큼 더 깊을 수 있다.
도 10에서 이미지 평면(IPL)의 제1 화소(EP1)에 대한 삭제 볼륨(DV)의 밑면(BS)의 깊이는 대응되는 대상체 모델(200)의 표면 깊이[S(1)]와 같다. 즉, 제1 제거 두께[d(1)]가 0이다. 또한, 이미지 평면(IPL)의 제3 화소(EP3)에 대한 삭제 볼륨(DV)의 밑면(BS)의 깊이는 대응되는 대상체 모델(200)의 표면 깊이[S(3)]보다 제3 제거 두께[d(3)]만큼 더 깊다.
제거 두께[d(p)]는 다양하게 설정될 수 있다. 제거 두께[d(p)]는 편집 영역(EA)에 포함되는 복수의 화소(EP1~EP5)마다 일정하게 설정될 수도 있고, 복수의 화소(EP1~EP5)마다 다르게 설정될 수도 있다.
제거 두께[d(p)]는 자동으로 설정된 값일 수 있다. 편집 영역(EA)의 적어도 하나의 화소(EP1~EP5) 중 하나인 제p 화소(EPp, p=1, 2, ..., 5)에 대응되는 제거 두께[d(p)]는 편집 영역(EA) 내 제p 화소(EPp)의 위치, 제p 화소(EPp)에 대한 대상체 모델(200)의 표면 깊이[S(p)] 및 편집 영역(EA) 내 대상체 모델(200)의 최대 표면 깊이(Smax) 중 적어도 하나 이상을 기반으로 설정될 수 있다.
제p 화소(EPp)에 대한 대상체 모델(200)의 표면 깊이[S(p)]가 낮을수록 제거 두께[d(p)]가 커질 수 있다. 그리고, 제p 화소(EPp)에 대한 대상체 모델(200)의 표면 깊이[S(p)]가 깊을수록 제거 두께[d(p)]가 작아질 수 있다.
또한, 이미지 평면(IPL)에 대한 삭제 볼륨(DV)의 윗면(US) 깊이는 편집 영역(EA) 내 대상체 모델(200)의 최소 표면 깊이(Smin)와 같거나 더 얕을 수 있다. 그리고, 이미지 평면(IPL)에 대한 삭제 볼륨(DV)의 밑면(BS) 깊이는 편집 영역(EA) 내 대상체 모델(200)의 최대 표면 깊이(Smax)와 같거나 더 얕을 수 있다.
예를 들어, 제p 화소(EPp)에 대응되는 제거 두께[d(p)]는 다음 수학식과 같이 획득될 수 있다.
Figure 112012018712972-pat00003
수학식 3에서 p는 편집 영역(EA) 내 제p 화소(PXp)의 위치, c는 편집 영역(EA) 내 중심점의 위치, r은 편집 영역(EA)의 반지름이다.
제거 두께[d(p)]는 사용자에 의해 조절된 값일 수도 있다. 제거 두께[d(p)]를 조절하기 위해, 편집 요청은 삭제 볼륨(DV)의 밑면(BS) 깊이를 지시하는 사용자 깊이 정보를 더 포함할 수 있다. 제거 두께[d(p)]를 지시하는 사용자 깊이 정보를 더 포함할 수 있다.
이와 같이, 영상 처리부(116)는 편집 볼륨 데이터(300C)를 획득할 수 있고, 편집 볼륨 데이터(300C)를 기반으로 편집 렌더링 영상(예를 들어, 도 8의 500A)을 획득할 수 있다.
편집 렌더링 영상에도 비관심 영역이 포함되어 있다면, 사용자는 다시 편집 요청을 입력하여 편집 렌더링 영상을 재편집할 수 있다. 편집 렌더링 영상의 재편집 방법은 렌더링 영상(예를 들어, 도 8의 400A)의 편집 방법에 대한 내용이 적용될 수 있다. 따라서 중복되는 설명은 생략한다.
편집 렌더링 영상은 렌더링 영상에서 비관심 영역을 제거하는 것이 목적이나, 편집 과정에서 비관심 영역뿐 아니라 관심 영역까지 제거되는 경우가 발생할 수 있다. 또한, 제거된 비관심 영역이 관심 영역으로 변경되는 경우도 발생할 수 있다. 따라서, 편집 렌더링 영상에서 제거된 비관심 영역의 일부 또는 전부를 복원할 수 있는 복원 방법이 요구된다.
다시 도 1을 참고하면, 입력부(130)는 편집 렌더링 영상(예를 들어, 도 8의 400A)의 복원을 지시하는 복원 요청을 입력받을 수 있다. 영상 처리부(116)는 복원 요청을 기반으로 복원 렌더링 영상을 획득할 수 있다. 표시부(120)는 복원 렌더링 영상을 표시할 수 있다.
도 12는 편집 렌더링 영상을 위한 편집 볼륨 데이터의 일 예를 나타내는 도면이고, 도 13은 복원 렌더링 영상을 위한 복원 볼륨 데이터의 일 예를 나타내는 도면이다.
도 1, 도 12 및 도 13을 참고하면, 영상 처리부(116)는 편집 볼륨 데이터(300D)에서 복원 볼륨(RV)를 설정할 수 있다. 복원 볼륨(RV)은 삭제 볼륨(DV) 또는 삭제 볼륨(DV)의 일부일 수 있다. 복원 볼륨(RV)의 밑면은 삭제 볼륨(DV)의 밑면과 일치할 수 있다.
영상 처리부(116)는 편집 볼륨 데이터(300D)에서 복원 볼륨(RV)이 복원된 복원 볼륨 데이터(300E)를 획득할 수 있다.
저장부(140)에는 볼륨 데이터, 가공 볼륨 데이터, 편집 볼륨 데이터, 복원 볼륨 데이터 등 제어부(110)에서 처리되는 데이터들이 저장될 수 있다. 영상 처리부(116)는 저장부(140)에 저장되어 있는 가공 볼륨 데이터를 기반으로 복원 볼륨(RV)을 복원할 수 있다.
도 14는 본 발명의 다른 실시예에 따른 영상 처리 방법을 나타내는 순서도이다.
도 14를 참고하면, 대상체 모델을 포함하는 볼륨 데이터를 획득한다(S110). 이미지 평면에 대한 대상체 모델의 표면 깊이를 지시하는 깊이 데이터를 획득한다(S120). 깊이 데이터를 기반으로 볼륨 데이터를 처리하여 가공 볼륨 데이터를 획득하고, 가공 볼륨 데이터를 기반으로 렌더링 영상을 획득한다(S130). 렌더링 영상을 표시한다(S140).
도 14의 영상 처리 방법은 도 1의 영상 처리 장치에서 수행될 수 있다. 영상 처리 방법의 각 단계는 도 1 내지 도 13에서 설명한 내용이 적용될 수 있다. 따라서 중복되는 설명은 생략한다.
도 15는 본 발명의 실시예와 다른 영상 처리 방법으로 획득된 편집 렌더링 영상의 일 예를 나타내는 도면이다.
도 15을 참고하면, 볼륨 데이터에서 매직 컷(magic cut) 기능으로 특정 영역이 제거될 수 있고, 특정 영역이 제거된 볼륨 데이터를 기반으로 렌더링 영상이 획득될 수 있다. 그런데, 도 15의 편집 렌더링 영상은 제거된 영역이 그 주변과 불연속성을 보임으로써 자연스럽지 못하고 인위적으로 보인다. 또한, 볼륨 데이터에서 제거를 원하지 않는 영역까지 제거될 수 있다.
반면, 도 8을 참고하면, 본 발명의 실시예에 따른 편집 렌더링 영상(500A)은 편집 영역(EA)이 주변 영역과 연속성을 보이고, 인위적이지 않고 자연스럽다.
이와 같이, 본 발명의 실시예에 따르면, 효율적으로 볼륨 데이터를 처리할 수 있는 영상 처리 장치 및 방법을 제공할 수 있다.
본 발명의 실시예에 따르면, 볼륨 데이터에서 비대상체 볼륨이 선별 제거될 수 있다. 대상체 모델의 표면보다 깊이가 낮은 비대상체 모델은 노이즈 또는 장애물일 가능성이 높다. 따라서 대상체 모델의 표면이 보존되면서 볼륨 데이터에서 노이즈 또는 장애물이 제거될 수 있어, 렌더링 영상의 화질이 개선될 수 있다.
또한, 본 발명의 실시예에 따르면, 깊이 데이터를 기반으로 볼륨 데이터를 처리함으로써 비관심 영역은 제거되면서 비관심 영역에 의해 가려져 있던 관심 영역이 표시되는 편집 렌더링 영상이 획득될 수 있다. 또한, 사용자가 편집 요청을 통해 편집 영역을 설정하면, 편집 렌더링 영상이 획득될 수 있다. 따라서 사용자에게 직관적이고 조작이 편리한 렌더링 영상 편집 방법이 제공될 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등), PC 인터페이스(PC Interface)(예를 들면, PCI, PCI-express, Wifi 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (20)

  1. 대상체 모델을 포함하는 볼륨 데이터를 획득하는 데이터 획득부;
    이미지 평면에 대한 상기 대상체 모델의 표면 깊이를 지시하는 깊이 데이터를 획득하는 깊이 데이터 획득부;
    상기 깊이 데이터를 기반으로, 상기 볼륨 데이터에서 일부 볼륨이 제거된 가공 볼륨 데이터를 획득하고, 상기 가공 볼륨 데이터를 기반으로 렌더링 영상을 획득하는 영상 처리부; 및
    상기 렌더링 영상을 표시하는 표시부를 포함하는 것을 특징으로 하는 영상 처리 장치.
  2. 제1 항에 있어서,
    사용자로부터 상기 렌더링 영상의 편집을 지시하는 편집 요청을 입력받는 입력부를 더 포함하고,
    상기 영상 처리부는 상기 편집 요청 및 상기 깊이 데이터를 기반으로 편집 렌더링 영상을 획득하고,
    상기 표시부는 상기 편집 렌더링 영상을 표시하는 것을 특징으로 하는 영상 처리 장치.
  3. 제2 항에 있어서, 상기 영상 처리부는,
    상기 깊이 데이터를 기반으로 획득되는 상기 대상체 모델의 표면을 경계로 상기 볼륨 데이터를 대상체 볼륨 및 비대상체 볼륨으로 구분하고,
    상기 볼륨 데이터에서 상기 비대상체 볼륨이 제거된 가공 볼륨 데이터를 획득하는 것을 특징으로 하는 영상 처리 장치.
  4. 제3 항에 있어서, 상기 영상 처리부는,
    상기 깊이 데이터를 기반으로 상기 대상체 모델의 표면을 지시하는 마스크 볼륨을 획득하고, 상기 마스크 볼륨으로 상기 볼륨 데이터를 마스킹하여 상기 가공 볼륨 데이터를 획득하는 것을 특징으로 하는 영상 처리 장치.
  5. 제3 항에 있어서, 상기 영상 처리부는,
    상기 편집 요청을 기반으로 상기 렌더링 영상 내 편집 영역을 획득하고, 상기 깊이 데이터를 기반으로 상기 가공 볼륨 데이터 내 상기 편집 영역에 대응되는 삭제 볼륨을 설정하고, 상기 가공 볼륨 데이터에서 상기 삭제 볼륨이 제거된 편집 볼륨 데이터를 획득하고, 상기 편집 볼륨 데이터를 기반으로 상기 편집 렌더링 영상을 획득하는 것을 특징으로 하는 영상 처리 장치.
  6. 제5 항에 있어서,
    상기 이미지 평면에 대한 상기 삭제 볼륨의 밑면 깊이는 대응되는 상기 대상체 모델의 표면 깊이와 같거나 더 깊은 것을 특징으로 하는 영상 처리 장치.
  7. 제6 항에 있어서,
    상기 이미지 평면에 대한 상기 삭제 볼륨의 윗면 깊이는 상기 편집 영역 내 상기 대상체 모델의 최소 표면 깊이와 같거나 더 얕고,
    상기 이미지 평면에 대한 상기 삭제 볼륨의 상기 밑면 깊이는 상기 편집 영역 내 상기 대상체 모델의 최대 표면 깊이와 같거나 더 얕은 것을 특징으로 하는 영상 처리 장치.
  8. 제7 항에 있어서,
    상기 편집 요청은 상기 삭제 볼륨의 상기 밑면 깊이를 지시하는 사용자 깊이 정보를 더 포함하는 것을 특징으로 하는 영상 처리 장치.
  9. 제7 항에 있어서,
    상기 입력부는 상기 편집 렌더링 영상의 복원을 지시하는 복원 요청을 입력받고,
    상기 영상 처리부는 상기 복원 요청을 기반으로 복원 렌더링 영상을 획득하고,
    상기 표시부는 상기 복원 렌더링 영상을 표시하는 것을 특징으로 하는 영상 처리 장치.
  10. 제9 항에 있어서, 상기 영상 처리부는,
    상기 편집 볼륨 데이터에서 상기 삭제 볼륨 또는 상기 삭제 볼륨의 일부를 복원 볼륨으로 설정하고, 상기 편집 볼륨 데이터에서 상기 복원 볼륨이 복원된 복원 볼륨 데이터를 획득하고, 상기 복원 볼륨 데이터를 기반으로 상기 복원 렌더링 영상을 획득하는 것을 특징으로 하는 영상 처리 장치.
  11. 대상체 모델을 포함하는 볼륨 데이터를 획득하는 단계;
    이미지 평면에 대한 상기 대상체 모델의 표면 깊이를 지시하는 깊이 데이터를 획득하는 단계;
    상기 깊이 데이터를 기반으로, 상기 볼륨 데이터에서 일부 볼륨이 제거된 가공 볼륨 데이터를 획득하고, 상기 가공 볼륨 데이터를 기반으로 렌더링 영상을 획득하는 단계; 및
    상기 렌더링 영상을 표시하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  12. 제11 항에 있어서,
    사용자로부터 상기 렌더링 영상의 편집을 지시하는 편집 요청을 입력받는 단계;
    상기 편집 요청 및 상기 깊이 데이터를 기반으로 편집 렌더링 영상을 획득하는 단계; 및
    상기 편집 렌더링 영상을 표시하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  13. 제12 항에 있어서,
    상기 편집 렌더링 영상을 획득하는 단계는,
    상기 깊이 데이터를 기반으로 획득되는 상기 대상체 모델의 표면을 경계로 상기 볼륨 데이터를 대상체 볼륨 및 비대상체 볼륨으로 구분하는 단계; 및
    상기 볼륨 데이터에서 상기 비대상체 볼륨을 제거하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  14. 제13 항에 있어서,
    상기 편집 렌더링 영상을 획득하는 단계는,
    상기 편집 요청을 기반으로 상기 렌더링 영상 내 편집 영역을 획득하는 단계;
    상기 깊이 데이터를 기반으로 상기 가공 볼륨 데이터 내 상기 편집 영역에 대응되는 삭제 볼륨을 설정하는 단계;
    상기 가공 볼륨 데이터에서 상기 삭제 볼륨이 제거된 편집 볼륨 데이터를 획득하는 단계; 및
    상기 편집 볼륨 데이터를 기반으로 상기 편집 렌더링 영상을 획득하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  15. 제14 항에 있어서,
    상기 이미지 평면에 대한 상기 삭제 볼륨의 밑면 깊이는 대응되는 상기 대상체 모델의 표면 깊이와 같거나 더 깊은 것을 특징으로 하는 영상 처리 방법.
  16. 제15 항에 있어서,
    상기 이미지 평면에 대한 상기 삭제 볼륨의 윗면 깊이는 상기 편집 영역 내 상기 대상체 모델의 최소 표면 깊이와 같거나 더 얕고,
    상기 이미지 평면에 대한 상기 삭제 볼륨의 상기 밑면 깊이는 상기 편집 영역 내 상기 대상체 모델의 최대 표면 깊이와 같거나 더 얕은 것을 특징으로 하는 영상 처리 방법.
  17. 제16 항에 있어서,
    상기 편집 요청은 상기 삭제 볼륨의 상기 밑면 깊이를 지시하는 사용자 깊이 정보를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  18. 제16 항에 있어서,
    상기 편집 렌더링 영상의 복원을 지시하는 복원 요청을 입력받는 단계;
    상기 복원 요청을 기반으로 복원 렌더링 영상을 획득하는 단계;
    상기 복원 렌더링 영상을 표시하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  19. 제18 항에 있어서,
    상기 복원 렌더링 영상을 획득하는 단계는,
    상기 편집 볼륨 데이터에서 상기 삭제 볼륨 또는 상기 삭제 볼륨의 일부를 복원 볼륨으로 설정하는 단계;
    상기 편집 볼륨 데이터에서 상기 복원 볼륨이 복원된 복원 볼륨 데이터를 획득하는 단계; 및
    상기 복원 볼륨 데이터를 기반으로 상기 복원 렌더링 영상을 획득하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  20. 제11 항 내지 제19 항 중 어느 한 항의 영상 처리 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
KR1020120023619A 2012-03-07 2012-03-07 영상 처리 장치 및 방법 KR101329748B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020120023619A KR101329748B1 (ko) 2012-03-07 2012-03-07 영상 처리 장치 및 방법
EP13157544.1A EP2637142B1 (en) 2012-03-07 2013-03-04 Image processing apparatus and method
US13/789,628 US9256978B2 (en) 2012-03-07 2013-03-07 Image processing apparatus and method
JP2013045615A JP2013186905A (ja) 2012-03-07 2013-03-07 映像処理装置及びその方法
US15/001,133 US10390795B2 (en) 2012-03-07 2016-01-19 Image processing apparatus and method
US15/287,414 US20170020485A1 (en) 2012-03-07 2016-10-06 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120023619A KR101329748B1 (ko) 2012-03-07 2012-03-07 영상 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20130116399A KR20130116399A (ko) 2013-10-24
KR101329748B1 true KR101329748B1 (ko) 2013-11-14

Family

ID=47997003

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120023619A KR101329748B1 (ko) 2012-03-07 2012-03-07 영상 처리 장치 및 방법

Country Status (4)

Country Link
US (3) US9256978B2 (ko)
EP (1) EP2637142B1 (ko)
JP (1) JP2013186905A (ko)
KR (1) KR101329748B1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105073014B (zh) * 2013-03-25 2017-08-22 株式会社日立制作所 超声波摄像装置以及超声波图像显示方法
KR20170068944A (ko) * 2015-12-10 2017-06-20 삼성메디슨 주식회사 초음파 영상을 디스플레이하는 방법 및 이를 위한 초음파 장치
JP6546107B2 (ja) * 2016-03-02 2019-07-17 株式会社日立製作所 超音波画像処理装置
WO2019045144A1 (ko) 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US10937207B2 (en) 2018-02-16 2021-03-02 Canon Medical Systems Corporation Medical image diagnostic apparatus, medical image processing apparatus, and image processing method
KR102362470B1 (ko) * 2021-11-04 2022-02-15 (주)펄핏 족부 정보 처리 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011083490A (ja) * 2009-10-16 2011-04-28 Toshiba Corp 超音波診断装置、画像データ生成装置及び画像データ生成用制御プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7168084B1 (en) * 1992-12-09 2007-01-23 Sedna Patent Services, Llc Method and apparatus for targeting virtual objects
US6437784B1 (en) * 1998-03-31 2002-08-20 General Mills, Inc. Image producing system for three-dimensional pieces
US6434260B1 (en) * 1999-07-12 2002-08-13 Biomedicom, Creative Biomedical Computing Ltd. Facial imaging in utero
US6559872B1 (en) * 2000-05-08 2003-05-06 Nokia Corporation 1D selection of 2D objects in head-worn displays
TW512284B (en) * 2001-05-24 2002-12-01 Ulead Systems Inc Graphic processing method using depth auxiliary and computer readable record medium for storing programs
US7561160B2 (en) 2004-07-15 2009-07-14 Olympus Corporation Data editing program, data editing method, data editing apparatus and storage medium
EP1863377A4 (en) 2005-04-01 2010-11-24 Visualsonics Inc SYSTEM AND METHOD FOR 3D VISUALIZATION OF ULTRASOUND VASCULAR STRUCTURES
US7841458B2 (en) * 2007-07-10 2010-11-30 Toyota Motor Engineering & Manufacturing North America, Inc. Automatic transmission clutch having a one-piece resin balancer
US10431001B2 (en) * 2007-11-21 2019-10-01 Edda Technology, Inc. Method and system for interactive percutaneous pre-operation surgical planning
TWI352354B (en) * 2007-12-31 2011-11-11 Phison Electronics Corp Method for preventing read-disturb happened in non
JPWO2011093108A1 (ja) 2010-02-01 2013-05-30 パナソニック株式会社 超音波プローブおよびそれを用いた超音波検査装置
US8694553B2 (en) * 2010-06-07 2014-04-08 Gary Stephen Shuster Creation and use of virtual places
CN102397082B (zh) * 2010-09-17 2013-05-08 深圳迈瑞生物医疗电子股份有限公司 生成方位指示图的方法及装置及超声三维成像方法及系统
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US9110564B2 (en) * 2010-11-05 2015-08-18 Lg Electronics Inc. Mobile terminal, method for controlling mobile terminal, and method for displaying image of mobile terminal
FR2964775A1 (fr) * 2011-02-18 2012-03-16 Thomson Licensing Procede d'estimation de l'occultation dans un environnement virtuel
US20130150719A1 (en) 2011-12-08 2013-06-13 General Electric Company Ultrasound imaging system and method
US20130162518A1 (en) * 2011-12-23 2013-06-27 Meghan Jennifer Athavale Interactive Video System

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011083490A (ja) * 2009-10-16 2011-04-28 Toshiba Corp 超音波診断装置、画像データ生成装置及び画像データ生成用制御プログラム

Also Published As

Publication number Publication date
EP2637142B1 (en) 2023-12-27
US20130235032A1 (en) 2013-09-12
EP2637142A2 (en) 2013-09-11
US10390795B2 (en) 2019-08-27
JP2013186905A (ja) 2013-09-19
KR20130116399A (ko) 2013-10-24
EP2637142A3 (en) 2017-12-13
US9256978B2 (en) 2016-02-09
US20170020485A1 (en) 2017-01-26
US20160133043A1 (en) 2016-05-12

Similar Documents

Publication Publication Date Title
KR101329748B1 (ko) 영상 처리 장치 및 방법
US11798168B2 (en) Method and system for image processing
US9087400B2 (en) Reconstructing an object of interest
KR102114415B1 (ko) 의료 영상 정합 방법 및 장치
Huang et al. Bezier interpolation for 3-D freehand ultrasound
KR102025756B1 (ko) 영상에서 스펙클을 제거하는 방법, 장치 및 시스템.
US8805045B2 (en) Interaction method for regions of-interest in time series images
US20110109631A1 (en) System and method for performing volume rendering using shadow calculation
US9424680B2 (en) Image data reformatting
CN105007824B (zh) 医用图像处理装置以及图像处理方法
KR101728044B1 (ko) 의료 영상을 디스플레이 하기 위한 방법 및 장치
JP6639973B2 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理プログラム
CN107507212A (zh) 数字脑可视化方法、装置、计算设备及存储介质
JP5847454B2 (ja) 被検体情報取得装置、表示制御方法およびプログラム
JP7122918B2 (ja) 画像処理装置および画像処理方法
JPH08161520A (ja) 三次元画像の対象部分抽出方法
KR102192377B1 (ko) 두개악안면영상에서의 자동 치아 분리방법 및 시스템
KR101566459B1 (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
WO2020173054A1 (zh) Vrds 4d医学影像处理方法及产品
WO2016128965A2 (en) Imaging system of a mammal
Bajla et al. Improvement of 3D visualisation of the brain using anisotropic diffusion smoothing of MR data
CN111613302A (zh) 基于VRDS 4D医学影像的肿瘤Ai处理方法及产品
JPWO2021094660A5 (ko)

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161026

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171106

Year of fee payment: 5