KR20190104581A - 물체의 복수의 컴포넌트의 3차원 모델 데이터를 구하는 방법 - Google Patents

물체의 복수의 컴포넌트의 3차원 모델 데이터를 구하는 방법 Download PDF

Info

Publication number
KR20190104581A
KR20190104581A KR1020197023156A KR20197023156A KR20190104581A KR 20190104581 A KR20190104581 A KR 20190104581A KR 1020197023156 A KR1020197023156 A KR 1020197023156A KR 20197023156 A KR20197023156 A KR 20197023156A KR 20190104581 A KR20190104581 A KR 20190104581A
Authority
KR
South Korea
Prior art keywords
component
data
model
components
regions
Prior art date
Application number
KR1020197023156A
Other languages
English (en)
Other versions
KR102473298B1 (ko
Inventor
매튜 바챠파람필
매다사미 파니어셀밤
상기스 애티안난
마호메드 아바스 알리
존슨 제바다스
Original Assignee
케어소프트 글로벌 홀딩스 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 케어소프트 글로벌 홀딩스 리미티드 filed Critical 케어소프트 글로벌 홀딩스 리미티드
Publication of KR20190104581A publication Critical patent/KR20190104581A/ko
Application granted granted Critical
Publication of KR102473298B1 publication Critical patent/KR102473298B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/32Transforming X-rays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

물체의 복수의 컴포넌트의 3 차원 모델 데이터를 획득하는 방법.
본원 발명은 - 다중 - 컴포넌트 물체에 대한 x 선 데이터(X2)를 얻는 단계; - 물체의 적어도 제1 및 제2 3D 표현(X3-H, X3-M)을 획득하기 위해 상기 x선 데이터(X2) 를 처리하는 단계 - 상기 제1 및 제2 3D 표현은 각각 제1 및 제2 해상도(H) (M)를 가지며 제1 해상도(H) 가 제2 해상도(M)보다 높음; - 상기 제2 3D 표현(X3-M)의 복수의 영역(X311, X312, ?)들을 식별하는 단계로서, 각각의 영역(X311, X312, ?)은 상기 물체의 복수의 컴포넌트들 중 하나에 대응하며, 적어도: - 상기 제2 3D 표현(X3-M)의 복수의 초기 영역을 식별하는 단계 - 각각의 초기 영역은 복수의 픽셀 값 범위(Ti) 중 하나의 픽셀 값을 가짐 -; 및 - 상기 초기 영역과, 상기 제1 3D 표현(X3-H)으로부터 획득된 상기 물체의 적어도 일부의 하나 이상의 2D 섹션으로부터 유도된 하나 이상의 특징(Di) 간의 비교에 기초하여 상기 복수의 초기 영역 각각을 선택적으로 조정하는 단계에 의해 복수의 영역들을 식별하는 단계; 그리고 - 상기 제1 3D 표현(X3-H)으로부터 획득된 상기 물체의 적어도 일부의 하나 이상의 2D 섹션으로부터 유도된 하나 이상의 특징(Di)들에 기초하거나 상응하는 한 영역(X311, X312,...)에 기초하여 상기 컴포넌트의 3D 모델(M211, M212,...)을, 다수의 컴포넌트 각각에 대하여 획득하는 단계를 포함하는 방법에 대한 것이다.

Description

물체의 복수의 컴포넌트의 3차원 모델 데이터를 구하는 방법
본 출원은 특히 자동차와 같은 물체의 복수의 컴포넌트의 3 차원(3D) 모델 데이터를 얻기 위한 방법 및 시스템에 관한 것이다.
예를 들어 10,000개 이상의 컴포넌트가 포함될 수 있는 자동차와 같은 복잡한 물체의 (경쟁력 있는) 평가/벤치마킹에 상당한 관심이 있다.
이러한 물체는 물리적으로 분해 될 수 있지만 일반적으로 파괴적이며 상당한 수작업이 필요하며 분해 프로세스는 예를 들어 컴포넌트에 대한 3D 배열 정보를 잃어 버린다
x 선 컴퓨터 단층 촬영(CT) 시스템은 예를 들면 균열을 검출하기 위해 일반적으로 개별 컴포넌트 또는 비교적 적은 수의 컴포넌트를 분석하는 데 사용된다. 그러나 자동차와 같은 완전한 복합 물체를 효과적으로 분석하기 위한 그러한 시스템의 사용은 관련된 데이터를 처리하는 데 있어서의 심각한 어려움에 의해 적어도 부분적으로는 사용이 금지되고 있다.
본원 발명의 제1 면에 따라, 다중 - 컴포넌트 물체에 대한 x 선 데이터를 얻는 단계; 물체의 적어도 제1 및 제2 3D 표현을 획득하기 위해 상기 x선 데이터를 처리하는 단계 - 상기 제1 및 제2 3D 표현은 각각 제1 및 제2 해상도를 가지며 제1 해상도가 제2 해상도보다 높음; 상기 제2 3D 표현의 복수의 영역들을 식별하는 단계로서, 각각의 영역은 상기 물체의 복수의 컴포넌트들 중 하나에 대응하며, 적어도: - 상기 제2 3D 표현의 복수의 초기 영역을 식별하는 단계 - 각각의 초기 영역은 복수의 픽셀 값 범위 중 하나의 픽셀 값을 가짐 -; 및 - 상기 초기 영역과, 상기 제1 3D 표현으로부터 획득된 상기 물체의 적어도 일부의 하나 이상의 2D 섹션으로부터 유도된 하나 이상의 특징 간의 비교에 기초하여 상기 복수의 초기 영역 각각을 선택적으로 조정하는 단계에 의해 복수의 영역들을 식별하는 단계; 그리고 상기 제1 3D 표현으로부터 획득된 상기 물체의 적어도 일부의 하나 이상의 2D 섹션으로부터 유도된 하나 이상의 특징들에 기초하거나 상응하는 한 영역에 기초하여 상기 컴포넌트의 3D 모델을, 다수의 컴포넌트 각각에 대하여 획득하는 단계를 포함하는 방법이 제공된다.
따라서, 상기 방법은 자동차와 같은 복잡한 제품을 평가하는 효과적이고 효율적인 방법을 제공 할 수 있다.
상기 방법은 상기 복수의 컴포넌트의 3D 모델을 어셈블링하여 상기 물체의 컴포넌트 - 분석된 3D 모델을 획득하는 단계를 더욱 포함한다.
상기 방법은 상기 제1 및 제2 3D 표현을 복수의 작업 영역(예를 들면 물체의 서브어셈블리에 해당하는)으로 분할하는 단계; 그리고
상기 복수의 작업 영역 각각에서 상기 복수의 영역을 식별하는 단계를 포함한다.
상기 방법은 상기 제2 해상도보다 낮은 제3 해상도를 갖는 상기 물체의 제3(예를 들면 "낮은") 3D 표현에 기초하여 상기 제1 및 제2 3D 표현을 분할하는 단계를 더 포함한다.
상기 x 선 데이터의 처리는 해상도를 단계적으로 증가시키는 단계를 포함하고, 상기 제1(고 해상도) 표현은 상기 제2(중간 해상도) 표현보다 후속 단계에서 얻어진다.
상기 복수의 초기 영역 각각을 식별하는 단계는 상기 물체(예를 들면, 특정 강철 등) 내의 특정 재료에 관련된 픽셀 값의 범위를 결정하는 단계를 포함한다.
상기 방법은 하나 이상의 2D 섹션 각각에 대한 평면을 결정하는 단계;
상기 하나 이상의 2D 섹션 각각을 결정하는 단계; 그리고
하나 이상의 2D 섹션들 각각으로부터 하나 이상의 특징들을 도출하는 단계를 포함한다.
적어도 하나의 평면은 상기 물체의 서브 어셈블리의 중간 면에 대응한다.
하나 이상의 2D 섹션 각각으로부터 하나 이상의 특징을 유도하는 단계는 상기 2D 섹션으로부터 벡터 그래픽을 유도하는 단계를 포함한다.
상기 하나 이상의 특징은, 에지 및/또는 2D 영역의 컴포넌트 영역; 및/또는
2D 섹션 내 컴포넌트 치수를 포함한다.
상기 복수의 초기 영역 각각의 상기 선택적 조정은 상기 초기 영역이 2 이상의 컴포넌트를 포함하는지를 결정하는 단계를 포함한다. 상기 초기 영역이 둘 이상의 컴포넌트를 포함하는지 여부를 결정하는 단계는 상기 초기 영역이 임의의 에지를 크로스 하는지 및/또는 임의의 2 개 이상의 영역을 점유하는지를 결정하는 단계를 포함한다.
상기 복수의 초기 영역 각각의 선택적인 조정이 상기 초기 영역을 2 이상의 중간 영역 또는 영역으로 선택적으로 분할하는 단계를 포함한다. 상기 분할 단계는 에지 및/또는 영역에 기초한다.
상기 복수의 컴포넌트 각각의 상기 3D 모델을 획득하는 단계는:
상기 컴포넌트가 제1 유형의 컴포넌트에 대응 하는지를 결정하는 단계;
긍정적인 결정에 응답하여, 다음 모델과 컴포넌트 치수를 기초로 하여 상기 컴포넌트의 3D 모델을 획득하는 단계를 포함한다.
- 상기 제1 유형의 컴포넌트에 대한 소정의 3D 모델; 그리고
- 하나 이상의 2D 섹션으로부터 획득한 컴포넌트의 하나 이상의 치수.
상기 복수의 컴포넌트 각각의 상기 3D 모델을 획득하는 단계는,
상기 제1 3D 표현을 중간 3D 모델로 변환하는 단계 - 상기 중간 3D 모델은 메쉬 모델에 대응함- 를 포함한다.
상기 복수의 컴포넌트 각각의 상기 3D 모델을 획득하는 단계는,
상기 컴포넌트가 제2 유형의 컴포넌트에 대응하는지를 결정하고; 그리고
긍정적인 결정에 응답하여, 상기 중간 3D 모델을 상기 컴포넌트의 3D 모델로 변환함을 포함한다.
상기 x 선 데이터는 약 9MeV의 에너지를 갖는 적어도 하나의 x 선을 사용하여 획득된다. 상기 물체 내의 상기 복수의 컴포넌트는 적어도 10,000개의 컴포넌트에 대응한다.
본 발명의 또 다른 면에 따라, 상기 방법을 수행하기 위한 컴퓨터 프로그램이 제공된다.
본 발명의 또 다른 면에 따라, 본 발명 방법을 수행함으로써 획득된 물체의 컴포넌트 - 분석된 3D 모델을 포함하는 데이터 구조가 제공된다.
본 발명의 또 다른 면에 따라, 컴퓨터 프로그램 및/또는 데이터 구조를 포함하는 비-일시적인 컴퓨터 판독 가능 매체가 제공된다.
본 발명의 또 다른 면에 따라, 본 발명 방법을 수행하도록 구성된 컴퓨터 시스템이 제공된다. 상기 컴퓨터 시스템은 적어도 하나의 처리기 및 컴퓨터 프로그램 코드를 포함하는 적어도 하나의 메모리를 포함하며, 상기 적어도 하나의 메모리 및 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서로 컴퓨터 시스템이 본 발명 방법을 수행하도록 구성된다. x 선 데이터를 제공하도록 구성된 디바이스; 그리고 상기 x 선 데이터를 획득하도록 구성된 컴퓨터 시스템을 포함하는 시스템이 더욱 제공된다.
본 발명의 특정 실시 예들은 첨부 도면을 참조하여 예로서 설명될 것이다:
도 1은 물체의 복수의 컴포넌트의 3D 모델 데이터를 얻기 위한 시스템을 도시한 도면이다.
도 2는 도 2의 시스템의 일부를 형성 할 수 있는 컴퓨팅 디바이스를 도시한 도면이다.
도 3은 도 1의 시스템에 의해 수행될 수 있는 방법을 도시한 도면이다.
도 4는도 3의 방법과 관련된 데이터 흐름을 도시한 도면이다.
도 5는 도 3의 방법의 제2 단계에서 획득될 수 있는 저 해상도 (a), 중간 해상도 (b) 및 고해상도 (c) 3D x선 데이터의 슬라이스를 도시한 도면이다.
도 6은 물체 (a), 서브 어셈블리 (b) 및 컴포넌트 (c)에 대한 3D x선 데이터의 슬라이스를 도시한 도면이다. 서브 어셈블리에 대한 3D x선 데이터는 도 3의 방법의 제4 단계에서 얻어질 수 있다.
도 7은 도 3 방법의 제6 단계에서 획득될 수 있는 서브어셈블리(a)의 2D 영상 및 서브어셈블리(b)에 대한 대응하는 에지 및 면적 데이터를 도시한 도면이다.
도 8은 도 3방법의 제6 단계에서 얻어질 수 있는 치수 데이터를 도시한 도면이다.
도 9는 서브어셈블리의 직교 슬라이스를 도시하고(a1, a2, a3), 상기 서브어셈블리는 도 3 방법의 제7 단계에서 결정될 수 있는 임계치들에 기초하여 선택된 하나의 컴포넌트를 가지며(b1, b2, b3), 그리고 상기 서브어셈블리는 선택된 각기 다른 5개의 컴포넌트를 가짐을 도시한(c1, c2, c3) 도면이다.
도 10은 두 가지 다른 관점에서 컴포넌트에 대한 초기 3D 모델 데이터를 도시한 도면이며, 도 3방법의 제10 단계에서 얻어질 수 있다.
도 11은 도 3방법의 제11 단계에서 각각 얻어 질 수 있는 복수의 컴포넌트에 대한 최종 3D 모델 데이터를 도시한 도면이다. 또한 2 가지 상이한 관점에서, 컴포넌트의 서브 어셈블리가 도시되어 있다.
시스템
도 1을 참조하여, 시스템(1)이 설명 될 것이다. 시스템(1)은 복잡한 물체의 컴포넌트 - 분석된 3D 모델 데이터를 획득하는데 사용될 수 있다. 시스템(1)은 x선 CT 스캐닝을 수행하도록 구성된다. 시스템(1)은 x 선 소스(2), 컴퓨터 제어 턴테이블(3) 및 검출기(4)를 포함한다. 자동차와 같은 테스트 물체(5)가 턴테이블(3) 상에 배치될 수 있다.
시스템(1)은 또한 제1 디바이스(71), 제2 디바이스(72), 및 하나 이상의 제3 디바이스(73) (이하 각각 영상 캡쳐, 영상 재구성 및 3D 모델링 디바이스라고 함)를 포함하는 컴퓨터 시스템(6)을 포함한다. 상기 소스(2)는 상기 물체(5)를 향하는 x 선 방사선(11)을 생성하도록 구성된다. 일부 실시 예에서, 상기 x 선 방사선 (11)은 적어도 9 MeV까지의 에너지를 갖는다. 일부 예에서, 시스템 (1)은 x 선 방사선(11)이 발산하고 원뿔을 형성하는 콘빔 CT 스캐닝을 수행하도록 구성된다. 상기 턴테이블(3)은 적어도 영상 캡처 디바이스(71.)에 동작 가능하게 연결되며, 영상 캡처 디바이스 (71.)의 제어 하에 동작한다.
상기 검출기(4)는 신틸레이터(4a) 및 선형 다이오드 어레이(4b)를 포함한다. 상기 신틸레이터(4a)는 물체(5)와 상호 작용 한 x 선 방사선(11)을 수신한다. 신틸 레이터(4a)는 수신된 x 선 방사선(11)을 가시광선(12)으로 변환한다. 어레이(4b) 내의 다이오드들 각각은 가시광선(12)을 수신할 수 있고 그에 응답하여, 전기(전압) 신호를 생성한다. 어레이(4b) 내의 다이오드로부터의 전기 신호는 증폭되고, 다중화되어 디지털 신호(13)로 변환된다. 디지털 신호(13)는 컴퓨터 시스템 (6)에 제공된다
디바이스
도 2를 참조하면, 영상 캡쳐, 영상 재구성 및 3D 모델링 디바이스(71, 72, 73)가 이제 더 상세히 설명 될 것이다. 디바이스(7)는 하나 이상의 프로세서(7b) (도 2에서 "P"로 표시됨)를 포함하는 제어기(7a)를 포함한다. 제어기(7a)는 시스템 버스(7c)를 통해 디바이스(7)의 다른 컴포넌트(7d-7f)와 통신한다. 디바이스(7)는 예를 들어, 다른 디바이스와 통신하기 위한 통신 인터페이스(7d) (예를 들어, 이더넷 인터페이스)를 포함한다. 디바이스(7)는 휘발성 메모리(예를 들면, RAM) 그리고 비 휘발성 메모리(예들 들면, ROM)를 포함하는 메모리(7e)를 포함한다. 휘발성 메모리는 예를 들어 디바이스(7)의 다른 컴포넌트의 동작을 제어하거나 컴포넌트간에 데이터를 이동시킬 때 데이터의 일시적인 저장을 위해 제어기(7a)에 의해 사용된다. 디바이스(7)는 솔리드 스테이트 및/또는 하드 디스크 저장부와 같은 저장 부(7f)를 포함한다. 저장 부(7f)는 물체(5)에 관한 데이터를 포함하여 소프트웨어(4)에 의해 사용되는 컴퓨터 판독 가능 명령 또는 소프트웨어("S")(15) 및 데이터("D")(16)를 저장한다. 일정 경우 디바이스(7)는 사용자로부터 입력을 수신하고 사용자에게 출력을 제공할 수 있게 하는 하나 이상의 사용자 인터페이스(미 도시)를 포함할 수 있다.
상기 소프트웨어(15)는 이하에 설명되는 방법을 수행하도록 구성된다. 알 수 있는 바와 같이, 본 방법의 단계들은 완전히 자동화될 수 있거나 또는 부분적으로 자동화될 수 있고 일정 사용자 상호 작용을 포함할 수도 있다. 단계들은 알려진 알고리즘을 사용하여 결과를 얻을 수 있다. 단계는 결과를 얻기 위해 알려진 기계학습/인공 신경망 기술을 이용할 수 있다.
방법
도 3 및 도 4를 참조하면, 시스템(1)에 의해 수행될 수 있는 방법이 이제 기술될 것이다. 도 3은 프로세스 흐름도에 대응하고, 도 4는 데이터 흐름도에 대응한다
제1 단계
제1 단계 S1에서, 2 차원(2D) x 선 데이터가 획득된다 (도 3 및 4에서 "X2"로 표시됨).
물체(5)는 턴테이블(3) 상에 배치되고 일련의 2D x선 영상이 얻어지는 동안 단일 회전축을 중심으로 회전된다. 규칙적인 영상 형상을 유지하기 위해, 턴테이블(3)의 회전 속도는 검출기(4)의 라인 노출 시간과 동기화된다. 회전 속도는 초당 0.005 내지 0.01 미터 범위의 선형 속도일 수 있다. 고밀도 재료(예를 들어, 고강도 재료)를 갖는 영역, 상이한 밀도를 갖는 더 많은 수의 상이한 컴포넌트를 갖는 영역, 더욱 복잡한 컴포넌트를 갖는 영역 등은 더욱 느린 회전 속도로 영상화될 수 있다. 이러한 방식으로 2D x선 영상보다 높은 밀도가 얻어지며, 이는 이러한 세부 사항을 식별하는 데 도움이 될 수 있다.
제1 단계(S1)는 영상 캡쳐 디바이스(71)에 의해 또는 영상 캡쳐 디바이스 (71)의 제어 하에 수행된다.
제2 단계
제2 단계(S2)에서, 다중 해상도 3D x선 데이터 ("X3")를 얻기 위해 2D x선 데이터가 사용된다. 즉, 처리된다.
제2 단계 S2(또는 영상 재구성)는 예를 들어,
- S. Smith, "과학자 및 엔지니어의 디지털 신호 처리 안내서", California Technical Pub (1997), Ch. 25에서 설명된 바와 같은, 푸리에 도메인 재구성 알고리즘;
- M. Liebling 및 M. Unser, "디지털 오프- 액시스 프레스넬 홀로그램 재구성 알고리즘 비교", Proc. SPIE 6016, 3 차원 TV, 비디오 및 디스플레이 IV, 60160M (2005 년 11월 15일); doi : 10.1117/12.631039에서 설명된 바와 같은, 프레넬 알고리즘을 사용한다.
일반적인 단일 스테이지 프로세스와 달리, 영상 재구성은 3 단계로 수행되어 3 가지 상이한 해상도 (이하 저해상도, 중간 해상도 및 고해상도라고 함)를 갖는 3D x선 데이터를 생성한다. 특히 2D x 선 데이터는 알고리즘을 사용하여 초기에 처리되어 저해상도 3D x 선 데이터를 얻는다. 그런 다음 데이터는 중간 해상도의 3D x선 데이터를 얻기 위해 더 많은 처리가 필요하다. 데이터는 고해상도 데이터를 얻기 위해 더 많은 처리가 필요하다.
따라서, 제2 단계 (S2)에서 얻어진 3D x선 데이터는 물체 (5)의 높은("H"), 중간 ("M") 및 낮은 ("L") 해상도 3D 영상을 포함한다.
각각의 3D 영상은 물체(5)를 통해 상이한 슬라이스에 해당하는 3D 픽셀(또는, 다른 용어로, 복셀) 및/또는 2D 영상 세트 (이하, 슬라이스라고 함)의 3D 그리드에 해당한다.
아래에서보다 상세히 설명되는 바와 같이, 물체(5)의 대응하는 영역의 x선 감쇠와 관련된, 각 픽셀/복셀(이하, 픽셀 값이라 함)과 관련된 값이 있으며, 따라서 임의의 해당 영역에서의 자료. 픽셀 값은 그레이스케일 강도에 의해 시각적으로 표현될 수 있다.
해상도는 픽셀/보셀의 차원과 일치할 수 있다. 저해상도 3D x 선 데이터는 약 1,000 마이크로미터(μm)의 전형적인 해상도, 약 600 마이크로 미터의 중간 해상도 및 약 150 마이크로 미터의 고해상도를 갖추고 있다. 그러나 하나 이상의 해상도가 이러한 전형적인 값과 다를 수 있다. 예를 들어, 해상도는 750μm 이상 (저해상도), 350-750μm (중간 해상도) 및 350μm 미만 (고해상도) 일 수 있다.
도 5를 참조하면, 저해상도 3D x선 데이터 (a), 중간 해상도 3D x선 데이터 (b) 및 고해상도 3D x선 데이터 (c)의 예시적인 슬라이스가 도시되어있다.
아래에서보다 상세히 설명되는 바와 같이, 저 해상도 데이터는 물체(5) 전체의 3D 영상과 관련된 데이터 처리 동작에 사용된다. 저 해상도 데이터는 상대적으로 작기 때문에 그러한 동작에 특히 적합하다. 전형적인 물체(5)에 대해, 저 해상도 데이터는 약 200기가바이트 (GB)의 크기를 가지며, 중간 해상도 데이터는 약 600 GB의 크기를 가지며, 고해상도 데이터는 약 1,000 GB의 크기를 갖는다.
중간 해상도 데이터는 고해상도 데이터보다 낮은 노이즈를 갖는다. 따라서 초기 3D 모델 데이터 (아래 참조)를 얻기 위해 고해상도 데이터가 아닌 중간 해상도 데이터를 사용하면 노이즈로 인한 잘못된 메쉬 요소가 줄어 든다. 이에 따라, 물체(5) 특징의 정확한 포착이 용이해진다. 따라서, 중간 해상도 데이터는 초기 3D 모델 데이터를 얻기 위해 사용되고, 고해상도 데이터는 예를 들어, 에지 데이터, 치수 데이터 등을 얻기 위해 사용된다.(아래 참조).
3D x선 데이터는 바람직하게는 DICOM(의료용 디지털 영상 및 통신 표준) 형태로 저장, 전송 등 된다. 다른 포맷이 사용될 수 있지만, DICOM은 데이터 조작의 용이함과 관련이 있는 다음과 같은 몇 가지 이점을 갖는다.
제2 단계(S2)는 영상 재구성 디바이스(72)에 의해 수행된다.
제3 단계
제3 단계(S3)에서, 다중 해상도 3D x선 데이터가 처리된다. 이는 바람직하게는 영상을 선명하게 하고 영상(예를 들어, 빔 경화에 의해 야기되는) 내의 인공물을 감소시키고, 영상의 콘트라스트를 향상시키는 등의 공지된 알고리즘을 사용하는 것을 포함한다.
3 단계(S3) 및 후속 단계(S4 ... S12)는 3D 모델링 디바이스(73.)에 의해 수행된다.
제4 단계
제4 단계(S4)에서, 3D x선 데이터는 복수의 서브 세트("X31mmm X3M")로 분할된다. 이 단락에서도 6을 참조하면, 전형적인 물체(5)는 복수(예컨대, 수백 또는 그 이상의)의 서브 어셈블리 또는 등가물을 포함하고, 각각의 서브 어셈블리는 다수의(예를 들어, 수십 또는 그 이상의) 컴포넌트를 포함한다. 따라서, 전형적인 물체(5)는 전술한 바와 같이 10,000개 이상의 컴포넌트를 포함한다. 예로서, 자동차(5)는 그 서브 어셈블리 중 하나로서 코너 모듈(51)을 포함하고, 코너 모듈(51)은 그 컴포넌트 중 하나로서 디스크 패드(52)를 포함한다.
다수의 서브세트 각각은 물체(5) 내의 서브 어셈블리 각각에 해당하는 것이 바람직하다. 그러나 3D x선 데이터는 임의의 적절한 방식으로 분할될 수 있으며, 각 서브셋은 바람직하게는 복수 (예를 들어, 수십 또는 그 이상)의 서브 셋을 포함 할 수 있다.
제4 단계(S4)는 바람직하게는 물체(5)의 서브 어셈블리 중 상이한 하나를 포함하는 다수의 3D 영역을 선택하는 단계를 포함한다. 이러한 3D 영역은 직사각형 일 수 있거나 임의의 다른 적합한 형상(예를 들어 원통형)을 가질 수 있다. 복수의 3D 영역 중 2 개 이상이 서로 중첩될 수 있다.
제4 단계(S4)는 바람직하게는 물체(5)의 전체에 대한 저해상도 x선 데이터를 사용하여 수행된다. 연결성, 사전 결정된 규칙 등에 기반하여, 각각의 3D 영역은 전형적으로 관련 서브 어셈블리에 있지 않은 물체(5)의 ("추가") 부분을 포함할 것이다. 이러한 추가 부분은 해당 하위 집합을 처리할 때 무시하는 것이 바람직하다.
각각의 서브셋은 바람직하게는 중간 및 고해상도(즉, 저 해상도가 아닌) 3D x 선 데이터를 포함한다.
제4 단계(S4)는 복수의 서브 어셈블리가 병렬로 수행되기 위해 최종 3D 모델 데이터 (즉, CAD 데이터)를 획득하는 것과 관련된 처리를 허용한다. 또한, 각각의 서브 어셈블리가 본 명세서에 설명된 처리에 특히 적합한 복잡성 수준을 가지므로, 물체(5) 특징에대한 정확한 포착을 용이하게 한다.
데이터가 분할되거나(예들 들면: 단계 S4 및 S8에서) 또는 한 유형에서 다른 유형으로 변경 될 때마다(예들 들면: 단계 S6, S10 및 S11 단계에서), 관련 요소(복셀, 선/곡선, 곡면 등)의 위치를 설명하는 데이터가 전역 좌표계(또는 균등물)를 기반으로 하여, 적절히 유지된다. 무엇보다도 이것은 데이터의 후속(재) 어셈블리를 용이하게 한다.
제5 단계
본 방법의 제5 내지 제11 단계(S5-S11)는 각각의 서브 세트/대응하는 서브 어셈블리 (이하, 각각 서브 세트 및 서브 어셈블리라 함)에 대해 수행된다. 이것은 위에서 언급한 것처럼 병렬로 수행될 수 있다.
5 단계(S5)에서, 서브 세트("X3i")는 제3 단계(S3)와 유사한 방식으로 처리된다. 이 경우, 상기 처리는 특정 서브 세트에 대해 최적화될 수 있다. 예를 들어 프레스 핏 (press fit) 컴포넌트, 용접 된 컴포넌트, 볼트로 고정된 컴포넌트 등과 같은 복잡한 영역에서는 3D 영상 품질이 향상 될 수 있다.
제6 단계
제6 단계(S6)에서, 서브 어셈블리와 관련된 2D 데이터 "Di")가 얻어진다.
도 7 (a)를 참조하면, 제6 단계(S6)는 서브 세트의 고해상도 3D x선 데이터로부터 서브 어셈블리의 2D 영상(21)를 얻는 단계를 포함한다. 2D 영상(21)은 서브 어셈블리의 (교차) 섹션에 대응한다. 섹션을 정의하는 평면은 임의의 적절한 방식으로 결정될 수 있다. 예를 들어, 평면은 서브 어셈블리의 중앙 평면 일 수 있으며, 예를 들면, 서브 어셈블리를 2개의 실질적으로 대칭인 부분으로 분할한다.
도 7 (b)를 참조하면, 제6 단계(S6)는 2D 데이터(22)를 결정함을 포함한다. 이 같은 단계는 2D 영상(21)에서 서브 어셈블리(예를 들어, 컴포넌트) 특징의 에지에 대응하는 라인/곡선 (22a)(이하에서는 에지 데이터라고 칭한다.) 세트를 결정함을 포함한다. 에지 데이터(22a)는 예를 들어 가장자리 감지 알고리즘을 사용하여, 임의의 적절한 방식으로 결정된다. 선들/곡선들의 특성은 또한 특정 방식으로 폐쇄 루프를 형성하도록 제한될 수 있다. 바람직하게는, 2D 데이터(22)를 결정하는 것은 또한 예를 들어, 에지 데이터 (22a)에 의해 경계가 지어진 한 세트의 영역(22b)(이하, 영역 데이터 라 함)의 세트를 식별하는 것을 포함한다. 바람직하게는, 개별적인 영역은 적절한 경우 동일한 컴포넌트에 대응하는 것으로 결정된다. 이것은 유사성/대칭성, 사전에 정해진 규칙 등에 기초하여 임의의 적절한 방식으로 수행될 수 있다.
도 8을 참조하면, 제6 단계(S6)는 또한 2D 영상 (21') 내의 서브 어셈블리(예를 들어, 컴포넌트) 특징의 치수 세트(22c)(이후 치수 데이터로 지칭 됨)를 결정함을 포함한다. 이것은 적절한 방법으로 수행될 수 있다. 예를 들어, 치수 데이터(22c)는 에지 데이터(22a)에 포함된 라인/곡선 파라미터로부터 유도될 수 있다. 치수 데이터(22c)는 평행한 에지들 간의 거리 등을 포함할 수 있다.
2D 데이터(22)는 단일 2D 영상(21) (즉, 단일 단면) 또는 다중 2D 영상(21) (즉, 다중 단면)에 대해 결정될 수 있다. 2D 데이터는 본원 명세서에서 특징(feature)으로 언급된다.
제7 단계
제7 및 제8 단계 (S7, S8)는 서브 세트의 중간 해상도 x 선 데이터, 즉 서브 어셈블리의 중간 해상도 3D 영상과 관련하여 수행된다.
제7 단계(S7)에서, 복수 쌍의 임계 값("Ti")이 결정된다. 복수 쌍의 임계 값은 이후 임계치 데이터(threshold data)로 지칭된다.
각 쌍의 임계 값은 바람직하게는 그레이 스케일 강도 범위의 상한 및 하한에 대응한다. 그레이스케일 강도는 (특정 맵핑에 따라) 픽셀 값에 대응하고, 따라서 한 픽셀과 연관된 영역 내의 물질과 관련된다. 다음 자료는 일반적으로 다음 픽셀 값을 갖는다. (하운 스 필드 단위, HU)
-강철: 12 내지 18 HU:
-알루미늄: 25 내지 35 HU
-플라스틱: 72 내지 81 HU
물체(5)의 상이한 컴포넌트는 일반적으로 상이한 재료로 만들어지며, 따라서 상이한 범위에서 그레이스케일 강도/픽셀 값을 갖는다. 서로 다른 컴포넌트가 명목상 동일한 재료로 구성되어 있더라도 재료 간 약간의 차이로 인해 그레이스케일 강도/픽셀 값에 감지할 수 있는 차이가 있을 수 있다.
서브 어셈블리의 각 컴포넌트가 그레이스케일 강도의 구별되는 (즉, 상이하고 중첩되지 않는) 범위와 관련된다면, 적합한 임계 값의 쌍을 결정함으로써, 서브 어셈블리 내의 각 컴포넌트가 개별적으로 선택될 수 있다.
그러나 경우에 따라 두 개 이상의 컴포넌트에 해당하는 임계 값 쌍을 결정하는 것이 가능할 수 있다.
이는 예를 들어, 스냅 끼워 맞춤 컴포넌트, 용접 물 및 기타 이와 같은 연결된 컴포넌트를 포함할 수 있으며, 특히 중요 할 수 있다.
임계치 데이터는 바람직하게는 최대 개수의 컴포넌트가 개별적으로 선택될 수 있도록 결정된다. 임계치 데이터는 임의의 적절한 방식으로 결정될 수 있다.
예를 들어, 임계 값은 서브 어셈블리의 3D 영상에서 그레이스케일 강도의 분포 (히스토그램)에 기초하여 결정될 수 있다. 아래에서보다 상세히 설명되는 바와 같이, 초기 임계 값 데이터는 또한 2D 데이터(22)에 기초하여 조정될 수 있다.
도 9를 참조하면, 예시적인 서브 어셈블리(코너 모듈)의 3D 영상의 3개의 직교 슬라이스 (a1, a2, a3)의 세트가 도시되어 있다. 다음 3개의 슬라이스(b1, b2, b3)는 임계 값 기반 선택 사항 중 한 컴포넌트를 도시한다. 다음 3개의 슬라이스(c1, c2, c3)는 5 개의 다른 컴포넌트에 대한 5 가지 상이한 임계 값 기반 선택을 도시한다.
제8 단계
이 방법의 제8 내지 제11 단계(S8-S11)는 서브 어셈블리 내의 각 컴포넌트(이하, 간단히 컴포넌트 라 함)에 대해 수행된다.
제8 단계(S8)에서, 서브셋은 추가 서브 세트("X3ij")로 분할된다. 추가 서브셋은 컴포넌트에 대한 3D x선 데이터를 포함하며, 이하 컴포넌트 서브 세트라 칭한다.
제8 단계(S8)는 특정 세트의 임계 값을 사용하여 서브 셋을 컴포넌트 또는 컴포넌트 그룹을 포함할 수 있는 초기 서브 세트로 분할함을 포함한다.
다음에 제8 단계(S8)는 2D 데이터(22)를 이용하여 초기 서브 셋을 선택적으로 분할함을 포함한다. 이는 초기 서브 셋이 2개 이상의 컴포넌트를 포함하는지 여부를 결정함을 포함한다. 이것은 적절한 방법으로 수행될 수 있다. 예를 들어, 에지 데이터(22a) 및/또는 영역 데이터(22b)는 에지를 통과하거나 2 개의 영역을 점유하는 중요한 재료가 존재하는지 여부를 결정하기 위해 3D x선 데이터의 적절한 슬라이스와 비교될 수 있다. 긍정적인 결정에 대한 응답으로, 초기 서브 셋이 나뉘어진다. 이것은 임의의 적절한 방식으로, 예를 들어 에지 데이터(22a) 내의 관련 커브/라인에 기초하여 수행될 수 있으며, 3 차원으로 적절하게 전파될 수 있다.
상기 임계 값 데이터는 2D 데이터(22)에 기초하여 (전역적으로 또는 국부적으로) 조정될 수 있다.
2 개의 연결되지 않은 3D 영역에 대응하는 초기 서브 셋은 간단한 방식으로 분할 될 수 있다.
따라서, 제8 단계(S8)에서, 컴포넌트 서브 셋, 즉 하나의 컴포넌트에 대한 3D x선 데이터를 포함하는 컴포넌트 서브 셋이 획득된다.
제9 단계
제9 단계(S9)에서, 컴포넌트 서브 셋이 검사된다. 이는 바람직하게 2D 데이터 (22)(예를 들어, 영역 데이터(22b) 및/또는 치수 데이터(22c))를 컴포넌트 서브 세트의 적절한 슬라이스의 특징과 비교함으로써 하나 이상의 에러를 결정하는 것을 포함한다. 에러가 최대 수용 가능한 에러를 초과하면, 본 방법은 상이한 파라미터를 사용하여 반복되는 이전 단계(S8)로 복귀하는 것이 바람직하다.
제10 단계
제10 단계(S10)에서, 컴포넌트 서브 셋 내의 3D x선 데이터는 초기 3D 모델 데이터 ("M1ij")로 변환된다.
초기 3D 모델 데이터는 바람직하게는 스테레오 리소그래피 (STL) 데이터에 대응하며 이하 간단히 STL 데이터 라 칭한다. STL 데이터는 하나 이상의 닫힌 삼각형 메쉬 표면을 정의하는 데 사용할 수 있는 삼각형 표면 집합을 설명하므로 이들 표면에 의해 경계 되는 하나 이상의 3D 물체를 정의한다.
컴포넌트 서브 셋의 3D x선 데이터는 알려진 기술을 사용하여 STL 데이터로 변환된다.
상기 방법은 또한 메쉬 수정하고, 잘못된 메쉬 요소 제거하는 등을 위해, STL 데이터가 처리되는 단계(도시되지 않음)를 포함하는 것이 바람직하다.
이 단락에서 도 10을 참조하면, 컴포넌트(즉, 너클)에 대한 STL 데이터가 예시로서 도시된다.
제11 단계
제11 단계(S11)에서, 컴포넌트의 최종 3D 모델 데이터 ("M2ij")를 얻는다.
이것은 이전 단계(S10)에서 얻어진 STL 데이터와 제6 단계(S6)에서 얻어진 2D 데이터(22)를 사용하여 수행된다.
최종 3D 모델 데이터는 바람직하게는 CAD(컴퓨터 지원 설계) 데이터에 대응하며 이하 간단히 CAD 데이터라 한다. CAD 데이터는 바람직하게는 연결된 표면 요소의 집합으로서 솔리드(예를들어, 컴포넌트)를 나타내기 위해 경계 표현을 사용한다. 이들 표면 요소는 비 균일 합리적인 기본 스플라인(NURBS) (STL 데이터 포함)을 사용하여 정확하게 표현된다.
제11 단계(S11)는 컴포넌트가 제1 유형인지 또는 제2 유형인지를 결정함을 포함하는 것이 바람직하다;
- 첫 번째 유형은 볼트 등과 같은 표준 컴포넌트를 포함한다. 제1 유형은 비교적 간단한 특징을 갖는 컴포넌트를 포함할 수도 있다. 예를 들어, 도 11에 도시된 컴포넌트(629) (즉, 허브)는 비교적 단순한 단면을 갖는 일반적으로 원통형 대칭이다.
- 제2 유형의 컴포넌트는 도 11에 도시된 컴포넌트 (621) (즉, 너클)와 같이 비 표준 및/또는 비교적 복잡하다.
상기 결정은 STL 데이터가 제1 유형의 컴포넌트(이하, 표준 컴포넌트라 함)를 나타내는 임의의 저장된 데이터와 일치하는지 여부에 기초하여 결정될 수 있다.
컴포넌트가 제1 유형인 경우, CAD 데이터는 주로 2D 데이터(22)로부터 얻어진다. 예를 들어, 특정 표준 컴포넌트는 치수 데이터(22c)로부터 획득될 수 있는 비교적 적은 수의 파라미터(예를 들어, 치수)를 사용하여, 저장된 일반 모델로부터 생성 될 수 있다.
컴포넌트가 제2 유형인 경우, STL 데이터 및 2D 데이터(22)를 사용하여 CAD 데이터가 얻어진다. 특히, STL 데이터에 의해 표현되는 컴포넌트의 표면 상에 표면 세트(예를 들어, NURBS 표면)가 생성 된다. 이들 표면의 치수 중 적어도 일부는 바람직하게 치수 데이터(22c)를 사용하여 조정된다.
전술 한 바와 같이, 선행 단계(S11)(및 다른 단계들)은 물체(5) 내의 각각의 서브 어셈블리 및 각각의 서브 어셈블리내의 각 컴포넌트에 대해 수행된다. 따라서, 물체(5) 내의 각 컴포넌트에 대한 CAD 데이터가 얻어진다.
도 11을 참조하면, 서브 어셈블리(61) (즉, 코너 모듈)의 복수의 상이한 컴포넌트 (621,..6216)에 대한 CAD 데이터가 일례로서 도시된다.
제12 단계
제12 공정(S12)에서, 물체(5)의 각 컴포넌트의 CAD 데이터가 모아져서, 물체(5)의 CAD 데이터가 취득된다.
전술 한 바와 같이, 데이터를 분할 할 때 등, 관련 요소의 위치를 기술하는 데이터가 적절하게 유지되어 조립을 용이하게 한다. 그럼에도 불구하고 더 많은 단계가 필요할 수 있다. 예를 들어, 상이한 서브 어셈블리들에 대한 별도의 처리로 인해, 서브 어셈블리들의 정확한 재접속은 예를 들어 공통 기준점 등을 기본으로 하여 추가적인 동작들을 필요로할 수 있다.
전체 개관
특히 도 4를 참조하면, 본원 발명 방법의 몇몇 단계 및 특징은 다음과 같다:
- 다중 - 컴포넌트 물체에 대한 x 선 데이터(X2)를 얻는 단계;
- 물체의 적어도 제1 및 제2 3D 표현(X3-H, X3-M)을 획득하기 위해 상기 x선 데이터(X2) 를 처리하는 단계 - 상기 제1 및 제2 3D 표현은 각각 제1 및 제2 해상도(H) (M)를 가지며 제1 해상도(H) 가 제2 해상도(M)보다 높음;
- 상기 제2 3D 표현(X3-M)의 복수의 영역(X311, X312, ?)들을 식별하는 단계로서, 각각의 영역(X311, X312, ?)은 상기 물체의 복수의 컴포넌트들 중 하나에 대응하며, 적어도:
- 상기 제2 3D 표현(X3-M)의 복수의 초기 영역을 식별하는 단계 - 각각의 초기 영역은 복수의 픽셀 값 범위(Ti) 중 하나의 픽셀 값을 가짐 -; 및
- 상기 초기 영역과, 상기 제1 3D 표현(X3-H)으로부터 획득된 상기 물체의 적어도 일부의 하나 이상의 2D 섹션으로부터 유도된 하나 이상의 특징(Di) 간의 비교에 기초하여 상기 복수의 초기 영역 각 각을 선택적으로 조정하는 단계에 의해 복수의 영역들을 식별하는 단계; 그리고
- 상기 제1 3D 표현(X3-H)으로부터 획득된 상기 물체의 적어도 일부의 하나 이상의 2D 섹션으로부터 유도된 하나 이상의 특징(Di)들에 기초하거나 상응하는 한 영역(X311, X312, ?)에 기초하여 상기 컴포넌트의 3D 모델(M211, M212, ?)을, 다수의 컴포넌트 각각에 대하여 획득하는 단계.
기타 수정
전술 한 실시 예에 대한 많은 다른 수정이 가해질 수 있음을 이해할 것이다.
예를 들어, 컴퓨터 시스템(6)은 다를 수 있고, 예를 들어, 이들 각각은 도 2와 관련하여 위에서 설명된 바와 같은 클라우드 컴퓨팅 시스템, 컴퓨터 클러스터 등일 수 있다. 컴퓨터 시스템(6)은 함께 작동하여 임의의 적합한 방식으로 방법을 수행 할 수 있다. 데이터는 적절한 방법으로 컴퓨터 시스템(6)을 통해 이동되어 저장될 수 있다.
다중 해상도 3D x선 데이터는 더 적은 (즉, 2개의) 상이한 해상도를 포함할 수 있다. 예를 들어, 저 해상도 데이터를 사용하지 않고 서브 셋을 얻을 수 있다. 다중 해상도 3D x선 데이터는 더 많은 수의 상이한 해상도를 포함할 수 있다. 예를 들어, 상기 방법 및/또는 특정 컴포넌트의 특정 단계는 상술한 것과 다른 해상도를 사용함으로써 이익을 얻을 수 있다. 예를 들어, 초 고해상도 데이터는 특정 경우에 유용할 수 있다.
상기 방법은 더욱 적은 단계들을 포함한다. 예를 들어, 제3, 제4, 제5, 제9, 제11 및 제12 단계(S3, S4, S5, S9, S11, S12)가 생략될 수 있다. 상기 방법은 추가 단계, 예를 들어, 추가 처리 또는 확인 단계를 포함한다.
단일 범위를 정의하는 임계 값의 쌍 대신 여러 범위를 정의하는 임계 값 집합을 사용하여 단일 컴포넌트를 선택할 수 있다.
3D x선 데이터를 컴포넌트 서브 셋으로 분할하고, 이들을 STL 데이터로 변환하는 대신에, 3D x선 데이터(예를 들어, 서브 어셈블리에 대한) 는 STL 데이터로 변환될 수 있고 STL 데이터는 분할될 수 있다.
상기 방법은 최종 3D 모델(예를 들어, CAD) 데이터가 아닌, 최초 3D 모델 (예를 들어, STL) 데이터를 얻기 위한 것일 뿐이다.

Claims (23)

  1. 다중 - 컴포넌트 물체에 대한 x 선 데이터를 얻는 단계;
    물체의 적어도 제1 및 제2 3D 표현을 획득하기 위해 상기 x선 데이터를 처리하는 단계 - 상기 제1 및 제2 3D 표현은 각각 제1 및 제2 해상도를 가지며 제1 해상도가 제2 해상도보다 높음;
    상기 제2 3D 표현의 복수의 영역들을 식별하는 단계로서, 각각의 영역은 상기 물체의 복수의 컴포넌트들 중 하나에 대응하며, 적어도:
    - 상기 제2 3D 표현의 복수의 초기 영역을 식별하는 단계 - 각각의 초기 영역은 복수의 픽셀 값 범위 중 하나의 픽셀 값을 가짐 -; 및
    - 상기 초기 영역과, 상기 제1 3D 표현으로부터 획득된 상기 물체의 적어도 일부의 하나 이상의 2D 섹션으로부터 유도된 하나 이상의 특징 간의 비교에 기초하여 상기 복수의 초기 영역 각각을 선택적으로 조정하는 단계에 의해 복수의 영역들을 식별하는 단계; 그리고
    상기 제1 3D 표현으로부터 획득된 상기 물체의 적어도 일부의 하나 이상의 2D 섹션으로부터 유도된 하나 이상의 특징들에 기초하거나 상응하는 한 영역에 기초하여 상기 컴포넌트의 3D 모델을, 다수의 컴포넌트 각각에 대하여 획득하는 단계를 포함함을 특징으로 하는 방법.
  2. 제1 항에 있어서, 상기 복수의 컴포넌트의 3D 모델을 어셈블링하여 상기 물체의 컴포넌트 - 분석된 3D 모델을 획득하는 단계를 더욱 포함함을 특징으로 하는 방법.
  3. 제1 항 또는 제2 항에 있어서, 상기 제1 및 제2 3D 표현을 복수의 작업 영역으로 분할하는 단계; 그리고 상기 복수의 작업 영역 각 각에서 상기 복수의 영역을 식별하는 단계를 포함함을 특징으로 하는 방법.
  4. 제3 항에 있어서, 상기 제2 해상도보다 낮은 제3 해상도를 갖는 상기 물체의 제3 3D 표현에 기초하여 상기 제1 및 제2 3D 표현을 분할하는 단계를 더 포함함을 특징으로 하는 방법.
  5. 전술한 항 중 어느 한 항에 있어서, 상기 x 선 데이터의 처리는 해상도를 단계적으로 증가시키는 단계를 포함하고, 상기 제1 표현은 상기 제2 표현보다 후속 단계에서 얻어짐을 특징으로 하는 방법.
  6. 전술한 항 중 어느 한 항에 있어서, 상기 복수의 초기 영역 각각을 식별하는 단계는 상기 물체 내의 특정 재료에 관련된 픽셀 값의 범위를 결정하는 단계를 포함함을 특징으로 하는 방법.
  7. 전술한 항 중 어느 한 항에 있어서, 하나 이상의 2D 섹션 각각에 대한 평면을 결정하는 단계; 상기 하나 이상의 2D 섹션 각각을 결정하는 단계; 그리고 하나 이상의 2D 섹션들 각각으로부터 하나 이상의 특징들을 도출하는 단계를 포함함을 특징으로 하는 방법.
  8. 제7 항에 있어서, 적어도 하나의 평면은 상기 물체의 서브 어셈블리의 중간 면에 대응하는 것임을 특징으로 하는 방법.
  9. 제7 항 또는 제8 항에 있어서, 하나 이상의 2D 섹션 각 각으로부터 하나 이상의 특징을 유도하는 단계는 상기 2D 섹션으로부터 벡터 그래픽을 유도하는 단계를 포함함을 특징으로 하는 방법.
  10. 전술한 항 중 어느 한 항에 있어서, 상기 하나 이상의 특징은, 에지 및/또는 2D 영역의 컴포넌트 영역; 및/또는 2D 섹션 내 컴포넌트 치수를 포함함을 특징으로 하는 방법.
  11. 전술한 항 중 어느 한 항에 있어서, 상기 복수의 초기 영역 각각의 상기 선택적 조정은 상기 초기 영역이 2 이상의 컴포넌트를 포함하는지를 결정하는 단계를 포함함을 특징으로 하는 방법.
  12. 제11 항에 있어서, 제10항에 따라 상기 초기 영역이 둘 이상의 컴포넌트를 포함하는지 여부를 결정하는 단계는 상기 초기 영역이 임의의 에지를 크로스 하는지 및/또는 임의의 2 개 이상의 영역을 점유 하는지를 결정하는 단계를 포함함을 특징으로 하는 방법.
  13. 전술한 항 중 어느 한 항에 있어서, 상기 복수의 초기 영역 각각의 선택적인 조정이 상기 초기 영역을 2 이상의 중간 영역 또는 영역으로 선택적으로 분할하는 단계를 포 포함함을 특징으로 하는 방법.
  14. 제13 항에 있어서, 제10항에 따라 상기 분할 단계는 에지 및/또는 영역에 기초함을 특징으로 하는 방법.
  15. 전술한 항 중 어느 한 항에 있어서, 상기 복수의 컴포넌트 각각의 상기 3D 모델을 획득하는 단계는: 상기 컴포넌트가 제1 유형의 컴포넌트에 대응 하는지를 결정하는 단계; 긍정적인 결정에 응답하여, 다음 모델과 컴포넌트 치수를 기초로 하여 상기 컴포넌트의 3D 모델을 획득하는 단계를 포함함을 특징으로 하는 방법.
    - 상기 제1 유형의 컴포넌트에 대한 소정의 3D 모델; 그리고
    - 하나 이상의 2D 섹션으로부터 획득한 컴포넌트의 하나 이상의 치수.
  16. 전술한 항 중 어느 한 항에 있어서, 상기 복수의 컴포넌트 각각의 상기 3D 모델을 획득하는 단계는, 상기 제1 3D 표현을 중간 3D 모델로 변환하는 단계 - 상기 중간 3D 모델은 메쉬 모델에 대응함- 를 포함함을 특징으로 하는 방법.
  17. 제16 항에 있어서, 상기 복수의 컴포넌트 각각의 상기 3D 모델을 획득하는 단계는, 상기 컴포넌트가 제2 유형의 컴포넌트에 대응 하는지를 결정하고; 그리고
    긍정적인 결정에 응답하여, 상기 중간 3D 모델을 상기 컴포넌트의 3D 모델로 변환함을 포함함을 특징으로 하는 방법.
  18. 전술한 항 중 어느 한 항에 있어서, 상기 x 선 데이터는 약 9MeV의 에너지를 갖는 적어도 하나의 x 선을 사용하여 획득되고, 및/또는 상기 물체 내의 상기 복수의 컴포넌트는 적어도 10,000 개의 컴포넌트에 대응하는 것임을 특징으로 하는 방법.
  19. 전술한 항 중 어느 한 항에 따른 방법을 수행하기 위한 컴퓨터.
  20. 전술한 항 중 어느 한 항에 따른 방법을 수행함으로써 획득된 물체의 컴포넌트 - 분석된 3D 모델을 포함하는 데이터 구조.
  21. 제19 항에 따른 컴퓨터 프로그램 및/또는 제20 항에 따른 데이터 구조를 포함하는 비-일시적인 컴퓨터 판독 가능 매체.
  22. 제1 항 내지 제18 항 중 어느 한 항에 따른 방법을 수행하도록 구성된 컴퓨터 시스템.
  23. x 선 데이터를 제공하도록 구성된 디바이스; 그리고
    상기 x 선 데이터를 획득하도록 구성된 제22 항에 따른 컴퓨터를 포함하는 시스템.
KR1020197023156A 2017-01-09 2018-01-09 물체의 복수의 컴포넌트의 3차원 모델 데이터를 구하는 방법 KR102473298B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1700352.6A GB2558605B8 (en) 2017-01-09 2017-01-09 Methodology to extract 3D CAD from CT Scan Output
GB1700352.6 2017-01-09
PCT/GB2018/050050 WO2018127715A1 (en) 2017-01-09 2018-01-09 Method of obtaining 3d model data of a plurality of components of an object

Publications (2)

Publication Number Publication Date
KR20190104581A true KR20190104581A (ko) 2019-09-10
KR102473298B1 KR102473298B1 (ko) 2022-12-01

Family

ID=58463731

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197023156A KR102473298B1 (ko) 2017-01-09 2018-01-09 물체의 복수의 컴포넌트의 3차원 모델 데이터를 구하는 방법

Country Status (10)

Country Link
US (1) US11475627B2 (ko)
EP (1) EP3566205B1 (ko)
JP (1) JP7078642B2 (ko)
KR (1) KR102473298B1 (ko)
CN (1) CN110268441B (ko)
BR (1) BR112019014229A2 (ko)
CA (1) CA3049625A1 (ko)
EA (1) EA201991678A1 (ko)
GB (1) GB2558605B8 (ko)
WO (1) WO2018127715A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019103429A1 (de) * 2019-02-12 2020-08-13 Volume Graphics Gmbh Computerimplementiertes Verfahren zur Bestimmung von Oberflächen in Messdaten
EP3786899A1 (en) 2019-08-28 2021-03-03 SO REAL Digital Twins AG A computer-implemented method for generating a 3-dimensional wireframe model of an object comprising a plurality of parts
WO2022007792A1 (zh) * 2020-07-06 2022-01-13 先临三维科技股份有限公司 生成数字化模型的方法及装置
CN113177932B (zh) * 2021-05-19 2023-08-04 北京小明智铁科技有限公司 一种工作区的划分和跟踪方法以及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056087A (ja) * 2003-08-01 2005-03-03 Toyota Motor Corp 鋳造内部欠陥検査支援装置及び方法
KR20110005693A (ko) * 2008-03-28 2011-01-18 록히드 마틴 코포레이션 부품 포즈를 나타내는 점 데이터에 3차원 모델을 정합시키기 위한 시스템, 프로그램물, 및 관계된 방법들
KR20110120686A (ko) * 2010-04-29 2011-11-04 주식회사 쓰리디산업영상 레퍼런스 정보를 이용한 부품의 내부 결함 검사 방법 및 그 시스템
US20160042554A1 (en) * 2014-08-05 2016-02-11 Samsung Electronics Co., Ltd. Method and apparatus for generating real three-dimensional (3d) image
KR20160038021A (ko) * 2013-07-31 2016-04-06 제네럴 일렉트릭 컴퍼니 멀티 슬라이스 촬영 시스템의 개선된 공간 해상도를 위한 시스템 및 방법
WO2016116946A2 (en) * 2015-01-20 2016-07-28 Indian Institute Of Technology, Bombay A system and method for obtaining 3-dimensional images using conventional 2-dimensional x-ray images
US20190069857A1 (en) * 2017-09-05 2019-03-07 Canon Medical Systems Corporation X-ray computed tomography apparatus

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022964A (ja) 1999-06-25 2001-01-26 Terarikon Inc 三次元画像表示装置
US7734119B2 (en) * 2004-09-21 2010-06-08 General Electric Company Method and system for progressive multi-resolution three-dimensional image reconstruction using region of interest information
US7215730B2 (en) * 2004-12-30 2007-05-08 Ge Healthcare Finland Oy Method and arrangement for multiresolutive reconstruction for medical X-ray imaging
US7489825B2 (en) * 2005-07-13 2009-02-10 Ge Medical Systems Method and apparatus for creating a multi-resolution framework for improving medical imaging workflow
JP5010961B2 (ja) 2007-04-05 2012-08-29 株式会社東芝 画像処理装置及び画像処理方法
JPWO2009078415A1 (ja) * 2007-12-17 2011-04-28 株式会社ユニハイトシステム X線検査装置および方法
WO2013012070A1 (ja) * 2011-07-20 2013-01-24 株式会社東芝 画像処理システム、装置、方法及び医用画像診断装置
US9709513B2 (en) * 2014-09-30 2017-07-18 Hexagon Metrology, Inc. System and method for measuring an object using X-ray projections
US20180213201A1 (en) * 2015-07-21 2018-07-26 Heptagon Micro Optics Pte. Ltd. Generating a disparity map based on stereo images of a scene
US10302807B2 (en) 2016-02-22 2019-05-28 Rapiscan Systems, Inc. Systems and methods for detecting threats and contraband in cargo

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056087A (ja) * 2003-08-01 2005-03-03 Toyota Motor Corp 鋳造内部欠陥検査支援装置及び方法
KR20110005693A (ko) * 2008-03-28 2011-01-18 록히드 마틴 코포레이션 부품 포즈를 나타내는 점 데이터에 3차원 모델을 정합시키기 위한 시스템, 프로그램물, 및 관계된 방법들
KR20110120686A (ko) * 2010-04-29 2011-11-04 주식회사 쓰리디산업영상 레퍼런스 정보를 이용한 부품의 내부 결함 검사 방법 및 그 시스템
KR20160038021A (ko) * 2013-07-31 2016-04-06 제네럴 일렉트릭 컴퍼니 멀티 슬라이스 촬영 시스템의 개선된 공간 해상도를 위한 시스템 및 방법
US20160042554A1 (en) * 2014-08-05 2016-02-11 Samsung Electronics Co., Ltd. Method and apparatus for generating real three-dimensional (3d) image
WO2016116946A2 (en) * 2015-01-20 2016-07-28 Indian Institute Of Technology, Bombay A system and method for obtaining 3-dimensional images using conventional 2-dimensional x-ray images
US20190069857A1 (en) * 2017-09-05 2019-03-07 Canon Medical Systems Corporation X-ray computed tomography apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
North Star Imaging, "Computed Tomography in the Casting Industry", NDT INDUSTRY NEWS, UPDATES AND ANNOUNCEMENTS(2016.03.03)* *

Also Published As

Publication number Publication date
GB2558605B8 (en) 2022-02-23
KR102473298B1 (ko) 2022-12-01
GB2558605A8 (en) 2022-02-23
JP7078642B2 (ja) 2022-05-31
WO2018127715A1 (en) 2018-07-12
US11475627B2 (en) 2022-10-18
GB2558605A (en) 2018-07-18
US20210142556A1 (en) 2021-05-13
EA201991678A1 (ru) 2019-12-30
CN110268441B (zh) 2024-02-02
CN110268441A (zh) 2019-09-20
BR112019014229A2 (pt) 2020-03-17
GB2558605B (en) 2021-11-10
EP3566205B1 (en) 2024-03-06
JP2020504412A (ja) 2020-02-06
GB201700352D0 (en) 2017-02-22
CA3049625A1 (en) 2018-07-12
EP3566205A1 (en) 2019-11-13

Similar Documents

Publication Publication Date Title
US11039805B2 (en) Deep learning based estimation of data for use in tomographic reconstruction
KR102473298B1 (ko) 물체의 복수의 컴포넌트의 3차원 모델 데이터를 구하는 방법
US7356174B2 (en) Contraband detection system and method using variance data
US8180138B2 (en) Method and system for inspection of containers
US20110182495A1 (en) System and method for automatic defect recognition of an inspection image
AU2013343203B2 (en) Method for processing an image
KR20110097670A (ko) 보정 및 재구성된 컴퓨터 단층 이미지를 제공하는 방법
CN110223376B (zh) 一种基于单幅堆积颗粒材料图像的三维颗粒重建方法
CN114693660B (zh) 一种基于ict的固体火箭发动机装药计算网格生成方法
CN115136192A (zh) 对模型的输入实例的分布外检测
Presenti et al. Dynamic few-view X-ray imaging for inspection of CAD-based objects
CN113077391B (zh) 校正扫描图像的方法和装置以及图像扫描系统
Johari et al. Metal artifact suppression in dental cone beam computed tomography images using image processing techniques
JP7200647B2 (ja) データ処理方法、データ処理装置、およびデータ処理プログラム
Ohtake et al. Thickness-Driven Sheet Metal Segmentation of CT-Scanned Body-in-White
Fourrier et al. Automated conformal mesh generation chain for woven composites based on CT-scan images with low contrasts
Roelandts et al. The reconstructed residual error: A novel segmentation evaluation measure for reconstructed images in tomography
CN101529466A (zh) 改进的分割
Biradar et al. Computer aided detection (cad) system for automatic pulmonary nodule detection in lungs in ct scans
US20220378383A1 (en) Target area determination method and medical imaging system
CN110223249B (zh) 基于模糊聚类的土壤孔隙三维分割方法及系统
Blumensath et al. Machine Learning Based 3D XCT Image Enhancement for the Inspection of AM Metal Components using Limited X-ray Measurements
CN116542876A (zh) 扫描图像的伪影去除方法、装置、计算机设备及存储介质
Roelandts et al. Visualizing the Segmentation Error of a Tomogram using the Residual Projection Error

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant