KR20170019430A - 목표 물체의 증상 데이터를 획득하기 위한 방법, 장치, 및 단말 - Google Patents

목표 물체의 증상 데이터를 획득하기 위한 방법, 장치, 및 단말 Download PDF

Info

Publication number
KR20170019430A
KR20170019430A KR1020177001223A KR20177001223A KR20170019430A KR 20170019430 A KR20170019430 A KR 20170019430A KR 1020177001223 A KR1020177001223 A KR 1020177001223A KR 20177001223 A KR20177001223 A KR 20177001223A KR 20170019430 A KR20170019430 A KR 20170019430A
Authority
KR
South Korea
Prior art keywords
target object
pixel
depth
model
depth image
Prior art date
Application number
KR1020177001223A
Other languages
English (en)
Other versions
KR101922039B1 (ko
Inventor
웨이동 탕
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20170019430A publication Critical patent/KR20170019430A/ko
Application granted granted Critical
Publication of KR101922039B1 publication Critical patent/KR101922039B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Vascular Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명의 실시예는 목표 물체의 증상 데이터(sign data)를 획득하는 방법을 제공하며, 상기 방법은, 목표 물체의 3D 심도 영상(depth image)을 획득하는 단계 - 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함함 - ; 상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득하는 단계 - 상기 심도 값은 상기 목표 물체 상의 포인트와 상기 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리임 - ; 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하는 단계; 상기 목표 물체의 적어도 하나의 실제 크기를 획득하는 단계; 및 상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터를 획득하는 단계를 포함한다. 그러므로 사용자에 대해 "보는 대로 얻는다"의 경험이 구현된다.

Description

목표 물체의 증상 데이터를 획득하기 위한 방법, 장치 및 단말{METHOD, APPARATUS AND TERMINAL FOR ACQUIRING SIGN DATA OF TARGET OBJECT}
본 발명은 데이터 획득 분야에 관한 것이며, 특히 목표 물체의 증상 데이터를 획득하기 위한 방법, 장치 및 단말에 관한 것이다.
지능형 단말에서 "보는 대로 얻는다"를 구현하는 것은 항상 대부분의 사용자들의 꿈이다. 예를 들어, 2009년 Google은 스트리트 뷰를 기반으로 하는 내비게이션 및 위치 정보 서비스 "Google Maps Navigation"을 발표하였다. 그렇지만, 이 서비스는 배경이 강한 지리 영상 데이터, 검색 및 산출 기능 및 유비쿼터스 고속 네트워크 링크로 지원되어야 하며, 네트워크 커버리지가 좁은 많은 지역에서는 이러한 서비스를 거의 구현할 수 없다.
본 발명의 실시예는 목표 물체의 증상 데이터를 획득하기 위한 방법, 장치 및 단말을 제공한다. 목표 물체의 촬영 영상으로부터 목표 물체의 패턴 및 프레임워크를 복원하고, 다양한 로컬 또는 클라우드 검색 애플리케이션을 참조하여 목표 물체의 증상 데이터를 사용자에게 제시하여, 사용자에 대해 "보는 대로 얻는다"의 경험을 구현한다.
제1 관점에 따라, 본 발명은 목표 물체의 증상 데이터(sign data)를 획득하는 방법을 제공하며, 상기 방법은:
목표 물체의 3D 심도 영상(depth image)을 획득하는 단계 - 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함함 - ;
상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득하는 단계 - 상기 심도 값은 상기 목표 물체 상의 포인트와 상기 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리임 - ;
상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하는 단계;
상기 목표 물체의 적어도 하나의 실제 크기를 획득하는 단계; 및
상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터를 획득하는 단계
를 포함한다.
제1 관점을 참조해서, 제1 관점의 제1 가능한 실시 방식에서, 상기 목표 물체의 3D 심도 영상을 획득하는 단계는:
상기 목표 물체에 기준 패턴을 송신하는 단계;
상기 기준 패턴이 상기 목표 물체에 의해 반사된 후에 획득된 2차 패턴을 수신하는 단계;
상기 기준 패턴에 관한 상기 2차 패턴의 오프셋 값을 산출하는 단계; 및
상기 오프셋 값에 대해 푸리에 변환을 수행함으로써 상기 거리 정보를 획득하고, 상기 거리 정보를 사용함으로써 상기 3D 심도 영상을 획득하는 단계
를 포함한다.
제1 관점 또는 제1 관점의 제1 가능한 실시 방식을 참조해서, 제1 관점의 제2 가능한 실시 방식에서,
상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라 상기 목표 물체의 그래픽 윤곽을 획득하는 단계는:
상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계
를 포함하고,
구체적으로, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하는 단계는,
상기 3차원 심도 영상에서의 제1 픽셀의 픽셀 심도 값과 제1 픽셀에 연결된 4개의 인접 픽셀 각각의 픽셀 심도 값 사이의 심도 값 차분을 산출하여 4개의 제1 심도 차분 값을 획득하는 단계;
상기 4개의 제1 심도 차분 값 중 적어도 하나의 제1 심도 차분 값이 제1 차분 임계값보다 클 때, 상기 적어도 하나의 제1 심도 차분 값에 대응하는 인접 픽셀을 윤곽 위치로 마킹하는 단계;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하는지를 질문하는 단계;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하면, 상기 제2 픽셀의 픽셀 심도 값과 상기 제2 픽셀과 연결되어 있는 8개의 인접 픽셀 중 비 윤곽 위치인 픽셀의 픽셀 심도 값 간의 차분 산출을 개별적으로 수행하여 제2 심도 차분 값을 획득하는 단계;
상기 제2 심도 차분 값 중 적어도 하나가 제2 차분 임계값보다 클 때, 상기 제2 픽셀을 윤곽 위치로 마킹하는 단계; 및
상기 목표 물체의 그래픽 윤곽을 윤곽 위치로 표시된 픽셀에 따라 획득하는 단계
를 포함한다.
제1 관점 내지 제1 관점의 제2 가능한 실시 방식 중 임의의 가능한 실시 방식을 참조해서, 제1 관점의 제3 가능한 실시 방식에서,
상기 목표 물체의 3D 심도 영상을 획득하는 단계 이후에, 상기 목표 물체의 증상 데이터를 획득하는 방법은:
상기 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하는 단계
를 더 포함하고,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계는,
상기 제1 3D 목표 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계
를 포함한다.
제1 관점의 제3 가능한 실시 방식을 참조해서, 제1 관점의 제4 가능한 실시 방식에서, 상기 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하는 단계는:
심도 임계값을 설정하는 단계; 및
상기 3D 심도 영상에서의 각각의 픽셀의 심도 값과 심도 임계값을 비교하고, 3D 심도 영상 중에 픽셀 심도 값이 심도 임계값보다 큰 픽셀을 필터링하며, 나머지 픽셀을 획득하여 제1 3D 목표 심도 영상을 형성하는 단계
를 포함한다.
제1 관점의 제4 가능한 실시 방식을 참조해서, 제1 관점의 제5 가능한 실시 방식에서, 상기 제1 3D 목표 심도 영상을 획득하는 단계 이후에, 상기 목표 물체의 증상 데이터를 획득하는 방법은:
상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하는 단계
를 더 포함하고,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계는:
상기 제2 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계
를 포함한다.
제1 관점의 제5 가능한 실시 방식을 참조해서, 제1 관점의 제6 가능한 실시 방식에서, 상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하는 단계는:
상기 제1 3D 목표 심도 영상을 복수의 픽셀 블록으로 분할하는 단계;
픽셀 심도 세그먼트 간격을 설정하는 단계;
각각의 픽셀 블록 내의 모든 픽셀의 픽셀 심도 값에 대해 평균 처리를 수행하여 각각의 픽셀 블록의 픽셀 평균값을 획득하는 단계; 및
상기 픽셀 평균값을 상기 픽셀 심도 세그먼트 간격 내의 대응하는 간격에 맵핑하고, 동일한 간격의 모든 픽셀 평균값에 대응하는 픽셀 블록을 결합하여 제2 3D 목표 심도 영상을 획득하는 단계
를 포함한다.
제1 관점 내지 제1 관점의 제6 가능한 실시 방식 중 임의의 가능한 실시 방식을 참조해서, 제1 관점의 제7 가능한 실시 방식에서, 상기 목표 물체의 3차원 심도 영상에서의 픽셀의 심도 값에 따라 상기 목표 물체의 프레임워크 파라미터를 획득하는 단계는:
상기 목표 물체의 3차원 심도 영상에서의 모든 픽셀의 픽셀 심도 값에 따라 선형 최소 제곱 법을 사용함으로써 상기 목표 물체의 중심 축을 획득하는 단계;
상기 중심 축에 수직인 복수의 제1 선을 따라 상기 목표 물체의 그래픽 윤곽의 횡방향 두께를 산출하는 단계;
상기 중심 축에 평행한 복수의 제2 선을 따라 상기 목표 물체의 그래픽 윤곽의 종방향 두께를 산출하는 단계; 및
상기 제1 선 및 상기 제2 선에 의해 한정되는 영역을 사용함으로써 상기 목표 물체의 프레임워크를 구성하는 단계
를 포함하고,
대응하는 횡방향 두께 및 종방향의 두께는 상기 목표 물체의 프레임워크 파라미터이다.
제1 관점의 제7 가능한 실시 방식을 참조해서, 제1 관점의 제8 가능한 실시 방식에서, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하는 단계는:
상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하는 단계;
상기 3D 모델의 그래픽 윤곽이 상기 3D 모델의 정면 그래픽 윤곽이 아닐 때, 상기 3D 모델의 그래픽 윤곽에 따라 상기 3D 모델의 정면 그래픽 윤곽을 획득하는 단계;
상기 3D 모델의 그래픽 윤곽 및 상기 3D 모델의 정면 그래픽 윤곽에 따라 상기 3D 모델의 시야각 파라미터(visual angle parameter)를 산출하는 단계 - 상기 시야각 파라미터는 상기 3D 모델의 정면 그래픽 윤곽에 기초하는 3D 모델의 그래픽 윤곽의 시야각(visual angle)임 - ;
상기 시야각 파라미터에 기초하여 상기 3D 모델의 정면 그래픽 윤곽을 회전시켜 상기 3D 모델의 프레임워크 파라미터를 획득하는 단계;
비교에 의해, 상기 목표 물체의 프레임워크 파라미터와 상기 3D 모델의 프레임워크 파라미터 사이의 유사도(similarity)를 획득하는 단계 - 상기 유사도가 미리 설정된 값보다 작으면, 상기 3D 모델은 상기 목표 물체의 상기 프레임워크 파라미터 및 상기 프레임워크 파라미터에 정합하는 3D 모델임 - ; 및
상기 3D 모델을 사용함으로써 상기 3차원 모델의 파라미터 비율을 획득하는 단계
를 포함한다.
제1 관점의 제8 가능한 실시 방식을 참조해서, 제1 관점의 제9 가능한 실시 방식에서, 상기 3D 모델 라이브러리는 상기 3D 모델의 모든 시야각의 그래픽 윤곽을 포함하고, 적어도 상기 3D 모델의 정면 그래픽 윤곽을 포함한다.
제1 관점의 제9 가능한 실시 방식을 참조해서, 제1 관점의 제10 가능한 실시 방식에서, 상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하는 단계는:
제르니케 모멘트 디스크립터 및 푸리에 디스크립터를 사용함으로써 제1 디스크립션 정보를 획득하는 단계;
상기 제르니케 모멘트 디스크립터 및 상기 푸리에 디스크립터를 사용함으로써 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽을 서술하여 제2 디스크립션 정보를 획득하는 단계; 및
상기 제1 디스크립션 정보와 상기 제2 디스크립션 정보를 비교하고, 상기 제1 디스크립션 정보와 미리 설정된 임계값만큼 상이한 제2 디스크립션 정보에 대응하는 3D 모델의 그래픽 윤곽을 상기 최고 정합도를 가지는 3D 모델의 그래픽 윤곽으로 사용하는 단계
를 포함한다.
제1 관점 내지 제1 관점의 제10 가능한 실시 방식 중 임의의 가능한 실시 방식을 참조해서, 제1 관점의 제11 가능한 실시 방식에서, 상기 목표 물체의 적어도 하나의 실제 크기를 획득하는 단계는:
상기 목표 물체에 음파 신호를 송신하는 단계;
상기 목표 물체에 의해 반사된 음파 신호를 수신하는 단계;
상기 음파 신호의 전송 시간을 획득하는 단계 - 상기 전송 시간은 상기 음파 신호를 송신하는 시각과 상기 음파 신호를 수신하는 시각과의 차분임 -;
상기 전송 시간과 상기 음파 신호의 전파 속도를 사용함으로써 상기 목표 물체의 표면과 상기 촬영 장치와의 거리를 산출하는 단계; 및
상기 거리 및 상기 촬영 장치의 영상 거리를 사용함으로써 상기 목표 물체의 적어도 하나의 실제 크기를 산출하는 단계
를 포함한다.
제2 관점에 따라, 본 발명은 목표 물체의 증상 데이터를 획득하는 장치를 제공하며, 상기 장치는:
목표 물체의 3D 심도 영상(depth image)을 획득하도록 구성되어 있는 촬영 모듈 - 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함함 - ;
상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득하도록 구성되어 있는 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈 - 상기 심도 값은 상기 목표 물체 상의 포인트와 상기 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리임 - ;
상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하도록 구성되어 있는 파라미터 비율 획득 모듈;
상기 목표 물체의 적어도 하나의 실제 크기를 획득하도록 구성되어 있는 실제 크기 획득 모듈; 및
상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터를 획득하도록 구성되어 있는 증상 데이터 획득 모듈
을 포함한다.
제2 관점을 참조해서, 제2 관점의 제1 가능한 실시 방식에서, 상기 촬영 모듈은:
상기 목표 물체에 기준 패턴을 송신하도록 구성되어 있는 송신 유닛;
상기 기준 패턴이 상기 목표 물체에 의해 반사된 후에 획득된 2차 패턴을 수신하도록 구성되어 있는 수신 유닛;
상기 기준 패턴에 관한 상기 2차 패턴의 오프셋 값을 산출하도록 구성되어 있는 산출 유닛; 및
상기 오프셋 값에 대해 푸리에 변환을 수행함으로써 상기 거리 정보를 획득하고, 상기 거리 정보를 사용함으로써 상기 3D 심도 영상을 획득하도록 구성되어 있는 영상 획득 유닛
을 포함한다.
제2 관점 또는 제2 관점의 제1 가능한 실시 방식을 참조해서, 제2 관점의 제2 가능한 실시 방식에서, 상기 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈은 구체적으로,
상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하도록 구성되어 있으며,
구체적으로, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하는 것은,
상기 3차원 심도 영상에서의 제1 픽셀의 픽셀 심도 값과 제1 픽셀에 연결된 4개의 인접 픽셀 각각의 픽셀 심도 값 사이의 심도 값 차분을 산출하여 4개의 제1 심도 차분 값을 획득하는 것;
상기 4개의 제1 심도 차분 값 중 적어도 하나의 제1 심도 차분 값이 제1 차분 임계값보다 클 때, 상기 적어도 하나의 제1 심도 차분 값에 대응하는 인접 픽셀을 윤곽 위치로 마킹하는 것;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하는지를 질문하는 것;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하면, 상기 제2 픽셀의 픽셀 심도 값과 상기 제2 픽셀과 연결되어 있는 8개의 인접 픽셀 중 비 윤곽 위치인 픽셀의 픽셀 심도 값 간의 차분 산출을 개별적으로 수행하여 제2 심도 차분 값을 획득하는 것;
상기 제2 심도 차분 값 중 적어도 하나가 제2 차분 임계값보다 클 때, 상기 제2 픽셀을 윤곽 위치로 마킹하는 것; 및
상기 목표 물체의 그래픽 윤곽을 윤곽 위치로 표시된 픽셀에 따라 획득하는 것
을 포함한다.
제2 관점 내지 제2 관점의 제2 가능한 실시 방식 중 임의의 가능한 실시 방식을 참조해서, 제2 관점의 제3 가능한 실시 방식에서, 상기 장치는 잡음 감소 모듈을 더 포함하며,
상기 잡음 감소 모듈은,
상기 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하도록 구성되어 있으며,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은,
상기 제1 3D 목표 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
을 포함한다.
제2 관점의 제3 가능한 실시 방식을 참조해서, 제2 관점의 제4 가능한 실시 방식에서, 상기 잡음 감소 모듈은 구체적으로:
심도 임계값을 설정하고, 그리고
상기 3D 심도 영상에서의 각각의 픽셀의 심도 값과 심도 임계값을 비교하고, 3D 심도 영상에 존재하면서 픽셀 심도 값이 심도 임계값보다 큰 픽셀을 필터링하며, 나머지 픽셀을 획득하여 제1 3D 목표 심도 영상을 형성하도록 구성되어 있다.
제2 관점의 제4 가능한 실시 방식을 참조해서, 제2 관점의 제5 가능한 실시 방식에서, 상기 잡음 감소 모듈은 구체적으로:
상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하도록 추가로 구성되어 있으며,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은,
상기 제2 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
을 포함한다.
제2 관점의 제5 가능한 실시 방식을 참조해서, 제2 관점의 제6 가능한 실시 방식에서, 상기 잡음 감소 모듈은 구체적으로:
상기 제1 3D 목표 심도 영상을 복수의 픽셀 블록으로 분할하고,
픽셀 심도 세그먼트 간격을 설정하고,
각각의 픽셀 블록 내의 모든 픽셀의 픽셀 심도 값에 대해 평균 처리를 수행하여 각각의 픽셀 블록의 픽셀 평균값을 획득하며, 그리고
상기 픽셀 평균값을 상기 픽셀 심도 세그먼트 간격 내의 대응하는 간격에 맵핑하고, 동일한 간격의 모든 픽셀 평균값에 대응하는 픽셀 블록을 결합하여 제2 3D 목표 심도 영상을 획득하도록 구성되어 있다.
제2 관점 내지 제2 관점의 제6 가능한 실시 방식 중 임의의 가능한 실시 방식을 참조해서, 제2 관점의 제7 가능한 실시 방식에서, 상기 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈은 구체적으로:
상기 목표 물체의 3차원 심도 영상에서의 모든 픽셀의 픽셀 심도 값에 따라 선형 최소 제곱 법을 사용함으로써 상기 목표 물체의 중심 축을 획득하고,
상기 중심 축에 수직인 복수의 제1 선을 따라 상기 목표 물체의 그래픽 윤곽의 횡방향 두께를 산출하고,
상기 중심 축에 평행한 복수의 제2 선을 따라 상기 목표 물체의 그래픽 윤곽의 종방향 두께를 산출하며, 그리고
상기 제1 선 및 상기 제2 선에 의해 한정되는 영역을 사용함으로써 상기 목표 물체의 프레임워크를 구성하도록 구성되어 있으며,
대응하는 횡방향 두께 및 종방향의 두께는 상기 목표 물체의 프레임워크 파라미터이다.
제2 관점의 제7 가능한 실시 방식을 참조해서, 제2 관점의 제8 가능한 실시 방식에서, 상기 파라미터 비율 획득 모듈은 구체적으로:
상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하고,
상기 3D 모델의 그래픽 윤곽이 상기 3D 모델의 정면 그래픽 윤곽이 아닐 때, 상기 3D 모델의 그래픽 윤곽에 따라 상기 3D 모델의 정면 그래픽 윤곽을 획득하고,
상기 3D 모델의 그래픽 윤곽 및 상기 3D 모델의 정면 그래픽 윤곽에 따라 상기 3D 모델의 시야각 파라미터를 산출하고 - 상기 시야각 파라미터는 상기 3D 모델의 정면 그래픽 윤곽에 기초하는 3D 모델의 그래픽 윤곽의 시야각임 - ;
상기 시야각 파라미터에 기초하여 상기 3D 모델의 정면 그래픽 윤곽을 회전시켜 상기 3D 모델의 프레임워크 파라미터를 획득하고,
비교에 의해, 상기 목표 물체의 프레임워크 파라미터와 상기 3D 모델의 프레임워크 파라미터 사이의 유사도를 획득하며 - 상기 유사도가 미리 설정된 값보다 작으면, 상기 3D 모델은 상기 목표 물체의 상기 프레임워크 파라미터 및 상기 프레임워크 파라미터에 정합하는 3D 모델임 - , 그리고
상기 3D 모델을 사용함으로써 상기 3차원 모델의 파라미터 비율을 획득하도록 구성되어 있다.
제2 관점의 제8 가능한 실시 방식을 참조해서, 제2 관점의 제9 가능한 실시 방식에서, 상기 3D 모델 라이브러리는 상기 3D 모델의 모든 시야각의 그래픽 윤곽을 포함하고, 적어도 상기 3D 모델의 정면 그래픽 윤곽을 포함한다.
제2 관점의 제9 가능한 실시 방식을 참조해서, 제2 관점의 제10 가능한 실시 방식에서, 상기 파라미터 비율 획득 모듈은 구체적으로:
제르니케 모멘트 디스크립터 및 푸리에 디스크립터를 사용함으로써 제1 디스크립션 정보를 획득하고,
상기 제르니케 모멘트 디스크립터 및 상기 푸리에 디스크립터를 사용함으로써 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽을 서술하여 제2 디스크립션 정보를 획득하며, 그리고
상기 제1 디스크립션 정보와 상기 제2 디스크립션 정보를 비교하고, 상기 제1 디스크립션 정보와 미리 설정된 임계값만큼 상이한 제2 디스크립션 정보에 대응하는 3D 모델의 그래픽 윤곽을 상기 최고 정합도를 가지는 3D 모델의 그래픽 윤곽으로 사용하도록 구성되어 있다.
제2 관점 내지 제2 관점의 제10 가능한 실시 방식 중 임의의 가능한 실시 방식을 참조해서, 제2 관점의 제11 가능한 실시 방식에서, 상기 실제 크기 획득 모듈은 구체적으로,
상기 목표 물체에 음파 신호를 송신하고,
상기 목표 물체에 의해 반사된 음파 신호를 수신하고,
상기 음파 신호의 전송 시간을 획득하고 - 상기 전송 시간은 상기 음파 신호를 송신하는 시각과 상기 음파 신호를 수신하는 시각과의 차분임 -;
상기 전송 시간과 상기 음파 신호의 전파 속도를 사용함으로써 상기 목표 물체의 표면과 상기 촬영 장치와의 거리를 산출하며, 그리고
상기 거리 및 상기 촬영 장치의 영상 거리를 사용함으로써 상기 목표 물체의 적어도 하나의 실제 크기를 산출하도록 구성되어 있다.
제3 관점에 따라, 본 발명은 목표 물체의 증상 데이터를 획득하는 단말을 제공하며, 상기 단말은:
목표 물체의 3D 심도 영상을 획득하도록 구성되어 있는 3D 센서 - 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함함 - ; 및
상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득하도록 구성되어 있는 프로세서
를 포함하며,
상기 심도 값은 상기 목표 물체 상의 포인트와 상기 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리이고,
상기 프로세서는 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하도록 추가로 구성되어 있으며,
상기 프로세서는 상기 목표 물체의 적어도 하나의 실제 크기를 획득하고 상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터를 획득하도록 추가로 구성되어 있다.
제3 관점을 참조해서, 제3 관점의 제1 가능한 실시 방식에서, 상기 3D 센서는 구체적으로:
상기 목표 물체에 기준 패턴을 송신하고,
상기 기준 패턴이 상기 목표 물체에 의해 반사된 후에 획득된 2차 패턴을 수신하고,
상기 기준 패턴에 관한 상기 2차 패턴의 오프셋 값을 산출하며, 그리고
상기 오프셋 값에 대해 푸리에 변환을 수행함으로써 상기 거리 정보를 획득하고, 상기 거리 정보를 사용함으로써 상기 3D 심도 영상을 획득하도록 구성되어 있다.
제3 관점 내지 제2 관점의 제1 가능한 실시 방식을 참조해서, 제3 관점의 제2 가능한 실시 방식에서, 상기 프로세서는 구체적으로 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하도록 구성되어 있으며,
구체적으로, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하는 것은,
상기 3차원 심도 영상에서의 제1 픽셀의 픽셀 심도 값과 제1 픽셀에 연결된 4개의 인접 픽셀 각각의 픽셀 심도 값 사이의 심도 값 차분을 산출하여 4개의 제1 심도 차분 값을 획득하는 것;
상기 4개의 제1 심도 차분 값 중 적어도 하나의 제1 심도 차분 값이 제1 차분 임계값보다 클 때, 상기 적어도 하나의 제1 심도 차분 값에 대응하는 인접 픽셀을 윤곽 위치로 마킹하는 것;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하는지를 질문하는 것;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하면, 상기 제2 픽셀의 픽셀 심도 값과 상기 제2 픽셀과 연결되어 있는 8개의 인접 픽셀 중 비 윤곽 위치인 픽셀의 픽셀 심도 값 간의 차분 산출을 개별적으로 수행하여 제2 심도 차분 값을 획득하는 것;
상기 제2 심도 차분 값 중 적어도 하나가 제2 차분 임계값보다 클 때, 상기 제2 픽셀을 윤곽 위치로 마킹하는 것; 및
상기 목표 물체의 그래픽 윤곽을 윤곽 위치로 표시된 픽셀에 따라 획득하는 것
을 포함한다.
제3 관점 내지 제3 관점의 제2 가능한 실시 방식 중 임의의 가능한 실시 방식을 참조해서, 제3 관점의 제3 가능한 실시 방식에서, 상기 프로세서는 상기 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하도록 추가로 구성되어 있으며,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은:
상기 제1 3D 목표 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
을 포함한다.
제3 관점의 제3 가능한 실시 방식을 참조해서, 제3 관점의 제4 가능한 실시 방식에서, 상기 프로세서는 구체적으로:
심도 임계값을 설정하고, 그리고
상기 3D 심도 영상에서의 각각의 픽셀의 심도 값과 심도 임계값을 비교하고, 3D 심도 영상에 존재하면서 픽셀 심도 값이 심도 임계값보다 큰 픽셀을 필터링하며, 나머지 픽셀을 획득하여 제1 3D 목표 심도 영상을 형성하도록 구성되어 있다.
제3 관점의 제4 가능한 실시 방식을 참조해서, 제3 관점의 제5 가능한 실시 방식에서, 상기 프로세서는:
상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하도록 추가로 구성되어 있으며,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은:
상기 제2 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
을 포함한다.
제3 관점의 제5 가능한 실시 방식을 참조해서, 제3 관점의 제6 가능한 실시 방식에서, 상기 프로세서는 구체적으로:
상기 제1 3D 목표 심도 영상을 복수의 픽셀 블록으로 분할하고,
픽셀 심도 세그먼트 간격을 설정하고,
각각의 픽셀 블록 내의 모든 픽셀의 픽셀 심도 값에 대해 평균 처리를 수행하여 각각의 픽셀 블록의 픽셀 평균값을 획득하며, 그리고
상기 픽셀 평균값을 상기 픽셀 심도 세그먼트 간격 내의 대응하는 간격에 맵핑하고, 동일한 간격의 모든 픽셀 평균값에 대응하는 픽셀 블록을 결합하여 제2 3D 목표 심도 영상을 획득하도록 구성되어 있다.
제3 관점 내지 제3 관점의 제6 가능한 실시 방식 중 임의의 가능한 실시 방식을 참조해서, 제3 관점의 제7 가능한 실시 방식에서, 상기 프로세서는 구체적으로:
상기 목표 물체의 3차원 심도 영상에서의 모든 픽셀의 픽셀 심도 값에 따라 선형 최소 제곱 법을 사용함으로써 상기 목표 물체의 중심 축을 획득하고,
상기 중심 축에 수직인 복수의 제1 선을 따라 상기 목표 물체의 그래픽 윤곽의 횡방향 두께를 산출하고,
상기 중심 축에 평행한 복수의 제2 선을 따라 상기 목표 물체의 그래픽 윤곽의 종방향 두께를 산출하며, 그리고
상기 제1 선 및 상기 제2 선에 의해 한정되는 영역을 사용함으로써 상기 목표 물체의 프레임워크를 구성하도록 구성되어 있으며,
대응하는 횡방향 두께 및 종방향의 두께는 상기 목표 물체의 프레임워크 파라미터이다.
제3 관점의 제7 가능한 실시 방식을 참조해서, 제3 관점의 제8 가능한 실시 방식에서, 상기 프로세서는 구체적으로:
상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하고,
상기 3D 모델의 그래픽 윤곽이 상기 3D 모델의 정면 그래픽 윤곽이 아닐 때, 상기 3D 모델의 그래픽 윤곽에 따라 상기 3D 모델의 정면 그래픽 윤곽을 획득하고,
상기 3D 모델의 그래픽 윤곽 및 상기 3D 모델의 정면 그래픽 윤곽에 따라 상기 3D 모델의 시야각 파라미터를 산출하고 - 상기 시야각 파라미터는 상기 3D 모델의 정면 그래픽 윤곽에 기초하는 3D 모델의 그래픽 윤곽의 시야각임 - ;
상기 시야각 파라미터에 기초하여 상기 3D 모델의 정면 그래픽 윤곽을 회전시켜 상기 3D 모델의 프레임워크 파라미터를 획득하고,
비교에 의해, 상기 목표 물체의 프레임워크 파라미터와 상기 3D 모델의 프레임워크 파라미터 사이의 유사도를 획득하며 - 상기 유사도가 미리 설정된 값보다 작으면, 상기 3D 모델은 상기 목표 물체의 상기 프레임워크 파라미터 및 상기 프레임워크 파라미터에 정합하는 3D 모델임 - , 그리고
상기 3D 모델을 사용함으로써 상기 3차원 모델의 파라미터 비율을 획득하도록 구성되어 있다.
제3 관점의 제8 가능한 실시 방식을 참조해서, 제3 관점의 제9 가능한 실시 방식에서, 상기 3D 모델 라이브러리는 상기 3D 모델의 모든 시야각의 그래픽 윤곽을 포함하고, 적어도 상기 3D 모델의 정면 그래픽 윤곽을 포함한다.
제3 관점의 제9 가능한 실시 방식을 참조해서, 제3 관점의 제10 가능한 실시 방식에서, 상기 프로세서는 구체적으로:
제르니케 모멘트 디스크립터 및 푸리에 디스크립터를 사용함으로써 제1 디스크립션 정보를 획득하고,
상기 제르니케 모멘트 디스크립터 및 상기 푸리에 디스크립터를 사용함으로써 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽을 서술하여 제2 디스크립션 정보를 획득하며, 그리고
상기 제1 디스크립션 정보와 상기 제2 디스크립션 정보를 비교하고, 상기 제1 디스크립션 정보와 미리 설정된 임계값만큼 상이한 제2 디스크립션 정보에 대응하는 3D 모델의 그래픽 윤곽을 상기 최고 정합도를 가지는 3D 모델의 그래픽 윤곽으로 사용하도록 구성되어 있다.
제3 관점 내지 제3 관점의 제10 가능한 실시 방식 중 임의의 가능한 실시 방식을 참조해서, 제3 관점의 제11 가능한 실시 방식에서, 상기 프로세서는 구체적으로:
상기 목표 물체에 음파 신호를 송신하고,
상기 목표 물체에 의해 반사된 음파 신호를 수신하고,
상기 음파 신호의 전송 시간을 획득하고 - 상기 전송 시간은 상기 음파 신호를 송신하는 시각과 상기 음파 신호를 수신하는 시각과의 차분임 -;
상기 전송 시간과 상기 음파 신호의 전파 속도를 사용함으로써 상기 목표 물체의 표면과 상기 촬영 장치와의 거리를 산출하며, 그리고
상기 거리 및 상기 촬영 장치의 영상 거리를 사용함으로써 상기 목표 물체의 적어도 하나의 실제 크기를 산출하도록 구성되어 있다.
본 발명의 실시예에서, 목표 물체의 3D 심도 영상(depth image)이 획득되고, 상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽이 획득되고, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델이 3D 모델 라이브러리로부터 검색되고, 상기 3D 모델의 파라미터 비율이 획득되고, 상기 목표 물체의 적어도 하나의 실제 크기가 획득되며, 이에 따라 상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터가 획득된다. 본 발명에서, 단말 및 로컬 3D 모델 라이브러리 또는 3D 모델 라이브러리를 클라우드에서 실시간으로 획득하면, 목표 물체의 증상 데이터가 사람들에게 실시간으로 제시되어 사용자의 "보는 대로 얻는다"의 꿈이 구현된다.
본 발명의 실시예의 기술적 솔루션을 더 명확하게 설명하기 위해, 이하에서는 본 발명의 실시예를 설명하는 데 필요한 첨부된 도면에 대해 간략하게 설명한다. 당연히, 이하의 실시예의 첨부된 도면은 본 발명의 일부의 실시예에 지나지 않으며, 당업자라면 창조적 노력 없이 첨부된 도면으로부터 다른 도면을 도출해낼 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 목표 물체의 증상 데이터를 획득하는 방법에 대한 개략적인 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 목표 물체의 증상 데이터를 획득하는 방법의 구체적인 단계에 대한 참고도이다.
도 3은 본 발명의 일 실시예에 따른 목표 물체의 증상 데이터를 획득하는 방법의 구체적인 단계에 대한 다른 참고도이다.
도 4는 본 발명의 일 실시예에 따른 목표 물체의 증상 데이터를 획득하는 방법의 구체적인 단계에 대한 또 다른 참고도이다.
도 5는 본 발명의 일 실시예에 따른 목표 물체의 증상 데이터를 획득하기 위한 장치의 제1 개략도이다.
도 6은 본 발명의 일 실시예에 따른 목표 물체의 증상 데이터를 획득하는 장치의 제2 구성도이다.
도 7은 본 발명의 일 실시예에 따른 목표 물체의 증상 데이터를 획득하기 위한 단말의 개략도이다.
이하에서는 본 발명의 실시예에 첨부된 도면을 참조하여 본 발명의 실시예의 기술적 솔루션에 대해 명확하고 완전하게 설명한다. 당연히, 설명된 실시예는 본 발명의 모든 실시예가 아닌 일부에 지나지 않는다. 당업자가 창조적 노력 없이 본 발명의 실시예에 기초하여 획득하는 모든 다른 실시예는 본 발명의 보호 범위 내에 있게 된다.
본 발명의 실시예는 목표 물체의 증상 데이터를 획득하는 방법을 제공한다. 목표 물체의 촬영된 영상으로부터 목표 물체의 패턴 및 프레임워크를 복원하고, 다양한 로컬 또는 클라우드 검색 애플리케이션을 참고하여 목표 물체의 증상 데이터를 사용자에게 제시함으로써 사람들의 "보는 대로 얻는다"의 꿈이 구현된다.
실시예 1
도 1을 참조하면, 도 1은 본 발명의 실시예에 따른 목표 물체의 증상 데이터를 획득하는 방법(100)에 대한 개략적인 흐름도이며, 상기 방법은 다음을 포함한다:
S101. 목표 물체의 3D 심도 영상(depth image)을 획득하고, 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함한다.
특정한 실시에서, 목표 물체는 단말의 카메라를 사용하여 촬영되고 3D 심도 영상을 획득할 수 있다. 선택적으로, 이 획득 프로세스는 다음의 방식으로 실행될 수 있다:
먼저, 단말은 전술한 목표 물체에 기준 패턴을 송신한다. 여기에서 기준 패턴에 대한 복수의 선택이 있을 수 있는데, 예를 들어, 정사각형 래스터 패턴, 셀룰러 래스터 패턴, 또는 기준 패턴은 분산된 스펙클(speckle)을 포함하는 패턴일 수 있으며, 이는 본 명세서에서 제한되지 않는다. 또한, 기준 패턴의 발광 원은, 목표 물체를 보호하기 위해서, 빔 파워 제어를 행할 수 있는 적외선 빔 제너레이터이기 때문에, 목표 물체가 인체 또는 동물의 신체인 경우, 기준 패턴의 발광 원은 인체 또는 동물에 해를 끼치지 않는다.
전술한 바와 같이, 단말은 기준 패턴을 목표 물체로 송신하고, 기준 패턴의 특징 크기 파라미터는 미리 설정된다. 예를 들어, 기준 패턴이 래스터 패턴인 경우, 래스터의 형상 및 간격 모두가 미리 설정될 수 있다.
그 후, 기준 패턴이 목표 물체에 의해 반사된 후에 획득된 2차 패턴이 수신된다. 여기서, 상기 수신은 상기 기준 패턴이 상기 목표 물체에 의해 반사된 후에 얻어지는 2차 패턴을 얻기 위해, 단말이 내장형 카메라 또는 외장 카메라를 사용함으로써 목표 물체를 촬영하는 것일 수 있다. 목표 영상의 2차원 영상이 함께 획득된다. 카메라에 의해 물체의 2차원 평면 영상을 획득하는 것이 숙성된 기술이기 때문에, 이 기술을 구현하는 방법은 본 명세서에서 설명되거나 제한되지 않는다.
또한, 기준 패턴에 관한 2차 패턴의 오프셋 값이 산출된다. 기준 패턴의 피처 크기 파라미터가 미리 설정되기 때문에, 기준 패턴에 관한 2차 패턴의 오프셋 값은 2차 패턴이 획득된 후에 산출된다. 오프셋 값은 변형 값이라고도 할 수 있는데, 즉 참조 패턴에 관해 생성된, 2차 패턴의 변형량이 이 값을 사용하여 반영된다.
마지막으로, 오프셋 값을 푸리에 변환하여 거리 정보를 얻고, 이 거리 정보를 이용하여 3D 심도 영상을 획득한다.
상기 획득된 오프셋 값에 기초하여, 오프셋 값은 푸리에 변환을 사용함으로써 처리되어 거리 정보를 획득한다. 여기서, 거리 정보는 촬영 카메라와 피사체 간의 거리를 나타내는 데 사용되며, 구체적으로는 목표 물체의 2차원 영상에서 각각의 픽셀과 촬영 카메라 사이의 거리로 구현될 수 있다. 이 거리 정보에 기초하여 그리고 전술한 촬영 및 목표 물체의 획득된 2차원 영상을 참조하여, 거리 정보를 가지는 3D 심도 영상을 획득할 수 있다.
S102. 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득한다. 심도 값은 목표 물체 상의 포인트와 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리이다.
목표 물체의 3D 심도 영상은 영상을 형성하는 모든 픽셀을 포함한다. S101에 의해 획득된 거리 정보는 거리 정보, 즉 이들 픽셀과 촬영 카메라 사이의 거리의 픽셀 심도 값을 설명하기 위해 사용될 수 있다. 또한, 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽은 픽셀 심도 값에 따라 획득된다. 특정한 실시 프로세스에서, 픽셀 심도 값에 따라 목표 물체의 그래픽 윤곽을 획득하는 것은 다음의 방법에 따라 구현될 수 있다.
차분 산출은 3D 심도 영상에서의 픽셀의 심도 값에 대해 수행되어 목표 물체의 그래픽 윤곽을 획득한다. 구체적으로, 여기에서의 차분 산출은 다음 단계를 포함할 수 있다:
먼저, 3D 심도 영상에서의 제1 픽셀의 픽셀 심도 값과 제1 픽셀과 연결된 네 개의 인접 픽셀 각각의 픽셀 심도 값과의 심도 값 차분을 산출하여 4개의 제1 심도 차분 값을 획득하며, 여기서 제1 픽셀은 3D 심도 영상으로부터 무작위로 선택된 픽셀일 수 있다. 제1 픽셀과 제1 픽셀에 연결된 4개의 인접 픽셀 간의 위치 관계는 개별적으로 왼쪽, 오른쪽, 위 및 아래일 수 있다.
그런 다음, 4개의 제1 심도 차분 값 중 적어도 하나의 제1 심도 차분 값이 제1 차분 임계값보다 클 때, 적어도 하나의 제1 심도 차분 값에 대응하는 인접하는 픽셀은 윤곽 위치로서 표시되고, 여기서 제1 심도 차분 임계값은 경험에 따라 미리 설정될 수 있다.
그런 다음, 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하는지를 질문받으며, 3차원 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하면, 제2 픽셀의 픽셀 심도 값과, 제2 픽셀에 연결된 8개의 인접하는 픽셀 중 비-윤곽 위치인 픽셀의 픽셀 심도 값 사이에서 차분 산출이 개별적으로 수행되어 제2 심도 차분 값을 획득하며, 여기서 제2 심도 차분 임계값은 경험에 따라 미리 설정될 수 있다. 제2 심도 차분 값 중 적어도 하나가 제2차가 임계값보다 클 때, 제2 픽셀은 윤곽 위치로서 마킹되며, 여기서 제2 픽셀은 3D 심도 영상에서의 임의의 픽셀일 수도 있다. 윤곽 위치로 표시된 픽셀이 제2 픽셀에 연결된 8개의 인접한 픽셀에 존재하는 것으로 나타나면, 제2 픽셀의 픽셀 심도 값과 윤곽 위치로 표시될 픽셀을 제외한 픽셀의 픽셀 심도 값 사이의 차분 산출이 별도로 수행된다. 산출에 의해 획득된 차분 산출 결과가 제2 차분 임계값보다 크면, 제2 픽셀은 윤곽 위치로서 표시된다.
마지막으로, 윤곽선 위치로 표시된 픽셀에 따라 목표 물체의 그래픽 윤곽이 획득된다. 전술한 단계들에 기초하여, 전술한 3D 심도 영상에서의 픽셀은 윤곽 위치로 표시된 픽셀 및 윤곽 위치로 표시되지 않은 픽셀로 그룹화되고, 윤곽 위치로 표시된 모든 픽셀은 목표 물체의 그래픽 윤곽을 형성한다. 또한, 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라 목표 물체의 프레임워크 파라미터를 획득한다. 첫째, 프레임워크 매개 변수의 원칙을 이해해야 한다. 인체 프레임워크 매개 변수가 예로 사용되고, 인체 해부학의 프레임워크 구조가 특정한 자연 비율 기능을 충족시킨다. 서양인이나 동양인, 남성 또는 여성, 미성년자 또는 성인에 관계없이, 그들의 골격 길이는 다르지만 기본 골격 구조는 동일하다. 도 2는 일 예로 사용된 18-마디 인체 프레임워크 모델을 보여준다. 임의의 두 인체 프레임워크 모델에서 인체 프레임워크의 팔뚝, 상완, 몸통, 머리, 허리, 엉덩이, 허벅지 및 하퇴를 포함하는 모든 동일한 신체 부위에서 인접 노드와 상호 연결된 노드 간의 거리 비율(중심 축)이 같은 경우, 두 개의 인체 구조가 완전히 동일하다고 간주할 수 있습니다. 도 2에 도시된 바와 같이, 프레임워크의 기준(중심 축)에 대한 재구성된 인체 프레임워크 모델(1601)의 각 부분에서의 임의의 인접한 노드와 상호 연결된 노드 사이의 거리의 비율 및 프레임워크의 기준(중심 축)에 대한 표준 인체 프레임워크 모델(1602)의 동일한 부분의 동일한 프레임워크의 비율은 동일하거나 매우 유사한 것으로 가정되므로, 프레임워크(1601)와 프레임워크(1602)가 동일한 3D 모델인 것으로 간주될 수 있으며, 즉:
Figure pct00001
이며, 여기서, Z는 목표 물체의 프레임워크 길이를 말하며, Base는 목표 물체의 프레임워크 기준 길이를 말하며,
Figure pct00002
는 번호가 3D 모델 라이브러리에서 i인 모델의 프레임워크 길이를 말하며,
Figure pct00003
는 번호가 3D 모델 라이브러리에서 번호가 i 인 프레임워크 기준 길이를 말하며,
Figure pct00004
는 허용 차분이며, 허용 차분의 값은 경험 값에 따라 획득될 수 있거나 특정 상황에 따라 선택될 수 있다.
특정 구현 프로세스에서, 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라 목표 물체의 프레임워크 파라미터를 획득하는 단계는 다음 단계를 사용하여 구체적으로 구현될 수 있다:
첫째, 목표 물체의 3D 심도 영상에서의 모든 픽셀의 픽셀 심도 값에 따라 그리고 선형 최소 자승법을 사용함으로써 목표 물체의 중심 축을 획득한다. 전술한 목표 물체가 인체인 경우, 중심 축은 일반적으로 인체의 척추이다.
그런 다음, 중심 축에 수직인 복수의 제1 선을 따라 목표 물체의 그래픽 윤곽의 횡방향 두께가 산출된다. 전술한 바와 같이, 중심 축이 인체의 척추인 경우, 인체의 횡 방향 프레임워크는 척추에 수직인 복수의 제1 선을 따라 연장함으로써 획득된다.
목표 물체의 그래픽 윤곽선의 종방향 두께는 중심 축에 평행한 여러 개의 두 번째 선을 따라 산출됩니다. 전술한 바와 같이, 중심 축이 인체의 척추인 경우, 척추에 평행한 복수의 제2 선을 따라 연장함으로써 인체의 종방향 프레임워크가 획득된다.
목표 물체의 프레임워크는 제1 선 및 제2 선에 의해 제한되는 영역을 사용함으로써 구성되며, 여기서 대응하는 횡방향 두께 및 종방향 두께는 목표 물체의 프레임워크 파라미터이다.
S103. 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득한다.
목표 물체의 앞서 획득된 프레임워크 파라미터 및 그래픽 윤곽에 기초하여, 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽 모두에 정합하는 3D 모델이 3D 모델 라이브러리로부터 검색된다. 여기서의 3차원 모델 라이브러리는 클라우드 서버에 저장된 표준 모델 라이브러리일 수도 있고, 현장에 저장된 표준 모델 라이브러리일 수 있으며, 목표 물체의 앞서 획득된 프레임워크 파라미터 및 그래픽 윤곽과의 최고 정합도를 가지는 그런 표준 모델 라이브러리에서 모델이 검색된다. 미리 저장된 모델 라이브러리 데이터는 제3자 데이터 제공자에 의해 제공된 사회적 통계의 인체 3D 데이터로부터 생성될 수 있으며, 그 데이터는 일반적으로 전 세계의 모든 국가, 지역 및 인종의 다양한 전형적인 신체 형상 3D 데이터를 포함한다. 선택적으로, 미리 저장된 모델 라이브러리 데이터는 기계의 자동 학습 결과로부터 얻어질 수 있으며, 예를 들어, 지능형 단말의 소유자는 일정 기간 내에 특정 목표를 측정, 산출 및 조정함으로써 자동 학습 3D 모델 데이터를 획득할 수 있다. 인체 3D 데이터 이외에, 동물의 신체 또는 다른 가시적 목표 물체의 3D 데이터가 있을 수 있으며, 상세한 설명은 본 명세서에서 서술되지 않음을 이해할 수 있을 것이다.
본 발명의 기술 분야에서, 복수의 관련 알고리즘은 3D 모델 검색 및 정합을 지원한다. 그렇지만, 단말 및 클라우드에서의 산출을 단순화하고 응답 속도를 향상시키기 위해, 본 발명의 이 실시예에서, 미리 저장된 3D 모델은 적어도 2개의 유형의 파라미터: 그래픽 윤곽 및 프레임워크 파라미터를 포함한다. 도 3에 도시된 바와 같이, 이 실시예에서의 황소의 3D 모델의 2D 윤곽 파라미터는 표적의 방향으로부터 투영함으로써 기록된 표적의 그래픽 윤곽을 개별적으로 표시하며, 1 측면, 2 전방, 4 좌전방, 5 좌후방, 6 우전방 및 7 좌후방으로부터의 윤곽을 포함한다. 바로 위의 3으로부터의 투영 윤곽은 일반적으로 필수는 아니다. 대안으로, 정합 정확도를 높이기 위해, 그래픽 윤곽은 좌측 직접 전방, 좌측 직접 후방, 우측 직접 전방, 우측 직접 전방 등의 모든 각도로부터 기록된 표적의 투영 그래픽 윤곽 (도면에 도시되지 않음)을 포함할 수 있다. 정합 산출 동안, 첸(chen) 알고리즘, 즉 2D 제르니케 모멘트 디스크립터(Zernke moment descriptor) 및 푸리에 디스크립터(FD-Fourier Descriptor)는, 비교에 의해, 동일한 목표 물체의 하나 이상의 목표 그래픽 윤곽과 3D 모델 라이브러리에서의 각각의 방향의 목표 물체 간의 유사도(similarity)를 획득하는데 사용되며, 최고 유사도를 가지는 그래픽 윤곽을 검색하고, 상기 그래픽 윤곽에 대응하는 3D 표준 모델의 투영의 시야각 값을 반환한다. 도 3에 도시된 바와 같이, 3D 데이터베이스에서 목표 물체의 그래픽 윤곽과 황소의 3D 모델의 그래픽 윤곽 사이의 유사도가 가장 높고, 반환된 관찰 결과에 따르면, 목표 물체의 그래픽 윤곽이 X 좌표의 음의 방향을 따라 황소의 3D 모델의 투영이다.
구체적으로, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하는 단계는 구체적으로,
상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하는 단계;
상기 3D 모델의 그래픽 윤곽이 상기 3D 모델의 정면 그래픽 윤곽이 아닐 때, 상기 3D 모델의 그래픽 윤곽에 따라 상기 3D 모델의 정면 그래픽 윤곽을 획득하는 단계;
상기 3D 모델의 그래픽 윤곽 및 상기 3D 모델의 정면 그래픽 윤곽에 따라 상기 3D 모델의 시야각 파라미터(visual angle parameter)를 산출하는 단계 - 상기 시야각 파라미터는 상기 3D 모델의 정면 그래픽 윤곽에 기초하는 3D 모델의 그래픽 윤곽의 시야각(visual angle)임 - ;
상기 시야각 파라미터에 기초하여 상기 3D 모델의 정면 그래픽 윤곽을 회전시켜 상기 3D 모델의 프레임워크 파라미터를 획득하는 단계;
비교에 의해, 상기 목표 물체의 프레임워크 파라미터와 상기 3D 모델의 프레임워크 파라미터 사이의 유사도를 획득하는 단계 - 상기 유사도가 미리 설정된 값보다 작으면, 상기 3D 모델은 상기 목표 물체의 상기 프레임워크 파라미터 및 상기 프레임워크 파라미터에 정합하는 3D 모델임 - ; 및
상기 3D 모델을 사용함으로써 상기 3차원 모델의 파라미터 비율을 획득하는 단계
를 포함한다.
전술한 바와 같이, 3D 모델 라이브러리는 3D 모델의 모든 시야각의 그래픽 윤곽을 포함하고, 적어도 3D 모델의 정면 그래픽 윤곽을 포함한다.
또한, 상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하는 단계는,
제르니케 모멘트 디스크립터 및 푸리에 디스크립터를 사용함으로써 제1 디스크립션 정보를 획득하는 단계;
상기 제르니케 모멘트 디스크립터 및 상기 푸리에 디스크립터를 사용함으로써 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽을 서술하여 제2 디스크립션 정보를 획득하는 단계; 및
상기 제1 디스크립션 정보와 상기 제2 디스크립션 정보를 비교하고, 상기 제1 디스크립션 정보와 미리 설정된 임계값만큼 상이한 제2 디스크립션 정보에 대응하는 3D 모델의 그래픽 윤곽을 상기 최고 정합도를 가지는 3D 모델의 그래픽 윤곽으로 사용하는 단계
를 더 포함한다.
도 3에 도시된 바와 같이, 표준 3D 모델 라이브러리에서의 프레임워크 데이터는 정확한 프레임워크 유사도 검색 및 정합을 실현하기 위해 X 축의 음의 방향으로 회전하여 투영해야 한다.
환경이 바뀌어도 이 검색 방법을 사용하면 이상적인 효과를 얻을 수 있다. 일반적으로, 인체 표적의 착용한 서로 다른 의복 및 자세는 3D 심도 영상을 사용함으로써 산출에 의해 획득된 인체 그래픽 윤곽에 영향을 미친다. 예를 들어, 여름에는 가벼운 옷을 입고 겨울에는 무거운 옷을 입기 때문에, 산출에 의해 획득된 인체 그래픽 윤곽 사이에는 큰 차분이 존재한다. 유사도 검색이 인체 그래픽 윤곽에 따라서만 수행되면, 획득된 3D 모델은 큰 편차를 가지므로, 여기서 프레임워크 파라미터가 도입된다. 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽 모두가 결정된 경우에, 획득된 3D 모델의 정밀도가 높다.
S104. 목표 물체의 적어도 하나의 실제 크기를 획득한다.
S103에서의 검색에 의해 획득되는, 목표 물체의 3D 모델의 파라미터 비율은 표준 단위 모델이고, 표적의 적어도 하나의 실제 기하학적 파라미터(예를 들어, 사용자의 실제 높이 및 팔 길이)로 추가로 승산되어야 하며, 목표 물체에 완전하게 정합하는 3D 모델은 동일-비율 확장이 수행된 후에만 획득될 수 있다. 특정한 작동에서, 목표 물제의 적어도 하나의 실제 크기는 다음의 단계:
목표 물체에 음파 신호를 송신하는 단계;
목표 물체에 의해 반사된 음파 신호를 수신하는 단계;
음파 신호의 전송 시간을 획득하는 단계 - 상기 전송 시간은 상기 음파 신호를 송신하는 시각과 음파 신호를 수신하는 시각과의 차분임 -;
전송 시간과 음파 신호의 전파 속도를 사용함으로써 목표 물체의 표면과 상기 촬영 장치와의 거리를 산출하는 단계; 및
거리 및 촬영 장치의 영상 거리를 사용함으로써 목표 물체의 적어도 하나의 실제 크기를 산출하는 단계
를 사용함으로써 획득될 수 있다.
구체적으로, 대부분의 사용 상황에서, 사용자와 촬영자는 목표 물체의 실제 기하학적 파라미터를 알지 못하므로, 여기서 실제 크기라고도 하는, 목표 물체의 적어도 하나의 실제 기하학적 파라미터는 실시간 측정 방식으로 획득되어야 한다. 선택적 방법은: 카메라를 이용하여 목표 물체의 영상을 촬영하는 방법을 사용함으로써 표적의 높이를 측정하고 산출하는 방법이다. 도 Z에 도시된 바와 같이, 이동 단말이 촬영 및 3D 심도 측정 애플리케이션을 작동 가능하게 할 때, 이동 전화의 스피커 구성요소는 주기적으로 음파 신호를 목표에 송신하며, 이 송신 동작은 3D 센서의 검출 동작과 동기될 수 있다. 음파 신호는 사용자 및 인체 표적에 대한 간섭을 피하기 위해, 인체 청각의 주파수 범위(20HZ 내지 20KHZ)를 초과할 수 있다. 목표 물체를 만난 후에 음파 신호가 복귀하면, 그 음파 신호는 마이크로폰 구성요소에 의해 수신된다. 목표와 촬영자 사이의 거리 D1 = 1/2 × V × Δt는 음파의 전파 시간 Δt를 산출함으로써 획득될 수 있으며, 여기서 V는 대기 공기에서 이 주파수 음파의 전파 속도이다. 또한, 목표 물체의 영상은 카메라 구성요소에 기록된다. 목표 물체의 영상 픽셀의 높이 h는 영상 윤곽 식별 기술을 사용함으로써 산출에 의해 획득될 수 있다. 결정된 이동 단말에 대해, 카메라 컴포넌트의 영상 거리 D2가 유일한 결정된 하드웨어 파라미터이다. 이러한 방식으로, 목표 물체의 실제 높이 H는 다음의 식에 따른 산출에 의해 획득될 수 있다 :
Figure pct00005
.
동일한 원리에 기초하여, 이 솔루션은 또한 표적의 길이 또는 폭과 같은 또 다른 기하학적 파라미터를 측정하는 데 사용될 수 있으며, 상세한 설명은 여기에 설명되지 않는다.
전술한 측정 방법에 부가하여 다른 방법, 예를 들면 다음과 같은 방법을 사용하여 측정 대상의 적어도 하나의 실제 크기를 측정할 수 있다:
사용자가 이동 단말을 조작하여 목표 물체에 대한 촬영 및 3D 측정을 수행하는 경우, 이동 단말은 목표 물체의 적어도 두 장의 사진을 동시에 기록하고, 이들 사진은 초점 거리 파라미터가 상이한 카메라 컴포넌트를 사용함으로써 포착된다. 도 4에 도시된 실시예에서, 단말 카메라는 3개의 상이한 초점 거리를 사용함으로써 영상 거리가 상이한 3개의 사진을 획득한다. 이 중 2장의 사진을 예로 사용되며; 2장의 사진에 개별적으로 대응하는 영상 거리는 D21 및 D22이고, 촬영 높이는 h1 및 h2이며, 2개의 촬영 파라미터의 렌즈 거리 변화는 각각 Δ이다. 목표 물체의 실제 높이가 유일하게 결정되기 때문에, 사진은 분명히 다음과 같은 기하학 공식을 충족시킨다:
Figure pct00006
카메라 모듈의 하드웨어 파라미터를 결정하는 경우, D21 및 D22는 모두 공지의 파라미터이며, h1 및 h2는 픽셀 방법을 사용함으로써 산출에 의해 획득될 수 있다. 목표 물체의 높이 H는 다음 식에 따라 산출하여 구할 수 있다:
Figure pct00007
.
S105. 3D 모델의 파라미터 비율 및 적어도 하나의 실제 크기에 따라 목표 물체의 증상 데이터를 획득한다.
특정한 작동에서, 검색에 의해 획득되는, 최고 정합도를 가지는 3D 모델의 파라미터 비율은 표적의 실제 높이 H와 승산될 수 있으며, 이에 따라 표적의 실제 프레임워크 모델이 획득될 수 있다.
이 실시예의 다른 실현 가능한 솔루션에서, 인체 목표 물체의 증상 데이터는 이동 전화의 I/O 인터페이스의 터치스크린으로부터 직접 입력되는, 표적의 실제 기하학적 파라미터를 사용함으로써 산출에 의해 추가로 획득될 수 있으며, 여기서 실제 기하학적 파라미터는 높이, 팔 길이, 또는 어깨 넓이와 같은 한 편의 데이터일 수 있다. 대안으로, 사용자는 표적의 입력된 실제 기하학적 파라미터를 동적으로 조정함으로써 산출에 의해 목표 물체의 비교적 정확한 증상 데이터를 얻을 수 있다. 또한, 선택적으로, 본 실시예에서는, 인체 표적(420)의 체중, 흉부, 허리, 엉덩이의 크기, 팔 길이, 어깨 넓이와 같은 다양한 증상 파라미터를 증상 특성 파라미터 라이브러리 내의 특정한 파라미터(예를 들어 밀도)에 따라 산출에 의해 획득할 수 있고, 사용자 입력/출력 인터페이스에 표시한다. 대안으로, 다양한 비즈니스 데이터베이스 및 사용자의 습관적인 설정을 참조하여, 의복 사이즈 및 정합 제안, 광고 푸시 등에 다양한 증상 파라미터가 사용될 수 있다.
본 실시예는 목표 물체를 촬영하는 프로세스에서 증상 데이터 측정에 적용될 수 있을 뿐만 아니라, 이동 목표 물체의 비디오 촬영에서 3D 측정 및 증상 데이터 획득 프로세스에도 적용될 수 있음을 알아야 한다.
본 발명의 이 실시예에서는 목표 물체의 3D 심도 영상을 획득하고, 3D 심도 영상에 따라 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 복원하므로, 그래픽 윤곽 및 프레임워크 파라미터에 기초하여 목표 물체에 대응하는 3D 모델을 검색하고, 추가로 3D 모델을 사용함으로써 목표 물체의 증상 데이터를 획득하며, 이에 따라 사용자는 단말을 사용함으로써 가상 재구성을 수행하여 언제 어디서나 관찰 대상의 증상 파라미터를 얻을 수 있고, "보는 대로 얻는다"의 사용자 경험이 구현된다.
대부분의 사진 촬영 애플리케이션에서 주요 표적이 인체인 경우 산출에 의해 획득된 결과가 정확하다는 점에 유의해야 한다. 그러나 실제 시나리오에서 두 명 이상의 사람이 겹쳐지거나 서로 가리면 서로 다른 인체 대상은 처리하는 동안 개별적으로 처리되어야 한다. 간단한 방법은 배경 잡음 방식으로 그리고 영상 심도 필터링 알고리즘을 사용함으로써 그 겹쳐진 인체 표적을 처리하는 것이고, 다른 가능한 방법은 겹친 영상을 분리하고 산출을 수행하는 것이다. 이 실시예에 포함된 기술적 솔루션에서는, 단일 목표 물체 또는 분리 후에 획득된 독립적인 목표 물체가 주로 포함된다는 것을 주목해야 한다.
새로운 실시예에서는, 목표 물체의 획득된 그래픽 윤곽을 보다 정확하게 할 수 있게 하기 위해, 배경 잡음 감소 처리에 기초하여 3D 심도 영상에 대해 배경 잡음 감소가 수행되어 제1 3D 목표 심도 영상을 획득하고 목표 물체의 독립적인 그래픽 윤곽을 획득하며, 이것은 구체적으로: 제1 3D 목표 심도 영상에서의 픽셀의 심도 값에 대한 차분 연산을 수행하여 목표 물체의 그래픽 윤곽을 획득하는 단계를 포함한다.
구체적으로, 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하는 단계는,
심도 임계값을 설정하는 단계; 및
상기 3D 심도 영상에서의 각각의 픽셀의 심도 값과 심도 임계값을 비교하고, 3D 심도 영상 중에 픽셀 심도 값이 심도 임계값보다 큰 픽셀을 필터링하며, 나머지 픽셀을 획득하여 제1 3D 목표 심도 영상을 형성하는 단계
를 포함한다.
또한, 새로운 실시예에서, 전술한 획득된 제1 3D 목표 심도 영상 추가로 처리될 수 있는데, 즉:
제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하는 단계
를 포함하고,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계는:
상기 제2 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계
를 포함한다.
그러므로 가장자리가 선명한 독립적인 그래픽 윤곽을 획득할 수 있다.
구체적으로, 상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하는 단계는:
제1 3D 목표 심도 영상을 복수의 픽셀 블록으로 분할하는 단계;
픽셀 심도 세그먼트 간격을 설정하는 단계;
각각의 픽셀 블록 내의 모든 픽셀의 픽셀 심도 값에 대해 평균 처리를 수행하여 각각의 픽셀 블록의 픽셀 평균값을 획득하는 단계; 및
상기 픽셀 평균값을 상기 픽셀 심도 세그먼트 간격 내의 대응하는 간격에 맵핑하고, 동일한 간격의 모든 픽셀 평균값에 대응하는 픽셀 블록을 결합하여 제2 3D 목표 심도 영상을 획득하는 단계
를 포함한다.
실시예 2
도 5를 참조하면, 도 5는 본 발명의 실시예에 따른 목표 물체의 증상 데이터를 획득하기 위한 장치(300)이며, 장치는:
목표 물체의 3D 심도 영상을 획득하도록 구성되어 있는 촬영 모듈(302) - 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함함 - ;
상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득하도록 구성되어 있는 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈(304) - 상기 심도 값은 상기 목표 물체 상의 포인트와 상기 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리임 - ;
상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하도록 구성되어 있는 파라미터 비율 획득 모듈(306);
상기 목표 물체의 적어도 하나의 실제 크기를 획득하도록 구성되어 있는 실제 크기 획득 모듈(308); 및
상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터를 획득하도록 구성되어 있는 증상 데이터 획득 모듈(310)
을 포함한다.
본 발명의 실시예에서, 촬영 장치는 목표 물체의 3D 심도 영상을 획득하고; 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈은 3D 심도 영상에 따라 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 복원하며; 파라미터 비율 획득 모듈은 그래픽 윤곽 및 프레임워크 파라미터에 기초하여 목표 물체에 대응하는 3D 모델을 검색하고; 증상 데이터 획득 모듈은 3D 모델에 따라 목표 물체의 증상 데이터를 획득한다. 그러므로 사용자는 단말을 사용함으로써 가상 재구성을 수행하여 언제 어디서나 관찰 대상의 증상 파라미터를 얻을 수 있고, "보는 대로 얻는다"의 사용자 경험이 구현된다.
실시예 2에 기초하여, 추가로 다른 실시예에서, 촬영 모듈(302)은 구체적으로:
상기 목표 물체에 기준 패턴을 송신하도록 구성되어 있는 송신 유닛;
상기 기준 패턴이 상기 목표 물체에 의해 반사된 후에 획득된 2차 패턴을 수신하도록 구성되어 있는 수신 유닛;
상기 기준 패턴에 관한 상기 2차 패턴의 오프셋 값을 산출하도록 구성되어 있는 산출 유닛; 및
상기 오프셋 값에 대해 푸리에 변환을 수행함으로써 상기 거리 정보를 획득하고, 상기 거리 정보를 사용함으로써 상기 3D 심도 영상을 획득하도록 구성되어 있는 영상 획득 유닛
을 포함한다.
전술한 실시예에 기초하여, 추가로 다른 실시예에서, 상기 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈은 구체적으로:
상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하도록 구성되어 있으며,
구체적으로, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하는 것은,
상기 3차원 심도 영상에서의 제1 픽셀의 픽셀 심도 값과 제1 픽셀에 연결된 4개의 인접 픽셀 각각의 픽셀 심도 값 사이의 심도 값 차분을 산출하여 4개의 제1 심도 차분 값을 획득하는 것;
상기 4개의 제1 심도 차분 값 중 적어도 하나의 제1 심도 차분 값이 제1 차분 임계값보다 클 때, 상기 적어도 하나의 제1 심도 차분 값에 대응하는 인접 픽셀을 윤곽 위치로 마킹하는 것;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하는지를 질문하는 것;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하면, 상기 제2 픽셀의 픽셀 심도 값과 상기 제2 픽셀과 연결되어 있는 8개의 인접 픽셀 중 비 윤곽 위치인 픽셀의 픽셀 심도 값 간의 차분 산출을 개별적으로 수행하여 제2 심도 차분 값을 획득하는 것;
상기 제2 심도 차분 값 중 적어도 하나가 제2 차분 임계값보다 클 때, 상기 제2 픽셀을 윤곽 위치로 마킹하는 것; 및
상기 목표 물체의 그래픽 윤곽을 윤곽 위치로 표시된 픽셀에 따라 획득하는 것
을 포함한다.
전술한 실시예에 기초하여, 추가로 도 6을 참조하여, 다른 실시예에서, 전술한 장치(300)는 잡음 감소 모듈(312)을 더 포함하며,
상기 잡음 감소 모듈(312)은:
3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하도록 구성되어 있으며,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은:
상기 제1 3D 목표 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
을 포함한다.
또한, 잡음 감소 모듈(312)은 구체적으로:
심도 임계값을 설정하고, 그리고
상기 3D 심도 영상에서의 각각의 픽셀의 심도 값과 심도 임계값을 비교하고, 3D 심도 영상에 존재하면서 픽셀 심도 값이 심도 임계값보다 큰 픽셀을 필터링하며, 나머지 픽셀을 획득하여 제1 3D 목표 심도 영상을 형성하도록 구성되어 있다.
또한, 잡음 감소 모듈(312)은:
제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하도록 추가로 구성되어 있으며,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은,
상기 제2 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
을 포함한다.
또한, 선택적으로, 잡음 감소 모듈(312)은 구체적으로:
상기 제1 3D 목표 심도 영상을 복수의 픽셀 블록으로 분할하고,
픽셀 심도 세그먼트 간격을 설정하고,
각각의 픽셀 블록 내의 모든 픽셀의 픽셀 심도 값에 대해 평균 처리를 수행하여 각각의 픽셀 블록의 픽셀 평균값을 획득하며, 그리고
상기 픽셀 평균값을 상기 픽셀 심도 세그먼트 간격 내의 대응하는 간격에 맵핑하고, 동일한 간격의 모든 픽셀 평균값에 대응하는 픽셀 블록을 결합하여 제2 3D 목표 심도 영상을 획득하도록 구성되어 있다.
전술한 실시예에 기초하여, 추가로, 다른 실시예에서, 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈(304)은 구체적으로:
목표 물체의 3차원 심도 영상에서의 모든 픽셀의 픽셀 심도 값에 따라 선형 최소 제곱 법을 사용함으로써 상기 목표 물체의 중심 축을 획득하고,
상기 중심 축에 수직인 복수의 제1 선을 따라 상기 목표 물체의 그래픽 윤곽의 횡방향 두께를 산출하고,
상기 중심 축에 평행한 복수의 제2 선을 따라 상기 목표 물체의 그래픽 윤곽의 종방향 두께를 산출하며, 그리고
상기 제1 선 및 상기 제2 선에 의해 한정되는 영역을 사용함으로써 상기 목표 물체의 프레임워크를 구성하도록 구성되어 있으며,
여기서 대응하는 횡방향 두께 및 종방향의 두께는 상기 목표 물체의 프레임워크 파라미터이다.
전술한 실시예에 기초하여, 추가로, 다른 실시예에서, 파라미터 비율 획득 모듈(306)은 구체적으로:
상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하고,
상기 3D 모델의 그래픽 윤곽이 상기 3D 모델의 정면 그래픽 윤곽이 아닐 때, 상기 3D 모델의 그래픽 윤곽에 따라 상기 3D 모델의 정면 그래픽 윤곽을 획득하고,
상기 3D 모델의 그래픽 윤곽 및 상기 3D 모델의 정면 그래픽 윤곽에 따라 상기 3D 모델의 시야각 파라미터를 산출하고 - 상기 시야각 파라미터는 상기 3D 모델의 정면 그래픽 윤곽에 기초하는 3D 모델의 그래픽 윤곽의 시야각임 - ;
상기 시야각 파라미터에 기초하여 상기 3D 모델의 정면 그래픽 윤곽을 회전시켜 상기 3D 모델의 프레임워크 파라미터를 획득하고,
비교에 의해, 상기 목표 물체의 프레임워크 파라미터와 상기 3D 모델의 프레임워크 파라미터 사이의 유사도를 획득하며 - 상기 유사도가 미리 설정된 값보다 작으면, 상기 3D 모델은 상기 목표 물체의 상기 프레임워크 파라미터 및 상기 프레임워크 파라미터에 정합하는 3D 모델임 - , 그리고
상기 3D 모델을 사용함으로써 상기 3차원 모델의 파라미터 비율을 획득하도록 구성되어 있다.
상기 3D 모델 라이브러리는 상기 3D 모델의 모든 시야각의 그래픽 윤곽을 포함하고, 적어도 상기 3D 모델의 정면 그래픽 윤곽을 포함한다.
전술한 실시예에 기초하여, 추가로, 다른 실시예에서, 파라미터 비율 획득 모듈(306)은 구체적으로:
제르니케 모멘트 디스크립터 및 푸리에 디스크립터를 사용함으로써 제1 디스크립션 정보를 획득하고,
상기 제르니케 모멘트 디스크립터 및 상기 푸리에 디스크립터를 사용함으로써 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽을 서술하여 제2 디스크립션 정보를 획득하며, 그리고
상기 제1 디스크립션 정보와 상기 제2 디스크립션 정보를 비교하고, 상기 제1 디스크립션 정보와 미리 설정된 임계값만큼 상이한 제2 디스크립션 정보에 대응하는 3D 모델의 그래픽 윤곽을 상기 최고 정합도를 가지는 3D 모델의 그래픽 윤곽으로 사용하도록 구성되어 있다.
전술한 실시예에 기초하여, 추가로, 다른 실시예에서, 실제 크기 획득 모듈(308)은 구체적으로:
상기 목표 물체에 음파 신호를 송신하고,
상기 목표 물체에 의해 반사된 음파 신호를 수신하고,
상기 음파 신호의 전송 시간을 획득하고 - 상기 전송 시간은 상기 음파 신호를 송신하는 시각과 상기 음파 신호를 수신하는 시각과의 차분임 -;
상기 전송 시간과 상기 음파 신호의 전파 속도를 사용함으로써 상기 목표 물체의 표면과 상기 촬영 장치와의 거리를 산출하며, 그리고
상기 거리 및 상기 촬영 장치의 영상 거리를 사용함으로써 상기 목표 물체의 적어도 하나의 실제 크기를 산출하도록 구성되어 있다.
실시예 3
도 7을 참조하면, 도 7은 본 발명의 실시예에 따른 목표 물체의 증상 데이터를 획득하기 위한 단말(400)이며, 상기 단말은:
목표 물체의 증상 데이터를 획득하는 단말로서,
목표 물체의 3D 심도 영상을 획득하도록 구성되어 있는 3D 센서(402) - 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함함 - ; 및
상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득하도록 구성되어 있는 프로세서(404)
를 포함하며,
상기 심도 값은 상기 목표 물체 상의 포인트와 상기 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리이고,
상기 프로세서는 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하도록 추가로 구성되어 있으며,
상기 프로세서는 상기 목표 물체의 적어도 하나의 실제 크기를 획득하고 상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터를 획득하도록 추가로 구성되어 있다.
실시예 3에 기초하여, 선택적으로, 3D 센서(402)는 구체적으로:
상기 목표 물체에 기준 패턴을 송신하고,
상기 기준 패턴이 상기 목표 물체에 의해 반사된 후에 획득된 2차 패턴을 수신하고,
상기 기준 패턴에 관한 상기 2차 패턴의 오프셋 값을 산출하며, 그리고
상기 오프셋 값에 대해 푸리에 변환을 수행함으로써 상기 거리 정보를 획득하고, 상기 거리 정보를 사용함으로써 상기 3D 심도 영상을 획득하도록 구성되어 있다.
전술한 실시예에 기초하여, 추가로, 선택적으로, 프로세서(404)는 구체적으로 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하도록 구성되어 있으며,
구체적으로, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하는 것은:
상기 3차원 심도 영상에서의 제1 픽셀의 픽셀 심도 값과 제1 픽셀에 연결된 4개의 인접 픽셀 각각의 픽셀 심도 값 사이의 심도 값 차분을 산출하여 4개의 제1 심도 차분 값을 획득하는 것;
상기 4개의 제1 심도 차분 값 중 적어도 하나의 제1 심도 차분 값이 제1 차분 임계값보다 클 때, 상기 적어도 하나의 제1 심도 차분 값에 대응하는 인접 픽셀을 윤곽 위치로 마킹하는 것;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하는지를 질문하는 것;
상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하면, 상기 제2 픽셀의 픽셀 심도 값과 상기 제2 픽셀과 연결되어 있는 8개의 인접 픽셀 중 비 윤곽 위치인 픽셀의 픽셀 심도 값 간의 차분 산출을 개별적으로 수행하여 제2 심도 차분 값을 획득하는 것;
상기 제2 심도 차분 값 중 적어도 하나가 제2 차분 임계값보다 클 때, 상기 제2 픽셀을 윤곽 위치로 마킹하는 것; 및
상기 목표 물체의 그래픽 윤곽을 윤곽 위치로 표시된 픽셀에 따라 획득하는 것
을 포함한다.
전술한 실시예에 기초하여, 추가로, 선택적으로, 프로세서(404)는 상기 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하도록 추가로 구성되어 있으며,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은:
상기 제1 3D 목표 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
을 포함한다.
또한, 상기 프로세서는 구체적으로:
심도 임계값을 설정하고, 그리고
상기 3D 심도 영상에서의 각각의 픽셀의 심도 값과 심도 임계값을 비교하고, 3D 심도 영상에 존재하면서 픽셀 심도 값이 심도 임계값보다 큰 픽셀을 필터링하며, 나머지 픽셀을 획득하여 제1 3D 목표 심도 영상을 형성하도록 구성되어 있다.
전술한 실시예에 기초하여, 추가로, 선택적으로, 프로세서(404)는 구체적으로:
상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하도록 추가로 구성될 수 있으며,
이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은:
상기 제2 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
을 포함한다.
또한, 프로세서(404)는 구체적으로:
상기 제1 3D 목표 심도 영상을 복수의 픽셀 블록으로 분할하고,
픽셀 심도 세그먼트 간격을 설정하고,
각각의 픽셀 블록 내의 모든 픽셀의 픽셀 심도 값에 대해 평균 처리를 수행하여 각각의 픽셀 블록의 픽셀 평균값을 획득하며, 그리고
상기 픽셀 평균값을 상기 픽셀 심도 세그먼트 간격 내의 대응하는 간격에 맵핑하고, 동일한 간격의 모든 픽셀 평균값에 대응하는 픽셀 블록을 결합하여 제2 3D 목표 심도 영상을 획득하도록 구성되어 있다.
또한, 프로세서(404)는 구체적으로:
상기 목표 물체의 3차원 심도 영상에서의 모든 픽셀의 픽셀 심도 값에 따라 선형 최소 제곱 법을 사용함으로써 상기 목표 물체의 중심 축을 획득하고,
상기 중심 축에 수직인 복수의 제1 선을 따라 상기 목표 물체의 그래픽 윤곽의 횡방향 두께를 산출하고,
상기 중심 축에 평행한 복수의 제2 선을 따라 상기 목표 물체의 그래픽 윤곽의 종방향 두께를 산출하며, 그리고
상기 제1 선 및 상기 제2 선에 의해 한정되는 영역을 사용함으로써 상기 목표 물체의 프레임워크를 구성하도록 구성되어 있으며,
대응하는 횡방향 두께 및 종방향의 두께는 상기 목표 물체의 프레임워크 파라미터이다.
또한, 프로세서(404)는 구체적으로:
상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하고,
상기 3D 모델의 그래픽 윤곽이 상기 3D 모델의 정면 그래픽 윤곽이 아닐 때, 상기 3D 모델의 그래픽 윤곽에 따라 상기 3D 모델의 정면 그래픽 윤곽을 획득하고,
상기 3D 모델의 그래픽 윤곽 및 상기 3D 모델의 정면 그래픽 윤곽에 따라 상기 3D 모델의 시야각 파라미터를 산출하고 - 상기 시야각 파라미터는 상기 3D 모델의 정면 그래픽 윤곽에 기초하는 3D 모델의 그래픽 윤곽의 시야각임 - ;
상기 시야각 파라미터에 기초하여 상기 3D 모델의 정면 그래픽 윤곽을 회전시켜 상기 3D 모델의 프레임워크 파라미터를 획득하고,
비교에 의해, 상기 목표 물체의 프레임워크 파라미터와 상기 3D 모델의 프레임워크 파라미터 사이의 유사도를 획득하며 - 상기 유사도가 미리 설정된 값보다 작으면, 상기 3D 모델은 상기 목표 물체의 상기 프레임워크 파라미터 및 상기 프레임워크 파라미터에 정합하는 3D 모델임 - , 그리고
상기 3D 모델을 사용함으로써 상기 3차원 모델의 파라미터 비율을 획득하도록 구성되어 있다.
3D 모델 라이브러리는 3D 모델의 모든 시야각의 그래픽 윤곽을 포함하고, 적어도 3D 모델의 정면 그래픽 윤곽을 포함한다.
또한, 프로세서(404)는 구체적으로:
제르니케 모멘트 디스크립터 및 푸리에 디스크립터를 사용함으로써 제1 디스크립션 정보를 획득하고,
상기 제르니케 모멘트 디스크립터 및 상기 푸리에 디스크립터를 사용함으로써 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽을 서술하여 제2 디스크립션 정보를 획득하며, 그리고
상기 제1 디스크립션 정보와 상기 제2 디스크립션 정보를 비교하고, 상기 제1 디스크립션 정보와 미리 설정된 임계값만큼 상이한 제2 디스크립션 정보에 대응하는 3D 모델의 그래픽 윤곽을 상기 최고 정합도를 가지는 3D 모델의 그래픽 윤곽으로 사용하도록 구성되어 있다.
또한, 프로세서(404)는 구체적으로:
상기 목표 물체에 음파 신호를 송신하고,
상기 목표 물체에 의해 반사된 음파 신호를 수신하고,
상기 음파 신호의 전송 시간을 획득하고 - 상기 전송 시간은 상기 음파 신호를 송신하는 시각과 상기 음파 신호를 수신하는 시각과의 차분임 -;
상기 전송 시간과 상기 음파 신호의 전파 속도를 사용함으로써 상기 목표 물체의 표면과 상기 촬영 장치와의 거리를 산출하며, 그리고
상기 거리 및 상기 촬영 장치의 영상 거리를 사용함으로써 상기 목표 물체의 적어도 하나의 실제 크기를 산출하도록 구성되어 있다.
전술한 실시예 모두는 동일한 창의적 개념으로부터 유도되며, 실시예의 설명은 각각의 초점을 가진다. 실시예에서 상세히 설명되지 않은 부분에 대해서는 다른 실시예의 관련 부분을 참조한다.
당업자라면 실시예에서의 방법의 단계 중 일부 또는 전부는 관련 하드웨어에 명령을 내리는 프로그램에 의해 실행될 수 있다는 것을 이해할 수 있을 것이다. 프로그램은 컴퓨터 판독 가능형 저장 매체에 저장될 수 있다. 저장 매체로는 플래시 메모리, 리드-온리 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 자기디스크 및 광디스크를 들 수 있다.
본 발명의 실시예에서 제공하는 활동 식별 방법 및 시스템에 대해 위에서 상세히 설명하였다. 본 명세서에서, 본 발명의 원리 및 구현 방식은 특정한 예를 통해 본 명세서에 설명된다. 실시예에 관한 전술한 설명은 본 발명의 방법 및 핵심 개념을 이해하는 것을 돕기 위한 것일 뿐이다. 또한, 당업자는 본 발명의 사상에 따라 특정 구현 예 및 적용 범위의 관점에서 수정을 할 수 있다. 결론적으로, 본 명세서의 내용은 본 발명의 제한으로 해석되어서는 안 된다.

Claims (36)

  1. 목표 물체의 증상 데이터(sign data)를 획득하는 방법으로서,
    목표 물체의 3D 심도 영상(depth image)을 획득하는 단계 - 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함함 - ;
    상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득하는 단계 - 상기 심도 값은 상기 목표 물체 상의 포인트와 상기 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리임 - ;
    상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하는 단계;
    상기 목표 물체의 적어도 하나의 실제 크기를 획득하는 단계; 및
    상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터를 획득하는 단계
    를 포함하는 목표 물체의 증상 데이터를 획득하는 방법.
  2. 제1항에 있어서,
    상기 목표 물체의 3D 심도 영상을 획득하는 단계는,
    상기 목표 물체에 기준 패턴을 송신하는 단계;
    상기 기준 패턴이 상기 목표 물체에 의해 반사된 후에 획득된 2차 패턴을 수신하는 단계;
    상기 기준 패턴에 관한 상기 2차 패턴의 오프셋 값을 산출하는 단계; 및
    상기 오프셋 값에 대해 푸리에 변환을 수행함으로써 상기 거리 정보를 획득하고, 상기 거리 정보를 사용함으로써 상기 3D 심도 영상을 획득하는 단계
    를 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라 상기 목표 물체의 그래픽 윤곽을 획득하는 단계는,
    상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계
    를 포함하고,
    구체적으로, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하는 단계는,
    상기 3차원 심도 영상에서의 제1 픽셀의 픽셀 심도 값과 제1 픽셀에 연결된 4개의 인접 픽셀 각각의 픽셀 심도 값 사이의 심도 값 차분을 산출하여 4개의 제1 심도 차분 값을 획득하는 단계;
    상기 4개의 제1 심도 차분 값 중 적어도 하나의 제1 심도 차분 값이 제1 차분 임계값보다 클 때, 상기 적어도 하나의 제1 심도 차분 값에 대응하는 인접 픽셀을 윤곽 위치로 마킹하는 단계;
    상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하는지를 질문하는 단계;
    상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하면, 상기 제2 픽셀의 픽셀 심도 값과 상기 제2 픽셀과 연결되어 있는 8개의 인접 픽셀 중 비 윤곽 위치인 픽셀의 픽셀 심도 값 간의 차분 산출을 개별적으로 수행하여 제2 심도 차분 값을 획득하는 단계;
    상기 제2 심도 차분 값 중 적어도 하나가 제2 차분 임계값보다 클 때, 상기 제2 픽셀을 윤곽 위치로 마킹하는 단계; 및
    상기 목표 물체의 그래픽 윤곽을 윤곽 위치로 표시된 픽셀에 따라 획득하는 단계
    를 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 목표 물체의 3D 심도 영상을 획득하는 단계 이후에, 상기 목표 물체의 증상 데이터를 획득하는 방법은,
    상기 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하는 단계
    를 더 포함하고,
    이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계는,
    상기 제1 3D 목표 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계
    를 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  5. 제4항에 있어서,
    상기 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하는 단계는,
    심도 임계값을 설정하는 단계; 및
    상기 3D 심도 영상에서의 각각의 픽셀의 심도 값과 심도 임계값을 비교하고, 3D 심도 영상 중에 픽셀 심도 값이 심도 임계값보다 큰 픽셀을 필터링하며, 나머지 픽셀을 획득하여 제1 3D 목표 심도 영상을 형성하는 단계
    를 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  6. 제5항에 있어서,
    상기 제1 3D 목표 심도 영상을 획득하는 단계 이후에, 상기 목표 물체의 증상 데이터를 획득하는 방법은,
    상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하는 단계
    를 더 포함하고,
    이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계는,
    상기 제2 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 단계
    를 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  7. 제6항에 있어서,
    상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하는 단계는,
    상기 제1 3D 목표 심도 영상을 복수의 픽셀 블록으로 분할하는 단계;
    픽셀 심도 세그먼트 간격을 설정하는 단계;
    각각의 픽셀 블록 내의 모든 픽셀의 픽셀 심도 값에 대해 평균 처리를 수행하여 각각의 픽셀 블록의 픽셀 평균값을 획득하는 단계; 및
    상기 픽셀 평균값을 상기 픽셀 심도 세그먼트 간격 내의 대응하는 간격에 맵핑하고, 동일한 간격의 모든 픽셀 평균값에 대응하는 픽셀 블록을 결합하여 제2 3D 목표 심도 영상을 획득하는 단계
    를 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 목표 물체의 3차원 심도 영상에서의 픽셀의 심도 값에 따라 상기 목표 물체의 프레임워크 파라미터를 획득하는 단계는,
    상기 목표 물체의 3차원 심도 영상에서의 모든 픽셀의 픽셀 심도 값에 따라 선형 최소 제곱 법을 사용함으로써 상기 목표 물체의 중심 축을 획득하는 단계;
    상기 중심 축에 수직인 복수의 제1 선을 따라 상기 목표 물체의 그래픽 윤곽의 횡방향 두께를 산출하는 단계;
    상기 중심 축에 평행한 복수의 제2 선을 따라 상기 목표 물체의 그래픽 윤곽의 종방향 두께를 산출하는 단계; 및
    상기 제1 선 및 상기 제2 선에 의해 한정되는 영역을 사용함으로써 상기 목표 물체의 프레임워크를 구성하는 단계
    를 포함하고,
    대응하는 횡방향 두께 및 종방향의 두께는 상기 목표 물체의 프레임워크 파라미터인, 목표 물체의 증상 데이터를 획득하는 방법.
  9. 제8항에 있어서,
    상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하는 단계는,
    상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하는 단계;
    상기 3D 모델의 그래픽 윤곽이 상기 3D 모델의 정면 그래픽 윤곽이 아닐 때, 상기 3D 모델의 그래픽 윤곽에 따라 상기 3D 모델의 정면 그래픽 윤곽을 획득하는 단계;
    상기 3D 모델의 그래픽 윤곽 및 상기 3D 모델의 정면 그래픽 윤곽에 따라 상기 3D 모델의 시야각 파라미터(visual angle parameter)를 산출하는 단계 - 상기 시야각 파라미터는 상기 3D 모델의 정면 그래픽 윤곽에 기초하는 3D 모델의 그래픽 윤곽의 시야각(visual angle)임 - ;
    상기 시야각 파라미터에 기초하여 상기 3D 모델의 정면 그래픽 윤곽을 회전시켜 상기 3D 모델의 프레임워크 파라미터를 획득하는 단계;
    비교에 의해, 상기 목표 물체의 프레임워크 파라미터와 상기 3D 모델의 프레임워크 파라미터 사이의 유사도(similarity)를 획득하는 단계 - 상기 유사도가 미리 설정된 값보다 작으면, 상기 3D 모델은 상기 목표 물체의 상기 프레임워크 파라미터 및 상기 프레임워크 파라미터에 정합하는 3D 모델임 - ; 및
    상기 3D 모델을 사용함으로써 상기 3차원 모델의 파라미터 비율을 획득하는 단계
    를 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  10. 제9항에 있어서,
    상기 3D 모델 라이브러리는 상기 3D 모델의 모든 시야각의 그래픽 윤곽을 포함하고, 적어도 상기 3D 모델의 정면 그래픽 윤곽을 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  11. 제10항에 있어서,
    상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하는 단계는,
    제르니케 모멘트 디스크립터(Zernike moment descriptor) 및 푸리에 디스크립터를 사용함으로써 제1 디스크립션 정보를 획득하는 단계;
    상기 제르니케 모멘트 디스크립터 및 상기 푸리에 디스크립터를 사용함으로써 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽을 서술하여 제2 디스크립션 정보를 획득하는 단계; 및
    상기 제1 디스크립션 정보와 상기 제2 디스크립션 정보를 비교하고, 상기 제1 디스크립션 정보와 미리 설정된 임계값만큼 상이한 제2 디스크립션 정보에 대응하는 3D 모델의 그래픽 윤곽을 상기 최고 정합도를 가지는 3D 모델의 그래픽 윤곽으로 사용하는 단계
    를 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 목표 물체의 적어도 하나의 실제 크기를 획득하는 단계는,
    상기 목표 물체에 음파 신호를 송신하는 단계;
    상기 목표 물체에 의해 반사된 음파 신호를 수신하는 단계;
    상기 음파 신호의 전송 시간을 획득하는 단계 - 상기 전송 시간은 상기 음파 신호를 송신하는 시각과 상기 음파 신호를 수신하는 시각과의 차분임 -;
    상기 전송 시간과 상기 음파 신호의 전파 속도를 사용함으로써 상기 목표 물체의 표면과 상기 촬영 장치와의 거리를 산출하는 단계; 및
    상기 거리 및 상기 촬영 장치의 영상 거리를 사용함으로써 상기 목표 물체의 적어도 하나의 실제 크기를 산출하는 단계
    를 포함하는, 목표 물체의 증상 데이터를 획득하는 방법.
  13. 목표 물체의 증상 데이터를 획득하는 장치로서,
    목표 물체의 3D 심도 영상(depth image)을 획득하도록 구성되어 있는 촬영 모듈 - 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함함 - ;
    상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득하도록 구성되어 있는 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈 - 상기 심도 값은 상기 목표 물체 상의 포인트와 상기 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리임 - ;
    상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하도록 구성되어 있는 파라미터 비율 획득 모듈;
    상기 목표 물체의 적어도 하나의 실제 크기를 획득하도록 구성되어 있는 실제 크기 획득 모듈; 및
    상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터를 획득하도록 구성되어 있는 증상 데이터 획득 모듈
    을 포함하는 목표 물체의 증상 데이터를 획득하는 장치.
  14. 제13항에 있어서,
    상기 촬영 모듈은,
    상기 목표 물체에 기준 패턴을 송신하도록 구성되어 있는 송신 유닛;
    상기 기준 패턴이 상기 목표 물체에 의해 반사된 후에 획득된 2차 패턴을 수신하도록 구성되어 있는 수신 유닛;
    상기 기준 패턴에 관한 상기 2차 패턴의 오프셋 값을 산출하도록 구성되어 있는 산출 유닛; 및
    상기 오프셋 값에 대해 푸리에 변환을 수행함으로써 상기 거리 정보를 획득하고, 상기 거리 정보를 사용함으로써 상기 3D 심도 영상을 획득하도록 구성되어 있는 영상 획득 유닛
    을 포함하는, 목표 물체의 증상 데이터를 획득하는 장치.
  15. 제13항 또는 제14항에 있어서,
    상기 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈은 구체적으로,
    상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하도록 구성되어 있으며,
    구체적으로, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하는 것은,
    상기 3차원 심도 영상에서의 제1 픽셀의 픽셀 심도 값과 제1 픽셀에 연결된 4개의 인접 픽셀 각각의 픽셀 심도 값 사이의 심도 값 차분을 산출하여 4개의 제1 심도 차분 값을 획득하는 것;
    상기 4개의 제1 심도 차분 값 중 적어도 하나의 제1 심도 차분 값이 제1 차분 임계값보다 클 때, 상기 적어도 하나의 제1 심도 차분 값에 대응하는 인접 픽셀을 윤곽 위치로 마킹하는 것;
    상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하는지를 질문하는 것;
    상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하면, 상기 제2 픽셀의 픽셀 심도 값과 상기 제2 픽셀과 연결되어 있는 8개의 인접 픽셀 중 비 윤곽 위치인 픽셀의 픽셀 심도 값 간의 차분 산출을 개별적으로 수행하여 제2 심도 차분 값을 획득하는 것;
    상기 제2 심도 차분 값 중 적어도 하나가 제2 차분 임계값보다 클 때, 상기 제2 픽셀을 윤곽 위치로 마킹하는 것; 및
    상기 목표 물체의 그래픽 윤곽을 윤곽 위치로 표시된 픽셀에 따라 획득하는 것
    을 포함하는, 목표 물체의 증상 데이터를 획득하는 장치.
  16. 제13항 내지 제15항 중 어느 한 항에 있어서,
    상기 목표 물체의 증상 데이터를 획득하는 장치는 잡음 감소 모듈을 더 포함하며,
    상기 잡음 감소 모듈은,
    상기 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하도록 구성되어 있으며,
    이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은,
    상기 제1 3D 목표 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
    을 포함하는, 목표 물체의 증상 데이터를 획득하는 장치.
  17. 제16항에 있어서,
    상기 잡음 감소 모듈은 구체적으로,
    심도 임계값을 설정하고, 그리고
    상기 3D 심도 영상에서의 각각의 픽셀의 심도 값과 심도 임계값을 비교하고, 3D 심도 영상에 존재하면서 픽셀 심도 값이 심도 임계값보다 큰 픽셀을 필터링하며, 나머지 픽셀을 획득하여 제1 3D 목표 심도 영상을 형성하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 장치.
  18. 제17항에 있어서,
    상기 잡음 감소 모듈은,
    상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하도록 추가로 구성되어 있으며,
    이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은,
    상기 제2 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
    을 포함하는, 목표 물체의 증상 데이터를 획득하는 장치.
  19. 제18항에 있어서,
    상기 잡음 감소 모듈은 구체적으로,
    상기 제1 3D 목표 심도 영상을 복수의 픽셀 블록으로 분할하고,
    픽셀 심도 세그먼트 간격을 설정하고,
    각각의 픽셀 블록 내의 모든 픽셀의 픽셀 심도 값에 대해 평균 처리를 수행하여 각각의 픽셀 블록의 픽셀 평균값을 획득하며, 그리고
    상기 픽셀 평균값을 상기 픽셀 심도 세그먼트 간격 내의 대응하는 간격에 맵핑하고, 동일한 간격의 모든 픽셀 평균값에 대응하는 픽셀 블록을 결합하여 제2 3D 목표 심도 영상을 획득하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 장치.
  20. 제13항 내지 제19항 중 어느 한 항에 있어서,
    상기 그래픽 윤곽 및 프레임워크 파라미터 획득 모듈은 구체적으로,
    상기 목표 물체의 3차원 심도 영상에서의 모든 픽셀의 픽셀 심도 값에 따라 선형 최소 제곱 법을 사용함으로써 상기 목표 물체의 중심 축을 획득하고,
    상기 중심 축에 수직인 복수의 제1 선을 따라 상기 목표 물체의 그래픽 윤곽의 횡방향 두께를 산출하고,
    상기 중심 축에 평행한 복수의 제2 선을 따라 상기 목표 물체의 그래픽 윤곽의 종방향 두께를 산출하며, 그리고
    상기 제1 선 및 상기 제2 선에 의해 한정되는 영역을 사용함으로써 상기 목표 물체의 프레임워크를 구성하도록 구성되어 있으며,
    대응하는 횡방향 두께 및 종방향의 두께는 상기 목표 물체의 프레임워크 파라미터인, 목표 물체의 증상 데이터를 획득하는 장치.
  21. 제20항에 있어서,
    상기 파라미터 비율 획득 모듈은 구체적으로,
    상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하고,
    상기 3D 모델의 그래픽 윤곽이 상기 3D 모델의 정면 그래픽 윤곽이 아닐 때, 상기 3D 모델의 그래픽 윤곽에 따라 상기 3D 모델의 정면 그래픽 윤곽을 획득하고,
    상기 3D 모델의 그래픽 윤곽 및 상기 3D 모델의 정면 그래픽 윤곽에 따라 상기 3D 모델의 시야각 파라미터를 산출하고 - 상기 시야각 파라미터는 상기 3D 모델의 정면 그래픽 윤곽에 기초하는 3D 모델의 그래픽 윤곽의 시야각임 - ;
    상기 시야각 파라미터에 기초하여 상기 3D 모델의 정면 그래픽 윤곽을 회전시켜 상기 3D 모델의 프레임워크 파라미터를 획득하고,
    비교에 의해, 상기 목표 물체의 프레임워크 파라미터와 상기 3D 모델의 프레임워크 파라미터 사이의 유사도를 획득하며 - 상기 유사도가 미리 설정된 값보다 작으면, 상기 3D 모델은 상기 목표 물체의 상기 프레임워크 파라미터 및 상기 프레임워크 파라미터에 정합하는 3D 모델임 - , 그리고
    상기 3D 모델을 사용함으로써 상기 3차원 모델의 파라미터 비율을 획득하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 장치.
  22. 제21항에 있어서,
    상기 3D 모델 라이브러리는 상기 3D 모델의 모든 시야각의 그래픽 윤곽을 포함하고, 적어도 상기 3D 모델의 정면 그래픽 윤곽을 포함하는, 목표 물체의 증상 데이터를 획득하는 장치.
  23. 제22항에 있어서,
    상기 파라미터 비율 획득 모듈은 구체적으로,
    제르니케 모멘트 디스크립터 및 푸리에 디스크립터를 사용함으로써 제1 디스크립션 정보를 획득하고,
    상기 제르니케 모멘트 디스크립터 및 상기 푸리에 디스크립터를 사용함으로써 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽을 서술하여 제2 디스크립션 정보를 획득하며, 그리고
    상기 제1 디스크립션 정보와 상기 제2 디스크립션 정보를 비교하고, 상기 제1 디스크립션 정보와 미리 설정된 임계값만큼 상이한 제2 디스크립션 정보에 대응하는 3D 모델의 그래픽 윤곽을 상기 최고 정합도를 가지는 3D 모델의 그래픽 윤곽으로 사용하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 장치.
  24. 제13항 내지 제23항 중 어느 한 항에 있어서,
    상기 실제 크기 획득 모듈은 구체적으로,
    상기 목표 물체에 음파 신호를 송신하고,
    상기 목표 물체에 의해 반사된 음파 신호를 수신하고,
    상기 음파 신호의 전송 시간을 획득하고 - 상기 전송 시간은 상기 음파 신호를 송신하는 시각과 상기 음파 신호를 수신하는 시각과의 차분임 -;
    상기 전송 시간과 상기 음파 신호의 전파 속도를 사용함으로써 상기 목표 물체의 표면과 상기 촬영 장치와의 거리를 산출하며, 그리고
    상기 거리 및 상기 촬영 장치의 영상 거리를 사용함으로써 상기 목표 물체의 적어도 하나의 실제 크기를 산출하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 장치.
  25. 목표 물체의 증상 데이터를 획득하는 단말로서,
    목표 물체의 3D 심도 영상을 획득하도록 구성되어 있는 3D 센서 - 상기 3D 심도 영상은 거리 정보를 가지는 2차원 영상이고, 상기 거리 정보는 상기 목표 물체와 촬영 장치 간의 거리를 포함함 - ; 및
    상기 목표 물체의 3D 심도 영상에서의 픽셀의 심도 값에 따라, 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽을 획득하도록 구성되어 있는 프로세서
    를 포함하며,
    상기 심도 값은 상기 목표 물체 상의 포인트와 상기 촬영 장치 사이의 거리로서 상기 거리 정보에 따라 획득되는 거리이고,
    상기 프로세서는 상기 목표 물체의 프레임워크 파라미터 및 그래픽 윤곽에 정합하는 3D 모델을 3D 모델 라이브러리로부터 검색하고, 상기 3D 모델의 파라미터 비율을 획득하도록 추가로 구성되어 있으며,
    상기 프로세서는 상기 목표 물체의 적어도 하나의 실제 크기를 획득하고 상기 3D 모델의 파라미터 비율 및 상기 적어도 하나의 실제 크기에 따라 상기 목표 물체의 증상 데이터를 획득하도록 추가로 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 단말.
  26. 제25항에 있어서,
    상기 3D 센서는 구체적으로,
    상기 목표 물체에 기준 패턴을 송신하고,
    상기 기준 패턴이 상기 목표 물체에 의해 반사된 후에 획득된 2차 패턴을 수신하고,
    상기 기준 패턴에 관한 상기 2차 패턴의 오프셋 값을 산출하며, 그리고
    상기 오프셋 값에 대해 푸리에 변환을 수행함으로써 상기 거리 정보를 획득하고, 상기 거리 정보를 사용함으로써 상기 3D 심도 영상을 획득하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 단말.
  27. 제25항 또는 제26항에 있어서,
    상기 프로세서는 구체적으로 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하도록 구성되어 있으며,
    구체적으로, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하는 것은,
    상기 3차원 심도 영상에서의 제1 픽셀의 픽셀 심도 값과 제1 픽셀에 연결된 4개의 인접 픽셀 각각의 픽셀 심도 값 사이의 심도 값 차분을 산출하여 4개의 제1 심도 차분 값을 획득하는 것;
    상기 4개의 제1 심도 차분 값 중 적어도 하나의 제1 심도 차분 값이 제1 차분 임계값보다 클 때, 상기 적어도 하나의 제1 심도 차분 값에 대응하는 인접 픽셀을 윤곽 위치로 마킹하는 것;
    상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하는지를 질문하는 것;
    상기 3D 심도 영상에서의 제2 픽셀에 연결된 8개의 인접 픽셀에 윤곽 위치로 표시된 픽셀이 존재하면, 상기 제2 픽셀의 픽셀 심도 값과 상기 제2 픽셀과 연결되어 있는 8개의 인접 픽셀 중 비 윤곽 위치인 픽셀의 픽셀 심도 값 간의 차분 산출을 개별적으로 수행하여 제2 심도 차분 값을 획득하는 것;
    상기 제2 심도 차분 값 중 적어도 하나가 제2 차분 임계값보다 클 때, 상기 제2 픽셀을 윤곽 위치로 마킹하는 것; 및
    상기 목표 물체의 그래픽 윤곽을 윤곽 위치로 표시된 픽셀에 따라 획득하는 것
    을 포함하는, 목표 물체의 증상 데이터를 획득하는 단말.
  28. 제25항 내지 제27항 중 어느 한 항에 있어서,
    상기 프로세서는 상기 3D 심도 영상에 대해 배경 잡음 감소 처리를 수행하여 제1 3D 목표 심도 영상을 획득하도록 추가로 구성되어 있으며,
    이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은,
    상기 제1 3D 목표 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
    을 포함하는, 목표 물체의 증상 데이터를 획득하는 단말.
  29. 제28항에 있어서,
    상기 프로세서는 구체적으로,
    심도 임계값을 설정하고, 그리고
    상기 3D 심도 영상에서의 각각의 픽셀의 심도 값과 심도 임계값을 비교하고, 3D 심도 영상에 존재하면서 픽셀 심도 값이 심도 임계값보다 큰 픽셀을 필터링하며, 나머지 픽셀을 획득하여 제1 3D 목표 심도 영상을 형성하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 단말.
  30. 제29항에 있어서,
    상기 프로세서는,
    상기 제1 3D 목표 심도 영상에 대해 가장자리 잡음 감소 처리를 수행하여 제2 3D 목표 심도 영상을 획득하도록 추가로 구성되어 있으며,
    이에 대응해서, 상기 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것은,
    상기 제2 3D 심도 영상에서의 픽셀의 심도 값에 대해 차분 산출을 수행하여 상기 목표 물체의 그래픽 윤곽을 획득하는 것
    을 포함하는, 목표 물체의 증상 데이터를 획득하는 단말.
  31. 제30항에 있어서,
    상기 프로세서는 구체적으로,
    상기 제1 3D 목표 심도 영상을 복수의 픽셀 블록으로 분할하고,
    픽셀 심도 세그먼트 간격을 설정하고,
    각각의 픽셀 블록 내의 모든 픽셀의 픽셀 심도 값에 대해 평균 처리를 수행하여 각각의 픽셀 블록의 픽셀 평균값을 획득하며, 그리고
    상기 픽셀 평균값을 상기 픽셀 심도 세그먼트 간격 내의 대응하는 간격에 맵핑하고, 동일한 간격의 모든 픽셀 평균값에 대응하는 픽셀 블록을 결합하여 제2 3D 목표 심도 영상을 획득하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 단말.
  32. 제25항 내지 제31항 중 어느 한 항에 있어서,
    상기 프로세서는 구체적으로,
    상기 목표 물체의 3차원 심도 영상에서의 모든 픽셀의 픽셀 심도 값에 따라 선형 최소 제곱 법을 사용함으로써 상기 목표 물체의 중심 축을 획득하고,
    상기 중심 축에 수직인 복수의 제1 선을 따라 상기 목표 물체의 그래픽 윤곽의 횡방향 두께를 산출하고,
    상기 중심 축에 평행한 복수의 제2 선을 따라 상기 목표 물체의 그래픽 윤곽의 종방향 두께를 산출하며, 그리고
    상기 제1 선 및 상기 제2 선에 의해 한정되는 영역을 사용함으로써 상기 목표 물체의 프레임워크를 구성하도록 구성되어 있으며,
    대응하는 횡방향 두께 및 종방향의 두께는 상기 목표 물체의 프레임워크 파라미터인, 목표 물체의 증상 데이터를 획득하는 단말.
  33. 제32항에 있어서,
    상기 프로세서는 구체적으로,
    상기 목표 물체의 그래픽 윤곽과 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽 간의 정합을 수행하여, 최고 정합도를 가지는 3D 모델의 그래픽 윤곽을 획득하고,
    상기 3D 모델의 그래픽 윤곽이 상기 3D 모델의 정면 그래픽 윤곽이 아닐 때, 상기 3D 모델의 그래픽 윤곽에 따라 상기 3D 모델의 정면 그래픽 윤곽을 획득하고,
    상기 3D 모델의 그래픽 윤곽 및 상기 3D 모델의 정면 그래픽 윤곽에 따라 상기 3D 모델의 시야각 파라미터를 산출하고 - 상기 시야각 파라미터는 상기 3D 모델의 정면 그래픽 윤곽에 기초하는 3D 모델의 그래픽 윤곽의 시야각임 - ;
    상기 시야각 파라미터에 기초하여 상기 3D 모델의 정면 그래픽 윤곽을 회전시켜 상기 3D 모델의 프레임워크 파라미터를 획득하고,
    비교에 의해, 상기 목표 물체의 프레임워크 파라미터와 상기 3D 모델의 프레임워크 파라미터 사이의 유사도를 획득하며 - 상기 유사도가 미리 설정된 값보다 작으면, 상기 3D 모델은 상기 목표 물체의 상기 프레임워크 파라미터 및 상기 프레임워크 파라미터에 정합하는 3D 모델임 - , 그리고
    상기 3D 모델을 사용함으로써 상기 3차원 모델의 파라미터 비율을 획득하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 단말.
  34. 제33항에 있어서,
    상기 3D 모델 라이브러리는 상기 3D 모델의 모든 시야각의 그래픽 윤곽을 포함하고, 적어도 상기 3D 모델의 정면 그래픽 윤곽을 포함하는, 목표 물체의 증상 데이터를 획득하는 단말.
  35. 제34항에 있어서,
    상기 프로세서는 구체적으로,
    제르니케 모멘트 디스크립터 및 푸리에 디스크립터를 사용함으로써 제1 디스크립션 정보를 획득하고,
    상기 제르니케 모멘트 디스크립터 및 상기 푸리에 디스크립터를 사용함으로써 상기 3D 모델 라이브러리에서의 3D 모델의 그래픽 윤곽을 서술하여 제2 디스크립션 정보를 획득하며, 그리고
    상기 제1 디스크립션 정보와 상기 제2 디스크립션 정보를 비교하고, 상기 제1 디스크립션 정보와 미리 설정된 임계값만큼 상이한 제2 디스크립션 정보에 대응하는 3D 모델의 그래픽 윤곽을 상기 최고 정합도를 가지는 3D 모델의 그래픽 윤곽으로 사용하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 단말.
  36. 제25항 내지 제35항 중 어느 한 항에 있어서,
    상기 프로세서는 구체적으로,
    상기 목표 물체에 음파 신호를 송신하고,
    상기 목표 물체에 의해 반사된 음파 신호를 수신하고,
    상기 음파 신호의 전송 시간을 획득하고 - 상기 전송 시간은 상기 음파 신호를 송신하는 시각과 상기 음파 신호를 수신하는 시각과의 차분임 - ,
    상기 전송 시간과 상기 음파 신호의 전파 속도를 사용함으로써 상기 목표 물체의 표면과 상기 촬영 장치와의 거리를 산출하며, 그리고
    상기 거리 및 상기 촬영 장치의 영상 거리를 사용함으로써 상기 목표 물체의 적어도 하나의 실제 크기를 산출하도록 구성되어 있는, 목표 물체의 증상 데이터를 획득하는 단말.
KR1020177001223A 2014-06-27 2015-06-26 목표 물체의 증상 데이터를 획득하기 위한 방법, 장치, 및 단말 KR101922039B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410301461.2 2014-06-27
CN201410301461.2A CN105336005B (zh) 2014-06-27 2014-06-27 一种获取目标物体体征数据的方法、装置及终端
PCT/CN2015/082539 WO2015197026A1 (zh) 2014-06-27 2015-06-26 一种获取目标物体体征数据的方法、装置及终端

Publications (2)

Publication Number Publication Date
KR20170019430A true KR20170019430A (ko) 2017-02-21
KR101922039B1 KR101922039B1 (ko) 2018-11-26

Family

ID=54936983

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177001223A KR101922039B1 (ko) 2014-06-27 2015-06-26 목표 물체의 증상 데이터를 획득하기 위한 방법, 장치, 및 단말

Country Status (7)

Country Link
US (1) US9984461B2 (ko)
EP (1) EP3144900B1 (ko)
JP (1) JP6549620B2 (ko)
KR (1) KR101922039B1 (ko)
CN (1) CN105336005B (ko)
BR (1) BR112016030027B1 (ko)
WO (1) WO2015197026A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT201600122898A1 (it) * 2016-12-02 2018-06-02 Ecole Polytechnique Fed Lausanne Epfl Metodi e apparati per codificare e decodificare immagini o flussi video digitali
JP2018136896A (ja) * 2017-02-24 2018-08-30 キヤノン株式会社 情報処理装置、システム、情報処理方法、および物品の製造方法
CN107270829B (zh) * 2017-06-08 2020-06-19 南京华捷艾米软件科技有限公司 一种基于深度图像的人体三围测量方法
CN109658515B (zh) * 2017-10-11 2022-11-04 阿里巴巴集团控股有限公司 点云网格化方法、装置、设备及计算机存储介质
CN108229332B (zh) * 2017-12-08 2020-02-14 华为技术有限公司 骨骼姿态确定方法、装置及计算机可读存储介质
FR3076028B1 (fr) * 2017-12-21 2021-12-24 Commissariat Energie Atomique Methode de reconnaissance d'objets dans une scene observee en trois dimensions
TWI672937B (zh) * 2018-02-05 2019-09-21 廣達電腦股份有限公司 三維影像處理之裝置及方法
CN110910393B (zh) * 2018-09-18 2023-03-24 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备及存储介质
CN111768878A (zh) * 2020-06-30 2020-10-13 杭州依图医疗技术有限公司 可视化指引病灶的方法及计算机可读存储介质
CN114842147A (zh) * 2022-05-16 2022-08-02 聚好看科技股份有限公司 一种测量人体参数的方法及电子设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4954962A (en) * 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US7298415B2 (en) * 2001-07-13 2007-11-20 Xenogen Corporation Structured light imaging apparatus
US7113217B2 (en) * 2001-07-13 2006-09-26 Xenogen Corporation Multi-view imaging apparatus
KR100488366B1 (ko) 2002-03-13 2005-05-11 주식회사 에스알에스텍 초음파를 이용한 수소유기균열 및 부식 측정 시스템과안전성 평가 방법
US7128024B2 (en) * 2003-07-15 2006-10-31 Doyle Ii John Conan System and method for measuring animals
CN101288105B (zh) 2005-10-11 2016-05-25 苹果公司 用于物体重现的方法和系统
US8249334B2 (en) * 2006-05-11 2012-08-21 Primesense Ltd. Modeling of humanoid forms from depth maps
KR101640039B1 (ko) * 2009-09-22 2016-07-18 삼성전자주식회사 영상 처리 장치 및 방법
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US8994792B2 (en) 2010-08-27 2015-03-31 Broadcom Corporation Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information
US20120050480A1 (en) 2010-08-27 2012-03-01 Nambi Seshadri Method and system for generating three-dimensional video utilizing a monoscopic camera
US8810565B2 (en) 2010-08-27 2014-08-19 Broadcom Corporation Method and system for utilizing depth information as an enhancement layer
JP5597087B2 (ja) * 2010-10-04 2014-10-01 パナソニック株式会社 仮想物体操作装置
KR101815975B1 (ko) * 2011-07-27 2018-01-09 삼성전자주식회사 객체 자세 검색 장치 및 방법
KR101911133B1 (ko) * 2012-06-21 2018-10-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 깊이 카메라를 이용한 아바타 구성
WO2014022608A2 (en) * 2012-08-02 2014-02-06 Microsoft Corporation Avatar-based virtual dressing room
CN103294996B (zh) * 2013-05-09 2016-04-27 电子科技大学 一种3d手势识别方法
CN103745218B (zh) * 2014-01-26 2017-02-15 清华大学 一种深度图像中的姿势识别方法及装置

Also Published As

Publication number Publication date
WO2015197026A1 (zh) 2015-12-30
EP3144900B1 (en) 2023-04-05
CN105336005B (zh) 2018-12-14
BR112016030027A2 (pt) 2017-08-22
BR112016030027B1 (pt) 2023-10-10
CN105336005A (zh) 2016-02-17
KR101922039B1 (ko) 2018-11-26
EP3144900A4 (en) 2017-07-26
US20170109885A1 (en) 2017-04-20
EP3144900A1 (en) 2017-03-22
JP6549620B2 (ja) 2019-07-24
US9984461B2 (en) 2018-05-29
JP2017525029A (ja) 2017-08-31

Similar Documents

Publication Publication Date Title
KR101922039B1 (ko) 목표 물체의 증상 데이터를 획득하기 위한 방법, 장치, 및 단말
CN110599540B (zh) 多视点相机下的实时三维人体体型与姿态重建方法及装置
WO2020063987A1 (zh) 三维扫描方法、装置、存储介质和处理器
JP2019534510A5 (ko)
US7825948B2 (en) 3D video conferencing
CN111649690A (zh) 一种能够手持的3d信息采集的设备及方法
CN103971408A (zh) 三维人脸模型生成系统及方法
WO2006094409B1 (en) Auto-referenced system and apparatus for three-dimensional scanning
JP2014127208A (ja) 物体検出方法及び物体検出装置
JP2024056955A (ja) 光学式捕捉によるパーソナライズされたhrtf
JP2013535013A5 (ko)
JP2016157336A (ja) 画像処理装置、画像処理方法及びプログラム
CN109520480B (zh) 基于双目立体视觉的测距方法及测距系统
KR101593316B1 (ko) 스테레오 카메라를 이용한 3차원 모델 재구성 방법 및 장치
CN112837207B (zh) 全景深度测量方法、四目鱼眼相机及双目鱼眼相机
CN106228530A (zh) 一种立体摄影方法、装置及立体摄影设备
JP7247573B2 (ja) 三次元形状モデル生成装置、三次元形状モデル生成方法、及びプログラム
CN107864372A (zh) 立体拍照方法、装置及终端
CN210986289U (zh) 四目鱼眼相机及双目鱼眼相机
JP2012122816A (ja) 3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム
KR20160039447A (ko) 스테레오 카메라를 이용한 공간분석시스템
CN115205491A (zh) 一种手持多视图三维重建的方法及装置
CN115082621B (zh) 一种三维成像方法、装置、系统、电子设备及存储介质
CN113424524B (zh) 使用半球形或球形可见光深度图像的三维建模
US20220058819A1 (en) Mobile 3d crowd scanning methods and apparatus

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant