KR20110105789A - 오브젝트 감시 방법 및 장치 - Google Patents

오브젝트 감시 방법 및 장치 Download PDF

Info

Publication number
KR20110105789A
KR20110105789A KR1020117015715A KR20117015715A KR20110105789A KR 20110105789 A KR20110105789 A KR 20110105789A KR 1020117015715 A KR1020117015715 A KR 1020117015715A KR 20117015715 A KR20117015715 A KR 20117015715A KR 20110105789 A KR20110105789 A KR 20110105789A
Authority
KR
South Korea
Prior art keywords
image data
pattern
calibration
radiation pattern
recording
Prior art date
Application number
KR1020117015715A
Other languages
English (en)
Inventor
리챠드 아일스
조나단 카메론
가레쓰 로버트
워드 힐스
존 라센비
리챠드 웨어햄
Original Assignee
뉴머케어 엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 뉴머케어 엘티디 filed Critical 뉴머케어 엘티디
Publication of KR20110105789A publication Critical patent/KR20110105789A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • A61B5/1135Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing by monitoring thoracic expansion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Dentistry (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 오브젝트 감시 방법에 관한 것으로, 특히, 사람의 구성의 변화 감시에 관한 것이지만, 여기에 한정되는 것은 아니다. 이 방법은, 감시할 오브젝트에 방사 패턴을 투영하는 단계; 오브젝트상의 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제1 이미지 데이터를 제1 시간 인스턴트에서 기록하는 단계로서, 상기 제1 이미지 데이터는 상기 제1 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계; 오브젝트상의 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제2 이미지 데이터를 제2 시간 인스턴트에서 기록하는 단계로서, 상기 제2 이미지 데이터는 상기 제2 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계; 및 상기 제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 상기 제1 및 제2 이미지 데이터를 처리하는 단계를 포함한다. 본 발명은 또한 본 발명에 따른 방법을 구현하는 장치 및 소프트웨어에 관한 것이다.

Description

오브젝트 감시 방법 및 장치{METHOD AND APPARATUS FOR MONITORING AN OBJECT}
본 발명은 오브젝트 감시 방법에 관한 것으로, 특히, 사람의 구성의 변화 감시에 관한 것이지만, 여기에 한정되는 것은 아니다.
오브젝트의 3차원 구성의 감시, 예를 들면, 사람의 호흡 및/또는 폐 기능을 포함하여, 생명 징후의 감시가 행해질 수 있는 많은 애플리케이션이 있다. 또한, 폐기능의 감시는, 수백만 사람들에게 영향을 주는 국제 보건 문제인 폐 질환의 존재를 판정하는데 도움을 주기 위해 사용될 수 있는 데이터를 제공할 수 있다. 폐질환의 효과적인 의료적 관리는 폐기능의 평가와 감시를 요구한다. 이것은 치료 관찰 또는 폐활량검사(1930년대에 개발된 기술)에 의해 주로 행해진다.
폐기능을 감시하는 현존 기술에 제한적인 한계가 있어서, 치료 필요를 만족시킬수 없으며, 특히, 폐활량검사 기술은 주의 깊고 상호협력적인 환자가 장치를 사용하면서 지시를 따를 것을 요구한다. 이들 기술은 5세 이하의 어린이, 심하게 아프거나 의식이 없는 환자, 또는 만성질환자 또는 노인에게 사용하는데 적합하지 않다. 이러한 환자들은 종종 온전히 평가되거나 감시될 수 없어서, 종속된 치료 관찰에 의해 평가가 이루어진다. 이것은 종속적인 요소들로 치료 결정(예를 들면, 집중 보호에서 덜 자원-집중적인 일반적인 보호 등으로의 환자의 이송)하여, 자원의 비효율적인 사용과 차선의 치료관리를 가져온다.
폐 기능을 감시하는 다른 기술은 환자와의 물리적인 접촉, 예를 들면, 센서 또는 반사 표지가 대상에 놓여지거나 부착될 것을 요구한다. 이것은, 예를 들면, 화상 피해자의 감시 또는 미숙아의 폐기능 측정 등과 같은 위험한 보호 상황에서, 의학적으로 추천불가능하거나 실행불가능할 수 있다.
본 발명의 목적은 이러한 단점을 극복하는 것이다.
본 발명의 일 구성에 따르면, 오브젝트를 감시하는 방법이 제공되며, 이 방법은,
a) 감시할 오브젝트에 방사 패턴을 투영하는 단계;
b) 오브젝트에서 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제1 이미지 데이터를 제1 시간 인스턴트에서 기록하는 단계로서, 상기 제1 이미지 데이터는 상기 제1 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;
c) 오브젝트에서 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제2 이미지 데이터를 제2 시간 인스턴트에서 기록하는 단계로서, 상기 제2 이미지 데이터는 상기 제2 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계; 및
d) 상기 제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 구성의 변화를 나타내는 디퍼렌셜(differential) 데이터를 생성하기 위해 상기 제1 및 제2 이미지 데이터를 처리하는 단계를 포함한다.
본 발명의 방법은 기간에 걸쳐 오브젝트의 3차원 구성의 변화를 정확하게 감시하는 것을 바람직하게 제공한다. 디퍼렌셜 데이터를 생성하는데 있어서 사용하기 위해 대응하는 이미지 데이터를 얻기 위해 투영된 방사 패턴을 사용함으로써, 감시되고 있는 오브젝트와의 접촉이 행해지는 것은 필요하지 않다. 따라서, 본 발명의 방법은 매우 간단한 구성으로 효과를 낼 수 있으며, 감시할 오브젝트와의 접촉이 필요하지 않기 때문에, 제어되거나 격리된 환경에서의 오브젝트를 포함하여 이동하는 및/또는 연약한 오브젝트를 감시하기에 매우 적합하고, 오브젝트와의 상호 작용은 오브젝트 상의 투영된 광 패턴의 형태이다.
디퍼렌셜 데이터는 오브젝트의 3차원 구성을 나타내는 제1 및 제2 이미지 데이터에 기초하기 때문에, 감시되는 오브젝트의 3차원 성질에 대응하고, 오브젝트의 구성상 변화는 본 발명의 방법에 의해 정확히 결정된다.
본 발명의 바람직한 실시예에서, 본 방법은 제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 용적의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 상기 제1 및 제2 이미지 데이터를 처리하는 것을 포함한다. 감시되는 오브젝트와의 접촉을 필요로 하지 않고, 기간에 걸쳐 오브젝트의 용적의 변화를 결정하는 능력이 유리하고 간단하며, 많은 다양한 애플리케이션에서 사용될 수 있는 오브젝트의 용적 데이터를 제공한다.
단계 b) 및 c)에서 일부는 실질적으로 패턴의 동일한 부분일 수 있다. 또는, 단계 b) 및 c)에서 일부는 패턴의 상이한 부분일 수 있으며, 본 발명은, 오브젝트의 움직임을 허용하면서, 오브젝트의 적어도 일부에 대해 디퍼렌셜 데이터를 생성하는 것을 허용한다.
본 발명의 일 실시예에서, 본 방법은 제1 및 제2 시간 인스턴트 사이의 시간에 걸쳐서 오브젝트의 전체 움직임을 식별하기 위한 제1 및 제2 이미지 데이터의 처리를 포함한다.
바람직하게, 방사 패턴은 이미지로서 해석(interpret)될 때, 분명하고 즉시 위치가능한 요소의 조합, 예를 들면, 공간적으로 분포되는 교점, 코너 또는 원형 패치의 조합을 포함하는, 비전리 전자기 방사의 공간적으로 변화하는 세기 패턴이다.
바람직하게, 전자기 방사는 가시광 또는 비가시 적외 방사일 수 있다. 또는, 전자기 방사는 다른 주파수의 것일 수 있다.
바람직하게, 단계 a)에서 방사의 상이한 패턴의 시퀀스가 오브젝트로 투영되고, 각각의 상이한 패턴은 상이한 시간 인스턴트에서 연속적으로 투영된다.
본 발명의 바람직한 실시예에서, 방법은,
복수의 또 다른 시간 인스턴트에서 오브젝트 상의 투영된 방사 패턴의 적어도 일부를 나타내는 또 다른 이미지 데이터를 기록하는 단계로서, 상기 또 다른 이미지 데이터는 복수의 또 다른 시간 인스턴트의 각각에서 상기 오브젝트의 3차원 구성을 나타내는, 단계; 및
상기 복수의 또 다른 시간 인스턴트의 적어도 2개의 사이에서 상기 오브젝트의 구성상 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 상기 또 다른 이미지 데이터를 처리하는 단계를 포함한다.
상기 또 다른 이미지 데이터를 기록 및 처리는, 제1 및 제2 이미지 데이터를 기록 및 처리한 뒤에 행해질 수 있다. 상기 또 다른 이미지 데이터는 복수의 상이한 시간 인스턴트에서 각각 기록된 복수의 이미지 데이터를 포함할 수 있다. 그러므로, 또 다른 이미지 데이터를 사용하여 생성되는 디퍼렌셜 데이터가, 연장된 기간과 같이 임의의 지속 기간에 걸친 구성 변화를 감시하기 위해 사용될 수 있다. 이것은 예를 들면, 시간에 걸쳐 환자의 호흡의 연속적인 감시와 같이, 본 발명의 의학적 애플리케이션에서 유리하다.
또 다른 이미지 데이터가, 오브젝트의 3차원 구성의 변화를 감시하기 위해 필요한 시간 해상도에 종속되며, 본 발명의 주어진 애플리케이션과 일치하는 속도로 기록될 수 있다. 의학적 애플리케이션, 예를 들면, 흉부 움직임 및 호흡의 감시의 바람직한 실시예에서, 이 속도는 초당 50 또는 60 시간 인스턴트, 즉, 50 또는 60 Hertz일 수 있다. 또는, 또 다른 이미지 데이터가 더 빠른 속도, 예를 들면 초당 180 또는 360 시간 인스턴트로 기록될 수 있으며, 개선된 시간 해상도와 공간 정확도를 제공한다. 오브젝트의 구성의 변화가 원하는 대로, 예를 들면, 50 ~ 360 Hertz의 범위 내의 속도로 감시될 수 있도록 임의의 기록률이 선택될 수 있지만, 이것에 제한되는 것은 아니다. 이 속도는 카메라와 같이, 감시를 행하는 장치의 용량 및/또는 설정에 의해 결정될 수 있다.
바람직한 실시예에서, 본 발명은 방사 패턴이 투영되지 않는 오브젝트의 일부의 구성을 근사하는 것을 포함한다. 제1 및/또는 제2 이미지 데이터가 근사를 위해 사용될 수 있다. 부가적으로 또는 선택적으로, 세기 패턴이 투영되지 않은 오브젝트의 표면을 근사하기 위해 알고리즘이 사용될 수 있다. 예를 들면, 편평한 면에 대해 단순한 보간 알고리즘이 사용될 수 있다. 또는, 예를 들면, 원통 또는 구의 일부의 보다 복잡한 표면을 사용하여 보간하기 위해 보다 복잡한 알고리즘이 사용될 수 있다. 이 방법은 오브젝트의 일부의 근사된 구성을 이용하여 디퍼렌셜 데이터를 생성하는 것을 포함할 수 있다. 따라서, 오브젝트의 비주사된 부분의 구성은, 본 발명의 방법을 행하는 장치에 의한 오브젝트와의 접촉을 요구하지 않으며, 구성의 변화, 예를 들면, 용적의 변화가 정확하게 결정되는 것을 허용한다. 구성이 근사되는 오브젝트의 부분은 방사 패턴이 투영되는 오브젝트의 반대 면일 수 있다. 예를 들면, 패턴이 사람의 정면에 투영되면, 사람의 후면의 구성이 근사될 수 있다.
본 발명의 바람직한 실시예에서 오브젝트는 사람이거나 적어도 사람의 일부이다. 이러한 실시예에서, 본 방법은 제1 및 제2 이미지 데이터를 사람을 특징짓는 생물-물리학-모델 데이터로 처리하는 것을 포함할 수 있다. 생물-물리학-모델 데이터는 사람의 키, 연령, 성별, 체형을 나타내는 파라미터 및/또는 신체의 일부의 기계적인 구성을 나타내는 파라미터를 포함할 수 있다. 파라미터는 사람의 정상 및 비정상 상태에 모두 관련된다. 이것은 본 방법이 감시되는 사람의 체형에 맞춰지는 것을 허용하여 디퍼렌셜 데이터의 개선된 정확도를 산출한다.
바람직한 실시예에서, 구성의 변화는 호흡률, 동적인 공기 흐름, 및/또는 호흡 용적의 동적 변화 등의 사람의 폐기능을 나타낼 수 있다.
특허 출원 EP 1645841은 3차원 형상 측정 장치를 설명하지만, 본 발명에 따른 제1 및 제2 이미지 데이터를 기록하지 않고, 각각은 감시되는 오브젝트의 3차원 구성을 나타낸다. 그러므로, 본 발명에서와 같이, 제1 및 제2 이미지 데이터를 사용하여 디퍼렌셜 데이터를 생성하지 않는다. 또한, EP 1645841의 장치는 본 발명의 장치와 달리, 장치 구성요소의 정확한 배치를 요구한다.
바람직한 실시예에서, 본 방법은 적어도 단계 a) 및 b)에서 행해지도록 마련된 장치를 교정하는 단계를 포함하며, 상기 교정 단계는, 방사의 교정 패턴을 교정 오브젝트에 투영하는 단계; 및 상기 투영된 방사의 교정 패턴의 적어도 일부를 나타내는 교정 이미지 데이터를 기록하는 단계로서, 상기 교정 이미지 데이터는 상기 교정 오브젝트의 3차원 구성을 나타내는, 단계; 및 상기 단계 d)에서의 상기 제1 및 제2 이미지 데이터를 교정 이미지 데이터로 처리하여 디퍼렌셜 데이터를 생성하는 단계를 포함한다.
장치를 바람직하게 교정함으로써, 생성된 디퍼렌셜 데이터는 보다 정확한 것이 확실해진다.
이 방법은 방사의 상이한 교정 패턴의 시퀀스를 교정 오브젝트에 투영하는 단계와, 방사의 상기 상이한 교정 패턴의 각각에 대한 교정 이미지 데이터를 기록하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 방법은, 제1 및/또는 제2 이미지 데이터로부터 오브젝트의 치수를 결정하기 위해 사용되는 유닛 스케일을 결정하기 위해, 단계 a) ~ d)를 실행하기 전에 상기 교정을 행하는 단계를 포함할 수 있다.
바람직하게, 단계 a)에서의 투영은 감시할 오브젝트에 상기 교정 패턴 또는 상기 교정 패턴 중 적어도 하나를 투영하는 단계를 더 포함하며, 단계 b) 및/또는 c)에 기록된 제1 및/또는 제2 이미지 데이터는 상기 방법을 행하기 위한 장치의 투영 시스템과 기록 시스템의 특성을 나타내는 교정 이미지 데이터를 포함한다.
투영된 방사 패턴 및 방사의 투영된 교정 패턴 또는 교정 패턴의 적어도 하나는 서로 인터리브될 수 있다. 이와 같이, 교정은 오브젝트의 감시와 동시에 행해질 수 있다.
본 발명의 또 다른 구성에 따르면, 오브젝트를 감시하는 방법이 제공되며, 이 방법은,
a) 감시할 오브젝트에 방사 패턴을 투영하는 단계;
b) 오브젝트 상에 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제1 이미지 데이터를 제1 시간 인스턴트에 기록하는 단계로서, 상기 제1 이미지 데이터는 상기 제1 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;
c) 오브젝트 상에 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제2 이미지 데이터를 제2 시간 인스턴트에 기록하는 단계로서, 상기 제2 이미지 데이터는 상기 제2 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;및
d) 제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 처리 시스템에 상기 제1 및 제2 이미지 데이터를 제공하는 단계를 포함한다.
본 발명의 또 다른 구성에 따르면, 오브젝트를 감시하는 방법이 제공되며, 이 방법은,
a) i) 감시할 오브젝트에 방사 패턴을 투영하는 단계;
ii) 오브젝트 상에 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제1 이미지 데이터를 제1 시간 인스턴트에 기록하는 단계로서, 상기 제1 이미지 데이터는 상기 제1 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;및
iii) 오브젝트 상에 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제2 이미지 데이터를 제2 시간 인스턴트에 기록하는 단계로서, 상기 제2 이미지 데이터는 상기 제2 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;
의 방법에 의해 기록된 제1 및 제2 이미지 데이터를 수신하는 단계; 및
b) 제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 상기 제1 및 제2 이미지 데이터를 처리하는 단계를 포함한다.
따라서, 본 발명의 방법의 단계 a) ~ c)는, 예를 들면 컴퓨터 네트워크를 통해서 본 발명의 단계 d)의 원격에서 행해질 수 있다.
본 발명의 또 다른 구성에 따르면, 본 발명의 방법에 따른 방법을 행하기 위해 마련된 컴퓨터 소프트웨어가 제공된다.
본 발명의 또 다른 구성에 따르면, 본 발명의 컴퓨터 소프트웨어를 저장하는 데이터 캐리어가 제공된다.
본 발명의 또 다른 구성에 따르면, 오브젝트를 감시하기 위한 장치가 제공되며, 이 장치는,
감시하고자 하는 오브젝트에 방사 패턴을 투영하도록 마련된 투영 시스템;
오브젝트 상의 상기 투영된 패턴의 적어도 일부를 나타내는 제1 및 제2 이미지 데이터를 각각 제1 및 제2 시간 인스턴트에서 기록하도록 마련되고, 상기 제1 및 제2 이미지 데이터는 상기 제1 및 제2 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 각각 나타내는, 기록 시스템; 및
제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 상기 제1 및 제2 이미지 데이터를 처리하도록 마련되는 처리 시스템을 포함한다.
바람직하게, 상기 기록 시스템은 오브젝트의 3차원 구성을 나타내는 이미지 데이터를 기록하기 위해 일시에 투영된 방사 패턴의 적어도 일부의 복수의 이미지를 기록하기 위해 마련되며, 각각의 복수의 이미지는 상기 오브젝트의 상이한 관점에서 기록된다.
바람직한 실시예에서, 장치는 투영 시스템에 의한 투영을 위해 방사의 상기 패턴을 생성하도록 마련된 패턴 발생기를 포함한다.
감시할 오브젝트 및/또는 교정 오브젝트에 투영하기 위한 적어도 하나의 교정 패턴을 생성하기 위해 패턴 발생기가 마련된다.
비전리 전자 방사의 방사 패턴을 투영하기 위해 투영 시스템이 마련될 수 있다.
가시 방사로서 방사 패턴을 투영하기 위해 투영 시스템이 마련될 수 있고, 가시 방사를 검출하기 위해 기록 수단이 마련된다.
또는, 적외 방사로서 방사 패턴을 투영하기 위해 투영 시스템이 마련될 수 있고, 적외 방사를 검출하기 위해 기록 시스템이 마련될 수 있다.
또한, 패턴은 공간적으로 변화하는 세기 패턴일 수 있으며, 공간적으로 분포된 교점, 코너 및/또는 원형 패치의 조합을 포함할 수 있다.
또한, 본 발명의 특징 및 장점은, 첨부 도면을 참조하여 행해진, 오직 예를 통해 이루어진, 본 발명의 바람직한 실시예의 다음의 설명으로부터 분명해진다.
도 1은 본 발명의 방법의 개요를 제공하는 플로우도를 나타낸다.
도 2는 본 발명의 실시예에 따른 감시 장치의 블록도를 나타낸다.
도 3a 및 3b는 본 발명의 제1 실시예에 따른 감시 장치의 측면도 및 단면도를 나타낸다.
도 4는 본 발명의 제2 실시예에 따른 감시 장치의 측면도를 나타낸다.
도 5a 및 5b는 본 발명의 제3 실시예에 따른 인큐베이터의 일부로서 통합된 감시 장치를 나타낸다.
도 6은 본 발명의 제4 실시예에 따른 복수의 투영 시스템을 갖는 감시 장치를 나타낸다.
도 7은 기지의 오브젝트에 투영되는 방사의 교정 패턴을 나타낸다.
도 8a 및 8b는 오브젝트에 투영되는 방사의 상이한 패턴을 나타낸다.
도 9는 유아의 모델에 투영되는 방사 패턴을 나타낸다.
도 10은 본 발명의 방법에 따라서 생성된 도 9에 나타낸 유아의 모델의 보간된 3차원 표시를 나타낸다.
본 발명은 오브젝트를 감시하는 방법 및 그 방법을 행하는 장치에 관한 것이다. 또한, 본 발명은 본 발명의 방법을 행하도록 마련된 컴퓨터 소프트웨어 및 이러한 소프트웨이를 저장하는 데이터 캐리어에 관한 것이다. 이후 개시된 보기의 실시예에서, 사람의 흉부의 용적 변화를 감시함으로써, 사람의 폐 기능을 나타내는 구성을 감시하는 방법을 참고한다. 이러한 방법은, 의학적 진단과 환자 치료를 보조하기 위해 흉부 및 복부 동적 용적 변화를 안전하게 감시하고, 공기 흐름과 폐기능 데이터를 정확히 도출할 수 있는 비접촉식이고, 비외과적인 방법이다. 사람의 폐기능은 흉부 용적, 호흡률, 일호흡량, 흡기와 호기 시간, 강제 폐활량 측정, 흉부벽 움직임의 국소 변화 및 국소 폐기능을 포함하지만 여기에 한정되지 않는다. 본 발명의 다른 애플리케이션이 아래에 서술된 것같이 고려된다.
본 발명의 방법의 개요를 제공하는 플로우도를 나타내는, 도 1을 참조하면, 단계 S1에서, 감시되는 오브젝트에 방사 패턴이 투영된다.
단계 S2에서, 제1 이미지 데이터가 제1 시간 인스턴트에 기록된다. 제1 이미지 데이터는 오브젝트에 투영되는 방사 패턴의 적어도 일부를 나타내며, 제1 시간 인스턴트에서 오브젝트의 3차원 구성을 나타내는 데이터를 포함한다.
단계 S3에서, 제2 이미지 데이터가, 제1 시간 인스턴트와는 다른 제2 시간 인스턴트에 기록된다. 제2 이미지 데이터는 오브젝트에 투영되는 방사 패턴의 적어도 일부를 나타내며, 제2 시간 인스턴트에서 오브젝트의 3차원 구성을 나타내는 데이터를 포함한다.
단계 S4에서, 제1 및 제2 시간 인스턴트 사이에서 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 제1 및 제2 이미지 데이터가 처리된다. 오브젝트 구성이 제1 및 제2 시간 인스턴트 사이에서 변화하지 않으면 구성의 변화는 없을 수 있다.
이러한 방식으로 오브젝트의 구성을 감시하는 것은 오브젝트와의 물리적 접촉을 행할 필요없이 시간에 걸쳐서 오브젝트의 정확한 컴퓨터 생성된 표시를 제공하는 유용한 장점을 가진다. 또한, 본 발명의 방법은, 예를 들면, 감시되고 있는 오브젝트의 표면 형상, 위치, 용적 및/또는 3차원 형상의 변화를 나타낼 수 있는 디퍼렌셜 데이터를 사용하여 오브젝트의 구성의 변화의 감시를 허용한다. 또한, 본 발명의 방법은 전체 오브젝트가 아니라, 오브젝트의 일부의 구성의 변화를 감시하는데 적용될 수 있다.
아래에 설명하는 것같이, 본 발명의 방법은, 또 다른 복수의 시간 인스턴트에서 오브젝트상에서 투영된 방사 패턴의 적어도 일부를 나타내는 또 다른 이미지 데이터를 기록하는 단계로서, 상기 또 다른 이미지 데이터는 복수의 시간 인스턴트의 각각에서 오브젝트의 3차원 구성을 나타내는, 단계; 및 복수의 또 다른 시간 인스턴트의 적어도 2개의 사이에서 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 또 다른 이미지 데이터를 처리하는 단계를 선택적으로 포함할 수 있다.
도 2는 본 발명의 실시예에 따라서, 본 발명의 방법을 실행하기 위해 마련된 장치의 블록도를 나타낸다. 장치(10)는 스캐닝 시스템(12), 데이터 처리 및 맨 머신 인터페이스(MMI : man machine interface) 시스템(14), 디스플레이 시스템(16), 이미지 데이터 저장 시스템(18), 생물-물리학 모델링 데이터(20) 및 통계 데이터베이스(22)를 포함한다.
스캐닝 시스템(12)은 예를 들면 적어도 2개의 비디오 카메라를 포함하는 기록 시스템(24), 예를 들면 비디오 프로젝터인 적어도 한 개의 투영 시스템(26), 기록 시스템(24)을 제어하고 기록 시스템(24) 각각으로부터의 이미지를 캡쳐하는 비디오 캡쳐 하드웨어(28), 예를 들면 개인용 컴퓨터(PC)인 처리 플랫폼을 투영 시스템(26)에 연결시키는 인터페이스 시스템(30) 및 투영 시스템(26)에 대해 적어도 하나의 패턴을 생성하는 패턴 생성기(32)를 포함한다.
본 발명의 일 실시예에서, 감시 장치(10)는 2개의 200Hz, 640 x 480 해상도 카메라(24) 및 비디오 프로젝터(26)를 포함할 수 있으며, 모두 조정가능 실장 리그 위에 실장되어, 카메라(24)와 비디오 프로젝터(26)의 상대 위치를 규정하도록 한다. 카메라(24)와 비디오 프로젝터(26)는 모두 카메라(24)용 비디오 캡쳐 카드와 비디오 프로젝터(26)를 구동하기 위한 그래픽 카드를 통합하는 표준 개인용 컴퓨터(PC) 플랫폼에 의해 제어될 수 있다. 또 다른 실시예에서, 카메라 자체는 USB(Universal Serial Bus), Firewire™ 또는 이더넷(Ethernet) 접속 등의 디지털 버스 접속을 통해, 표준 PC와 같이, 또 다른 프로세서로 전달하기 위해, 기록된 이미지 데이터를 적어도 부분적으로 처리할 수 있다.
본 발명의 장치는, 투영 및 기록 시스템의 서로에 대해서 그리고 감시되는 오브젝트에 대해서 정확한 기하학적 배치 및 분리가 쉬운, 즉, 정확한 배치가 요구되지 않는 장점이 있다. 후술되는 것같이, 투영 및 기록 시스템의 교정은 정확한 데이터를 생성하기 위해 투영 및 기록 시스템의 물리적인 배치가 고려되는 것을 허용한다.
기록 시스템의 각각의 카메라가 오브젝트의 상이한 관점에서 마련될 수 있고, 투영된 패턴의 이미지를 특정 시간 인스턴트에 기록할 수 있기 때문에, 상이한 카메라에 의해 특정 시간 인스턴트에 기록된 이미지의 조합은 오브젝트의 더 많은 부분이 감시되는 것을 허용한다. 이와 같이, 예를 들면 맹점(blind spot)으로 인해 또 다른 카메라가 정확히 캡쳐할 수 없는 오브젝트의 부분을 캡쳐하도록 예를 들면 하나의 카메라를 배치함으로써, 오브젝트의 더 큰 커버리지를 제공하도록 카메라가 마련될 수 있다. 따라서, 각각의 시간 인스턴트에 기록되는 이미지 데이터는 오브젝트의 더 큰 부분을 나타내므로, 상이한 시간 인스턴트 사이에서 오브젝트에 대해 더 정확한 데이터가 생성되는 것을 허용한다.
데이터 처리 및 MMI(man machine interface) 시스템(14)은 4개의 주요 구성 요소를 포함한다: 3차원 처리 시스템(36), 의료 데이터 추출 시스템(38), 프리젠테이션 처리 및 시스템 제어 시스템(40) 및 교정 처리 시스템(42).
표시 처리 및 시스템 제어 시스템(40)은 감시 장치(10)의 사용자에 의한 제어를 허용하도록 처리를 행하고, 디스플레이 시스템(16)을 통해 결과를 제시할 수 있다. 프리젠테이션 처리 및 제어는, 이미지를 기록하는 기록 시스템(24)으로부터의 데이터, 3D 처리로부터의 이미지 데이터, 도출된 의료 데이터 및 다른 중간 계산 결과가 저장 장치(44)를 통해 저장 및 검색될 수 있는 이미지 및 데이터 저장 처리 시스템(18)과 함께 실행된다. 저장 장치(44)는 컴퓨터 디스크 또는 고체 상태 저장 장치일 수 있다.
본 발명의 방법을 실행하는데 있어서, 투영 시스템(26)은 감시할 오브젝트로의 방사의 하나 이상의 패턴을 투영하고(한편으로는 여기에서 스캐닝이라고 칭한다), 기록 시스템(24)의 각각의 카메라는 오브젝트에 나타나는, 방사의 적어도 하나의 투영된 패턴의 적어도 일부를 나타내는 이미지를 다른 관점에서 동시에 캡쳐한다. 이와 같이, 투영된 패턴의 동일 및/또는 상이한 부분의 복수의 이미지가 시간 상 일시에 기록될 수 있다. 기록 시스템(24)의 각각의 카메라로부터의 캡쳐된 이미지는, 제1 시간 인스턴트에 대한 제1 이미지 데이터를 기록하는 것같이, 대응하는 패턴 부분이 시간상 그 순간에 투영된 오브젝트의 일부의 3차원 구성을 나타내는 이미지 데이터로서 처리 및 기록된다. 제2 시간 인스턴트와, 연속적인 제3 및 제4 시간 인스턴트와 같이, 임의의 또 다른 시간 인스턴트에 대해서 기록된 이미지 데이터는, 특정 시간 인스턴트에서 오브젝트의 복수의 이미지를 기록 및 처리함으로써 유사한 방식으로 기록될 수 있다. 어느 시간 인스턴트에서 기록 시스템(24)의 각각의 카메라에 의한 이미지를 동시 캡쳐하는 것은, 또 다른 데이터 처리 동안 상이한 이미지들에 대한 이미지 데이터 사이의 데이터 포인트가 확실하게 정확히 상관될 수 있게 한다. 캡쳐된 이미지는 주지의 이미지 처리 기술을 이용하여 처리되어 예를 들면 노이즈를 감소시킬 수 있다.
방사의 적어도 하나의 패턴은, 분명하고 즉시 찾아낼 수 있는 패턴 요소의 조합, 예를 들면, 공간적으로 분포된 교점, 코너 또는 작은 원형 패치의 조합을 포함하는 공간적으로-변화하는 세기 패턴을 포함할 수 있다. 예를 들면, 오브젝트 상에 투영된 방사의 적어도 하나의 패턴은 점과 선의 모자이크식 조합을 포함할 수 있다. 패턴은 패턴의 조명된 패치들 사이에서 떨어져 위치하는 비조명된 패턴 패치들을 포함할 수 있다. 패턴 요소는 오브젝트 상에 투영될 때 왜곡되어 나타나고, 이 왜곡은, 제1 또는 제2 이미지 데이터 등의, 패턴 요소가 투영되는 오브젝트의 일부의 3차원 구성 데이터가, 캡쳐된 이미지 데이터로부터 도출되는 것을 허용하며; 이 오브젝트를 스캐닝하는 방법은 구조 광기술로 일반적으로 칭해진다. 예를 들면, 카메라에 의해 기록된 패턴의 이미지의 모호성(ambiguity)을 회피하고, 오브젝트의 더 높은 해상 이미지를 캡쳐하기 위해, 방사 패턴은 단순한 반복 패턴일 수 있거나 및/또는 스폿, 명/암 에지 등의 특징물의 복잡한 반복 패턴으로 선택될 수 있다. 오브젝트에 속하는 패턴의 일부가 오브젝트가 거기에 없는 것처럼 나타나도록 하는 방식으로 왜곡될 때 모호성이 생긴다. 이러한 모호성은 오브젝트의 구성을 정확히 판정하는 것을 어렵게 한다. 다른 실시예에서, 상이한 방사 패턴의 시퀀스가 오브젝트에 투영될 수 있으며, 각각의 상이한 패턴이 상이한 시간 인스턴트에 연속적으로 투영된다. 투영 시스템(26)은 특정 선택된 파장의 방사 패턴, 예를 들면, 가시 방사 또는 비가시 적외 방사를 오브젝트로 투영할 수 있지만, 패턴 방사가 비이온화 및 전자기 방사의 스펙트럼의 다른 파장일 수 있는 것도 고려된다. 따라서, 기록 시스템(24)은 적절한 파장의 투영된 방사를 캡쳐하도록 적응된다. 투영 시스템(26)은 간섭성 레이저 조명보다는 통상의 비간섭성 광원을 필요로 하며, 이것은 레이저-기반 투영 방법에 비해서, 대상/오브젝트, 예를 들면, 어린이의 의학적으로 안전한 스캐닝을 가능하게 한다.
3차원 처리 시스템(36)은 기록 시스템(24)에 의해 캡쳐된 이미지를 처리하여, 오브젝트의 표면 상의 당량점에 대응하는 오브젝트의 3차원 구성을 나타내는 이미지 데이터를 추출한다. 이 처리는 시간에 걸쳐 오브젝트를 감시할 때 오브젝트의 전체 움직임을 추적하는 것을 보조하기 위해, 캡쳐된 이미지 내의 유용한 콘트라스트 및 다이나믹 레인지, 이미지 노이즈 감소, 투영된 방사 패턴의 특정 특징물의 위치, 오브젝트 표면에 의한 패턴 왜곡으로 인한 특정 패턴 특징물의 예상된 위치에서 모호성의 해결, 데이터 에러의 억제 및/또는 실루엣의 식별을 최대화하기 위한 이미지 분석을 포함할 수 있다. 감시되는 오브젝트의 연속적인 표면 표시를 생성하기 위해 이미지 데이터가 보간된다.
기록 시스템(24)이, 제1 및 제2 시간 인스턴트의 각각에서 패턴의 동일한 부분을 기록하기 위해 본 발명의 실시예에서 준비된다. 이와 같이, 오브젝트가 정지하고 있다고 가정하고, 오브젝트의 동일한 부분의 구성의 변화가 제1 및 제2 시간 인스턴트 모두에서 감시될 수 있다. 다른 실시예에서, 기록 시스템(24)은 제1 및 제2 시간 인스턴트에서 투영된 패턴의 상이한 부분을 기록하도록 준비될 수 있다. 예를 들면, 이것은 오브젝트 부분의 총 움직임에도 불구하고, 감시되는 오브젝트의 동일한 부분에 대해, 그러므로, 관찰 하의 오브젝트 부분에 속하는 패턴의 상이한 부분에 대해서, 예를 들면, 이미지 데이터가 기록되는 것을 허용할 수 있다.
추적 알고리즘이 감시되는 오브젝트의 더 큰 (총) 움직임을 추적하기 위한 이미지 데이터 처리를 위해 사용될 수 있으며, 오브젝트의 전체(총) 움직임으로부터 오브젝트의 스캐닝된 표면의 감시를 위해 원하는 움직임의 판별을 도움으로써 이미지 데이터의 계산 정확도를 개선시킨다. 이 알고리즘은 오브젝트가 기록 시스템(24)의 시야 내에 있지 않을 때를 검출할 수 있고, 오브젝트가 빠르게 움직이면, 예를 들면, 오브젝트가 사람일 때, 사람의 기침이 총 움직임으로서 고려될 수 있도록 알고리즘이 준비될 수 있다.
또한, 추적 알고리즘은, 오브젝트의 총 움직임이 발생할 때를 판정하고 이것을 최종 사용자에게 나타내거나, 총 움직임이 발생한 시간 인스턴트에 발생하는 이미지 데이터를 무시하거나, 예를 들면 회전 또는 이동에 의해 오브젝트가 기하학적으로 위치를 이동하면 오브젝트의 새로운 위치를 판정하기 위해 사용될 수 있다.
오브젝트의 3차원 구성을 나타내는 이미지 데이터는, 오브젝트의 3차원 처리 시스템(36)에 의해 생성된 연속적인 (순차적인) 이미지 데이터를 처리함으로써 스캐닝된 오브젝트 영역에 대응하는 용적을 나타내는 데이터를 획득하기 위해 사용될 수 있다. 제1 및 제2 시간 인스턴트에서 취해진 제1 및 제2 이미지 데이터 사이에서 디퍼렌셜 데이터가 생성될 수 있으며, 이것은 2개의 시간 인스턴트 사이에서 스캐닝된 오브젝트의 구성의 변화를 나타낸다. 디퍼렌셜 데이터는 제1 이미지 데이터를 제2 이미지 데이터와 비교함으로써 생성될 수 있으며, 제1 시간 인스턴트에서의 오브젝트의 3차원 구성과 제2 시간 인스턴트에서의 오브젝트의 3차원 구성 사이의 차이를 식별한다. 디퍼렌셜 데이터는 이들 식별된 차이를 나타내므로, 제1 및 제2 시간 인스턴트 사이에서 오브젝트의 구성의 변화를 나타낸다. 2개의 시간 인스턴트은 시간상 기록된 2개의 연속적인 점이거나, 또는 2개의 시간 인스턴트은 이미지 데이터가 기록되는 다른 시간 인스턴트에 의해 분리될 수 있는 기간에 기록된 임의의 2개의 시간 인스턴트일 수 있다. 그러므로, 임의의 2개의 시간 인스턴트 사이 및 복수의 시간 인스턴트를 포함하는 기간에 걸쳐 오브젝트의 적어도 일부의 구성의 임의의 변화를 동적으로 추적할 수 있다. 오브젝트가 사람인 실시예에서 구성의 변화는 오브젝트의 적어도 일부의 용적의 변화, 예를 들면, 흉부 및/또는 복강의 용적의 변화를 나타낼 수 있다.
후에 참조되는, 예를 들면, 도 3, 4, 및 5에 나타내는 것같이, 장치는 의료 환경에서 사용되는 실시예에서, 의료 데이터 추출 시스템(38)은 디퍼렌셜 데이터로부터 장치에 의해 감시되는 신체 부분에 대한 용적 변화를 도출하기 위한 알고리즘 계산을 행한다.
오브젝트의 적어도 일부의 용적 등의, 구성 변화를 판정하는데 보조하기 위해, 오브젝트의 스캐닝된 부분의 용적의 근사가, 임의의 기록 시스템(24)에 보이지 않는 및/또는 방사의 투영 패턴이 조명되지 않는 오브젝트 부분의 일부의 구성을 근사치를 냄으로써 계산된다. 예를 들면, 감시되고 있는 사람의 가슴의 정면 위에 패턴이 투영되면, 패턴은 사람의 가슴의 후면 위에 떨어지지 않아, 가슴의 후면의 구성이 후면의 이미지 데이터를 기록함으로써 판정될 수 없다. 그러나, 사람의 가슴의 후면의 구성이, 가슴의 후면의 적어도 대강의, 보다 바람직하게는 엄밀한 구성을 판정하기 위해 근사치를 낼 수 있다. 투영된 패턴이 없이 오브젝트 부분의 이 대략 판정된 구성은 기록된 이미지 데이터, 예를 들면, 제1 및 제2 이미지 데이터로 처리되어 시간에 걸친 사람의 가슴의 구성의 변화에 대해 보다 정확한 디퍼렌셜 데이터를 생성할 수 있다. 편평한 면에 대해 보간 알고리즘을 이용하여 근사치가 판정될 수 있다. 또는, 투영된 패턴없이, 예를 들면, 진행중인 오브젝트 부분, 이 경우에는 사람의 가슴, 을 보다 잘 나타내는 형상을 이용하여, 부분의 구성을 보간하기 위해 보다 복잡한 알고리즘이 사용될 수 있다. 이러한 표시 형상은 원통 또는 구의 형상일 수 있고, 및/또는 나중에 설명하는 것같이, 근사치를 엄밀하게 하기 위해, 사람의 유형의, 또는, 실제로 감시되고 있는 특정 사람의 생물-물리학 데이터를 사용할 수 있다. 스캐닝된 오브젝트 부분에 대해 캡쳐된 이미지 데이터로부터 도출된 기록된 이미지 데이터와 조합하여 이러한 근사된 구성을 이용하여, 감시되고 있는 오브젝트 부분의 용적 등의, 구성의 변화가 보다 정확히 판정될 수 있어서, 오브젝트의 3차원 구성을 나타내는 보다 신뢰할 만한 이미지데이터와 디퍼렌셜 데이터를 제공한다. 생성된 데이터가 의료 조건 및 적절한 치료를 진단하기 위해 사용될 수 있을 때, 예를 들면 의료 분야에서, 특히 높은 레벨의 데이터 정확도를 요구하는 방법의 애플리케이션에서 중요하다. 또한, 쉽게 움직일 수 없는 아픈 환자와 같이, 연약한 오브젝트에 대해서, 이 근사는 환자가 예를 들면 침대에 누워 있고, 여전히 유지되는 것을 허용하고, 오브젝트의 3차원 구성의 정확한 이미지 데이터와 디퍼렌셜 데이터를 판정할 수 있다.
따라서, 기록 시스템(24)에 의해 캡쳐된 데이터의 처리는 연구 대상의 신체 움직임, 용적, 표면적 및 다른 유사한 물리적 파라미터의 동적 3차원 모델을 생성하도록 사용된다. 호흡수는 용적의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 공존하는 데이터 이미지들을 비교함으로써 계산될 수 있다.
정보는 디스플레이 시스템을 통해 수치적 및/또는 그래픽 포맷으로 최종 사용자에게 디스플레이될 수 있거나 및/또는 원격 디스플레이 또는 추가 분석을 위해, 다른 시스템으로의 처리 플랫폼(예를 들면, 개인용 컴퓨터)의 일부로서 제공되는 데이터 네트워크 인터페이스를 통해 전송될 수 있다. 출력 정보는 치료 관리 및 보호 방식에 연결된 판정 지원 프로세스 또는 전문가 시스템의 일부로서 분류되어 사용될 수 있다. 재구성함으로써 오브젝트의 전체 3차원 표시를 제공할 수 있으므로, 방사 패턴으로 조명되지 않는 오브젝트 부분의 근사를 사용하는 일부 실시예에서, 임의의 새로운 관점으로부터 화면의 오브젝트 표면을 볼 수 있다.
폐 기능에 관련된 호흡 기류는 오브젝트 용적의 동적 용적 변화로부터 계산될 수 있다. 이 처리는, 다수의 사람에 대한 장치의 이전 기준(시험) 동작 및/또는 장치의 이전 측정 동작으로부터의 데이터를 포함하는, 통계 데이터베이스(22)에서의 데이터와 비교함으로써 논의될 수 있다. 본 발명의 실시예에서, 통계 데이터베이스 데이터는 나이, 성별, 체중 및 신체 유형의 범위에 따라서 선택된 세트의 사람에 대해 표준화된, 통계적으로-평균된 파라미터를 제공한다. 통계 데이터베이스를 이용하는 비교는 통계 놈(norms)과 비교하여 계산된 동적 용적 변화의 개선된 해석을 보조한다. 통계 데이터베이스 데이터가 생물-물리학 모델 데이터(20)에 대한 스케일링 및 참조 파라미터의 개선을 제공하기 위해 사용될 수 있다.
용적 계산의 정확도는, 예를 들면, 매핑 및 "최량 적합(best fit)" 알고리즘을 이용하여, 오브젝트의 용적측정의 모델과 기록된 이미지 데이터를 통합하는 생물-물리학 모델링 데이터(20)에 의해 개선될 수 있다. 용량 측정 또는 생물-물리학 모델 데이터(20)는 스캐닝되는 오브젝트 또는 대상의 해부 구조의 "생물-물리학-기반" 근사치를 포함하고, 오브젝트 영역의 물리적 성질, 예를 들면, 흉부/복부의 신체적 및 탄력적 성질 및 관절 및 골격 구조로 인한 움직임 제한을 모델링한다. 생물-물리학 모델 데이터(20)는 대상 유형, 나이, 성별, 신체 질량 및/또는 다른 구성에 따른 평균치에 따라서 조정되고 교정된 물리적 모델링 파라미터를 고려하여 오브젝트에 대한 일반적인 모델에 기초한다. 생물-물리학 모델 데이터는 이전 기준(시험) 동작으로부터의 저장된 데이터를 포함할 수 있다.
도 3a 및 3b는 본 발명의 실시예에 따른 감시 장치의 일 예의 부분을 나타낸다. 장치(10)는 기록 시스템(24)의 일부로서 제1 및 제2 카메라, 예를 들면, Allied Vision Technology Pike F032B 카메라와, 실장 프레임(50)에 부착된 투영 시스템(26), 예를 들면, Acer P1625 프로젝터를 포함한다. 각각의 기록 시스템(24)이 실장 프레임(50)에 대해서 실장되는 각도는 대략 10도에서 대략 40도까지 변화할 수 있고, 기록 시스템(24)에서 오브젝트(52)까지의 거리에 의존한다. 이 실시예에서, 투영 시스템(26)은 표면(24)에 엎드려있는 대상(52)의 흉부 및 복부 영역으로 방사 패턴을 투영하는 것을 볼 수 있다. 투영률은 예를 들면, 대략 50 또는 60 Hz 또는 180 Hz 또는 360 Hz일 수 있다. 기록 시스템(24)으로부터의 기록률은 투영률과 일치하며, 예를 들면, 투영률이 180Hz이면, 기록률은 제1 및 제2 기록 시스템 각각에 대해서 초당 180 이미지일 수 있다. 제1, 제2 및 또 다른 이미지 데이터의 다른 투영 및 기록률은 50 ~ 360 Hz의 범위 내에 있지만 거기에 한정되지 않는 것으로 예상되므로, 투영 및 기록률은 50 또는 360 Hz의 비율보다 느리거나 또는 빠를 수 있다. 기록 시스템(24)의 제1 및 제2 카메라는 하나의 기록 시스템의 시야가 다른 기록 시스템의 시야를 완전히 또는 적어도 부분적으로 중첩하도록 배향될 수 있다. 장치(10)는 예를 들면, 어른, 어린이, 미숙아, 비협조적 대상, 또는 임의의 유형의 접촉 방법이 비실제적인, 예를 들면, 미숙아, 화상 피해자, 위독한 환자의 감시 및 진단을 위해 마련될 수 있다. 도 4에 도시된 것같이 장치는 대상이 똑바로 서있는 위치에서 감시될 수 있도록 마련될 수 있다.
도 5a를 참조하면, 아기용 인큐베이터에 통합된 본 발명에 따른 감시 장치(10)의 일부의 실시예가 도시된다. 감시 장치(10)는 반사 광학 장치(64), 예를 들면, 투영 시스템으로부터 방출된 방사를 인큐베이터에 있는 아기(62)에게 반사하는, 미러 상에 방사를 투영하도록 마련되는 투영 시스템(26)과, 기록 시스템(24)의 2개의 카메라를 포함한다. 도 5a에 도시된 것같이, 감시 장치(10)는 밀봉된 하우징(66)에 실장되고, 인큐베이터(60)의 내부 면에 실장된다. 도 5b에 도시된 것같이, 감시 장치(10)는 인큐베이터(60)의 외부 면에 위치하도록 마련될 수 있는 것으로 이해된다.
도 6은 또 다른 실시예에 따른, 본 발명의 방법을 실행하는 감시 장치의 설치를 나타낸다. 복수의 패턴의 방사가 오브젝트에 동시에 투영될 수 있으므로, 감시되는 오브젝트의 더 큰 커버리지가 얻어진다. 따라서, 도 6에 도시된 것같이, 3개의 프로젝터를 이용해서 하나 이상의 패턴의 방사가 오브젝트에, 오브젝트의 2개의 대향 면 및 2개의 오브젝트 면 사이의 표면에 투영된다. 3개의 프로젝터 사이에 마련된 2대의 카메라는 디퍼렌셜 데이터를 도출하는 처리를 위해, 투영된 패턴의 이미지 데이터를 각각의 다른 시간 인스턴트에서 각각 동시에 기록한다.
실제로 도 3, 4, 5 및 6의 장치가, 실장되는 환경 및/또는 오브젝트의 특정 구성으로 설정될 수 있다. 허용가능한 레벨의 정확도로 본 발명의 방법을 행하기 위해 장치가 교정될 수 있다. 본 발명의 방법은 본 발명을 실행하기 위해 장치를 교정하는 것을 포함한다. 교정은 교정 오브젝트에 방사의 교정 패턴을 투영하는 것과, 투영된 교정 패턴의 방사의 적어도 일부를 나타내는 교정 이미지 데이터를 기록하는 것을 포함하며, 교정 이미지 데이터는 교정 오브젝트의 3차원 구성을 나타낸다. 단계 d)에서 제1 및 제2 이미지 데이터는 교정에 기초하여 디퍼렌셜 데이터를 생성하기 위해 교정 이미지 데이터로 처리될 수 있다. 이러한 교정에 따르면, 본 발명의 실시예에서, 2가지 유형의 교정이 실행될 수 있다: 프로젝터와 기록 시스템 교정 및 유닛 교정.
프로젝터 및 기록 시스템 교정은 이전에 서술된 것같이, 오브젝트의 구성의 변화를 감시하는 동안 자동적으로 및 연속적으로 행해질 수 있다. 이것은 감시하려는 오브젝트에 방사 패턴을 투영하는 일부로서, 하나 이상의 교정 패턴을 감시되는 오브젝트에 투영함으로써 얻어질 수 있다. 그러므로 감시되는 오브젝트는 교정 오브젝트인 것으로 고려될 수 있다. 교정 패턴은 제1 및 제2 시간 인스턴트와 상이한 하나 또는 복수의 시간 인스턴트에서, 교정 오브젝트와 기록된 교정이미지 데이터에 투영될 수 있다. 예를 들면, 교정 패턴은 제1 시간 인스턴트 바로 직전, 제2 시간 인스턴트 바로 직전에 투영될 수 있으므로, 오브젝트를 감시하기 위해 이미지 데이터를 기록함과 동시에 교정을 행하지 않고, 교정 데이터는 제1 및 제2 시간 인스턴트에서 프로젝터와 기록 시스템 특성을 나타낸다. 이와 같이, 교정 패턴 및 오브젝트 감시용 패턴이 시간에 걸쳐 서로 인터리브될 수 있다. 기록된 제1 및/또는 제2 이미지 데이터는, 3차원 공간에서, 프로젝터 시스템 및 기록 시스템의 일부, 예를 들면, 그 상대 위치 및 광학 초점과 같이, 카메라의 특성을 나타내는, 기록된 교정 이미지 데이터를 이용하여 처리될 수 있다. 이것은 제1 및/또는 제2 이미지 데이터의 정확도를 개선시킨다.
교정 패턴 및 오브젝트 감시 패턴의 이미지 데이터의 투영 및 기록의 시간 인스턴트를 적절히 선택함으로써, 프로젝터 및 기록 시스템 교정은 오브젝트 감시와 거의 동시일 수 있도록 급속하게 실행될 수 있다. 따라서, 프로젝터 시스템 및 기록 시스템의 일부의 특성, 예를 들면, 광학 특성 및/또는 프로젝터와 카메라의 상대 위치가, 오브젝트 감시 동안, 오브젝트 감시를 정지시킬 필요없이, 반복적으로 결정될 수 있다. 이와 같이 예를 들면, 프로젝터와 기록 시스템의 포커스의 드리프트, 줌 팩터 및/또는 각도 배치로 인한 이러한 특성들의 시간에 걸친 작은 변화가, 프로젝터와 기록 시스템 교정 처리에 의해 결정될 수 있고, 그럼으로써 오브젝트를 감시하는 것으로부터 발생되는 이미지 데이터를 정정하기 위해 사용된다. 감시되는 오브젝트의 움직임은 프로젝터와 기록 시스템의 교정에 영향을 주지 않는다. 오브젝트 움직임은 예를 들면, 상기 서술된, 추적 알고리즘을 이용하여 처리될 수 있다.
도 1을 참조하여 서술된, 본 방법에 따른 오브젝트의 감시가 시작되기 전에 유닛 교정이 바람직하게 행해진다. 유닛 교정은 오브젝트를 감시할 때 절대 측정을 정확히 결정하기 위해 사용되고, 적어도 하나의 절대 거리를 결정하는 것에 관련되므로, 교정 동안 프로젝터 시스템, 기록 시스템의 일부 및 오브젝트가 사람인 예에서 침대와 같이, 감시되는 오브젝트가 놓여지는 위치 사이의 모든 거리가, 교정 동안, 예를 들면, 상이한 시간 인스턴트에서 교정 이미지 데이터 사이에서, 그것으로부터 생성된 임의의 디퍼렌셜 데이터 및/또는 교정 이미지 데이터로부터 정확히 결정될 수 있다. 감시 과정을 위해 장치가 설정되면, 투영 시스템에 의해 생성된 방사의 교정 패턴을 주지의 치수의 교정 오브젝트에 투영하고, 기록 시스템을 사용하여 교정 오브젝트의 이미지 데이터를 기록함으로써 유닛 교정이 행해진다. 교정 오브젝트의 치수가 알려져 있기 때문에, 교정 시스템(42)은 기록 및 투영 시스템의 절대 위치를 판정할 수 있다. 따라서, 교정 시스템(42)은, 본 발명의 방법의 감시 동안 기록된 이미지 데이터가 비교되는 것에 대해서, 치수 유닛에 대한 유닛 스케일을 결정할 수 있으므로, 감시되는 오브젝트의 절대 치수가 정확히 결정될 수 있다. 예를 들면, 감시되는 오브젝트의 적어도 일부의 높이 및/또는 폭은, 센티미터로, 오브젝트의 이미지 데이터로부터 도출된 오브젝트 치수와 유닛 스케일을 비교함으로서 정확히 측정될 수 있다. 이로 인해, 예를 들면, 감시되는 오브젝트의 일부의 용적 측정은, 리터로, 계산될 수 있다. 감시 동안 오브젝트의 측정을 정확히 행할 수 있으므로, 디퍼렌셜 데이터는 고레벨의 정확도로 생성될 수 있다.
교정 오브젝트는 기록 시스템의 시야에서 볼 수 있는 주지의 상대 위치와 거리의 3점을 가질 수 있다. 교정 오브젝트는 예에서와 같이, 감시가 시작되기 전에 환자 위에 구부러진 '지팡이' 형태 또는 환자의 등을 떠받치기 위해 사용되는, 탁자, 의자 또는 환자가 눕는 침대 상에서 정확한 치수의 주지의 인쇄된 또는 투영된 패턴일 수 있다. 물론 교정 오브젝트는 다른 실시예에서는 주지의 치수의 다른 오브젝트일 수 있다.
감시 장치의 물리적인 설정과 배치가 변경되지 않는다고 가정하면, 유닛 교정은 한 번만 행해질 수 있다. 물리적인 설정이 변화하면, 유닛 교정이 다시 행해질 필요가 있다.
프로젝터와 기록 시스템 교정 및 유닛 교정 중 하나 또는 모두에 대해서, 교정 패턴은, 감시 방법에 대해서 이전에 설명된 방사 패턴과 유사하거나 동일할 수 있다. 도 7은 실리콘 백에 투영된 일 예의 교정 패턴을 나타낸다. 또한, 또 다른 실시예에서, 교정 패턴은 교정 오브젝트에 연속적으로 투영된 상이한 교정 패턴의 시퀀스 및 각각의 상이한 패턴에 대한 기록 교정 이미지 데이터를 포함할 수 있다. 예를 들면, 패턴의 시퀀스는 다수의 별개의 패턴, 예를 들면, 오브젝트로의 급속 시퀀스에 투영된 일반적으로 대략 16개를 포함할 수 있다. 패턴의 형태는 패턴 내에 더 미세한 피치 특징물을 연속적으로 제공하기 위해 마련될 수 있다. 투영된 패턴의 방사는 수평 및 수직(X 및 Y) 양 방향으로 반복되는(모자이크방식으로 만든) 일반적인 형태의 간단한 패턴일 수 있지만, 거기에 한정되지는 않는다. 또한, 다른 실시예에서, 프로젝터 및 기록 시스템 교정에 대해서, 교정 패턴은 감시 방법 동안 오브젝트에 투영된 패턴과 인터리브될 수 있다. 다른 실시예에서, 프로젝터 및 기록 시스템 교정 이미지 데이터는 제1 및/또는 제2 이미지 데이터로부터 도출될 수 있고, 오브젝트 감시를 위한 투영된 패턴은 이러한 교정에서 사용하기 위한 패턴 특성을 포함할 수 있다.
도 8 및 9에 나타낸 것같이, 하나 이상의 패턴의 주지의 구조물(선 또는 점과 같이 통상의 구조물에 한정되지는 않지만 이들을 포함하는)이, 유닛 교정 후에, 오브젝트에 투영되어 오브젝트의 감시를 시작할 수 있다. 이들 패턴은, 시스템 크기, 정확도 및 시야에 대한 필요에 의존하여 미세하거나 또는 대략적이거나 이 둘의 조합일 수 있다.
기록 시스템(24)은 오브젝트 구성, 예를 들면, 표면 형상, 움직임 및 3차원 구성 형상, 을 나타내는 정보를 캡쳐하면서, 이전에 설명한 것같이 오브젝트의 영역의 이미지와 오브젝트에 나타나는 구조화된 방사 패턴을 캡쳐한다.
상기 실시예는 본 발명의 일 예로서 이해되어야 한다. 본 발명의 또 다른 실시예가 고려된다.
연속적인 제3 및 제4 시간 인스턴트 등의 복수의 또 다른 시간 인스턴트에서 오브젝트상의 투영된 방사 패턴의 적어도 일부를 나타내는 또 다른 이미지 데이터를 기록하는 것을 포함하는 본 방법의 또 다른 실시예가 고려된다. 또 다른 이미지 데이터는, 각각의 또 다른 시간 인스턴트에서 오브젝트의 3차원 구성을 나타내는, 제1 및 제2 시간 인스턴트 후의 복수의 시간 인스턴트에서 연속적으로 기록된 복수의 이미지 데이터를 포함할 수 있다. 또 다른 이미지 데이터가 처리되어 복수의 또 다른 시간 인스턴트들 중 적어도 2개 사이의 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성한다. 또 다른 이미지 데이터의 성질은 상기 서술된 제1 및 제2 이미지 데이터와 유사하다. 따라서, 또 다른 이미지 데이터가 이전에 서술된 제1 및/또는 제2 이미지 데이터의 임의의 기록, 처리 및/또는 사용과 유사한 방식으로 기록, 처리 및/또는 사용될 수 있다. 이와 같이, 본 발명의 방법은 제1, 제2 및 또 다른 시간 인스턴트에 걸친 기간에 걸쳐 오브젝트의 용적 등의 구성의 변화를 감시할 수 있다. 따라서, 오브젝트의 구성 변화가 연속적으로 감시될 수 있다.
또 다른 실시예에서, 상기 서술된 감시 장치는, 오브젝트의 3차원 구성의 감시가 요구되는 다른 애플리케이션에 추가하여, 동물 감시 및 가축병 치료, 신체 조사를 위한 데이터 캡쳐, 바이오-모델링 및 아바타 애니메이션에 사용될 수 있다.
또한, 본 발명의 방법은 예를 들면, 병원, 의료 센터 또는 지역 연습 환경 또는 예를 들면, 긴급의료원/보행, 야전 병원(민간, 군인) 또는 재난 극복 센터의 이동 환경에서 호흡 및 다른 수명 신호를 감시한다.
투영 시스템은, 물리적인 매체, 예를 들면, 필름 또는 글래스 상에 생성되고, 기계적인 시스템, 예를 들면, 패턴이 실장되어 있고, 광원의 정면에 위치하는 회전 휠, 을 통해서 시퀀스된 광학 패턴 세트를 조명하는 광원(예를 들면, 시준된 LED 소스)을 포함할 수 있다.
시야각은 2개 이상의 기록 시스템과 하나 이상의 투영 시스템을 이용하여 증가될 수 있으므로 오브젝트/대상의 표면 영역이 캡쳐될 수 있고, 캡쳐되는 영역은, 배치된 n개의 카메라 중 적어도 2개를 가질 수 있는 것이 확실하다. 도 6은 오브젝트/대상의 스캐닝 커버리지를 개선시키기 위한 일 구성을 도시한다.
상기 서술된 것같이, 오브젝트의 적어도 일부의 3차원 표시가, 예를 들면 2대의 카메라를 사용하여, 오브젝트 상의 투영된 패턴의 하나의 시간 인스턴트에 캡쳐된 복수의 이미지를 사용하여 도출될 수 있다. 하나의 시간 인스턴트에 대해서 복수의 이미지를 취함으로써, 오브젝트의 더 큰 커버리지를 갖고 및/또는 특정 오브젝트 부분의 폐색문제가 감소된 이미지 데이터가 얻어질 수 있다. 본 발명의 또 다른 유리한 실시예에서, 기록 시스템은, 제1과 제2 및 가능하게는 또 다른 시간 인스턴트에서 오브젝트 상에 투영된 패턴의 적어도 일부의 하나의 이미지를 기록하는 오직 하나의 카메라를 포함할 수 있다. 오브젝트의 적어도 일부의 3차원 표시는, 각각의 이미지에 기록된 패턴을 해석함으로써 각 시간 인스턴트에 대해서 도출될 수 있다. 따라서, 이러한 실시예에서, 다중 카메라는 불필요하다.
장치는 기록 시스템 및 투영 시스템을 포함할 수 있고, 기록 시스템에 의해 캡쳐된 이미지 데이터는, 3차원 구성과 디퍼렌셜 데이터를 나타내는 이미지 데이터를 생성하기 위해, 처리를 위한 적절한 형태로 제공될 수 있다. 이미지 데이터의 이러한 처리는 기록 및 투영 시스템의 원격에서 처리될 수 있고, 이러한 처리 시스템은 또 다른 방에 위치할 수 있거나 또 다른 국가에 위치할 수 있고, 컴퓨터 네트워크를 통해 기록 및 투영 시스템에 접속되어, 처리 시스템에 이미지 데이터를 제공하도록 마련된 기록 및 투영 시스템으로부터 이미지 데이터를 수신하도록 마련될 수 있다.
임의의 하나의 실시예와 관련하여 서술된 임의의 특징이 단독으로 또는 서술된 다른 특징과 조합하여 사용될 수 있거나, 임의의 다른 실시예의 하나 이상의 특징과 조합하여 또는 임의의 다른 실시예의 임의의 조합으로 사용될 수 있다. 또한, 상기 서술되지 않은 등가물 및 수정물이, 첨부된 청구범위에 정의된 본 발명의 범위를 벗어나지 않으면 사용될 수 있다.

Claims (38)

  1. a) 감시할 오브젝트에 방사 패턴을 투영하는 단계;
    b) 오브젝트상의 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제1 이미지 데이터를 제1 시간 인스턴트에서 기록하는 단계로서, 상기 제1 이미지 데이터는 상기 제1 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;
    c) 오브젝트상의 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제2 이미지 데이터를 제2 시간 인스턴트에서 기록하는 단계로서, 상기 제2 이미지 데이터는 상기 제2 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계; 및
    d) 상기 제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 구성의 변화를 나타내는 디퍼렌셜(differential) 데이터를 생성하기 위해 상기 제1 및 제2 이미지 데이터를 처리하는 단계를 포함하는, 오브젝트 감시 방법.
  2. 청구항 1에 있어서,
    상기 제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 용적의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 상기 제1 및 제2 이미지 데이터를 처리하는 단계를 포함하는, 오브젝트 감시 방법.
  3. 청구항 1 또는 2에 있어서,
    상기 단계 b) 및 c)에서의 상기 일부는 실질적으로 패턴의 동일한 부분인, 오브젝트 감시 방법.
  4. 청구항 1 또는 2에 있어서,
    상기 단계 b) 및 c)에서의 상기 일부는 패턴의 상이한 부분인, 오브젝트 감시 방법.
  5. 청구항 4에 있어서,
    제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 전체 움직임을 식별하기 위해 제1 및 제2 이미지 데이터를 처리하는 단계를 포함하는, 오브젝트 감시 방법.
  6. 상기 기재된 청구항들 중 어느 한 항에 있어서,
    상기 방사 패턴은 공간적으로 변화하는 세기 패턴인, 오브젝트 감시 방법.
  7. 청구항 6에 있어서,
    상기 방사 패턴은 공간적으로 분포되는 교점, 코너 및/또는 원형 패치의 조합을 포함하는, 오브젝트 감시 방법.
  8. 상기 기재된 청구항들 중 어느 한 항에 있어서,
    상기 방사 패턴은 비전리 전자기 방사 패턴인, 오브젝트 감시 방법.
  9. 청구항 8에 있어서,
    상기 방사 패턴은 가시 방사 패턴인, 오브젝트 감시 방법.
  10. 청구항 1 ~ 8 중 어느 한 항에 있어서,
    상기 방사 패턴은 적외 방사 패턴인, 오브젝트 감시 방법.
  11. 상기 기재된 청구항들 중 어느 한 항에 있어서,
    상기 단계 a)에서 방사의 상이한 패턴의 시퀀스가 오브젝트로 투영되고, 각각의 상이한 패턴이 상이한 시간 인스턴트에서 연속적으로 투영되는, 오브젝트 감시 방법.
  12. 상기 기재된 청구항들 중 어느 한 항에 있어서,
    복수의 또 다른 시간 인스턴트에서 상기 오브젝트 상의 투영된 방사 패턴의 적어도 일부를 나타내는 또 다른 이미지 데이터를 기록하는 단계로서, 상기 또 다른 이미지 데이터는 복수의 또 다른 시간 인스턴트의 각각에서 상기 오브젝트의 3차원 구성을 나타내는, 단계; 및
    상기 복수의 또 다른 시간 인스턴트 중 적어도 2개의 시간 인스턴트 사이에서 상기 오브젝트의 구성상 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 상기 또 다른 이미지 데이터를 처리하는 단계를 포함하는, 오브젝트 감시 방법.
  13. 청구항 12에 있어서,
    상기 또 다른 이미지 데이터는 초당 50 ~ 360 시간 인스턴트의 속도로 기록되는, 오브젝트 감시 방법.
  14. 상기 기재된 청구항들 중 어느 한 항에 있어서,
    상기 방사 패턴이 투영되지 않는 오브젝트의 일부의 구성을 근사하는 단계를 포함하는, 오브젝트 감시 방법.
  15. 청구항 14에 있어서,
    제1 및/또는 제2 이미지 데이터를 상기 근사를 위해 사용하는 단계를 포함하는, 오브젝트 감시 방법.
  16. 청구항 14 또는 15에 있어서,
    상기 오브젝트의 일부의 근사된 구성을 이용하여 디퍼렌셜 데이터를 생성하는 단계를 포함하는, 오브젝트 감시 방법.
  17. 상기 기재된 청구항들 중 어느 한 항에 있어서,
    상기 오브젝트는 사람인, 오브젝트 감시 방법.
  18. 청구항 17에 있어서,
    상기 제1 및 제2 이미지 데이터를 사람을 특징짓는 생물-물리학-모델 데이터로 처리하는 단계를 포함하는, 오브젝트 감시 방법.
  19. 청구항 18에 있어서,
    상기 생물-물리학-모델 데이터는 사람의 사이즈, 연령, 성별 및/또는 체형을 나타내는 파라미터를 포함하는, 오브젝트 감시 방법.
  20. 청구항 17 ~ 19 중 어느 한 항에 있어서,
    구성의 변화는 사람의 폐기능을 나타내는, 오브젝트 감시 방법.
  21. 상기 기재된 청구항들 중 어느 한 항에 있어서,
    적어도 단계 a) 및 b)를 행하도록 마련된 장치를 교정하는(calibra) 단계를 더 포함하며,
    상기 교정하는 단계는,
    방사의 교정 패턴을 교정 오브젝트에 투영하는 단계; 및
    상기 투영된 방사의 교정 패턴의 적어도 일부를 나타내는 교정 이미지 데이터를 기록하는 단계로서, 상기 교정 이미지 데이터는 상기 교정 오브젝트의 3차원 구성을 나타내는, 단계; 및
    상기 단계 d)에서의 상기 제1 및 제2 이미지 데이터를 교정 이미지 데이터로 처리하여 디퍼렌셜 데이터를 생성하는 단계를 포함하는, 오브젝트 감시 방법.
  22. 청구항 21에 있어서,
    방사의 상이한 교정 패턴의 시퀀스를 교정 오브젝트에 투영하는 단계와, 방사의 상기 상이한 교정 패턴의 각각에 대한 교정 이미지 데이터를 기록하는 단계를 포함하는, 오브젝트 감시 방법.
  23. 청구항 21 또는 22에 있어서,
    상기 제1 및/또는 제2 이미지 데이터로부터 오브젝트의 치수를 결정하는데 사용하기 위해 유닛 스케일을 결정하도록, 상기 단계 a) ~ d)를 실행하기 전에 상기 교정을 행하는 단계를 포함하는, 오브젝트 감시 방법.
  24. 청구항 21 ~ 23 중 어느 한 항에 있어서,
    상기 단계 a)에서의 투영은 감시할 오브젝트에 상기 교정 패턴 또는 상기 교정 패턴 중 적어도 하나를 투영하는 단계를 더 포함하며, 상기 단계 b) 및/또는 c)에 기록된 제1 및/또는 제2 이미지 데이터는 상기 방법을 행하기 위한 장치의 투영 시스템과 기록 시스템의 특성을 나타내는 교정 이미지 데이터를 포함하는, 오브젝트 감시 방법.
  25. 청구항 24에 있어서,
    투영된 방사 패턴 및 투영된 교정 패턴 또는 교정 패턴의 적어도 하나는 서로 인터리브되는, 오브젝트 감시 방법.
  26. a) 감시할 오브젝트에 방사 패턴을 투영하는 단계;
    b) 오브젝트 상의 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제1 이미지 데이터를 제1 시간 인스턴트에 기록하는 단계로서, 상기 제1 이미지 데이터는 상기 제1 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;
    c) 오브젝트 상의 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제2 이미지 데이터를 제2 시간 인스턴트에 기록하는 단계로서, 상기 제2 이미지 데이터는 상기 제2 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;및
    d) 제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 처리 시스템에 상기 제1 및 제2 이미지 데이터를 제공하는 단계를 포함하는, 오브젝트 감시 방법.
  27. a) i) 감시할 오브젝트에 방사 패턴을 투영하는 단계;
    ii) 오브젝트 상에 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제1 이미지 데이터를 제1 시간 인스턴트에 기록하는 단계로서, 상기 제1 이미지 데이터는 상기 제1 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;및
    iii) 오브젝트 상에 상기 투영된 방사 패턴의 적어도 일부를 나타내는 제2 이미지 데이터를 제2 시간 인스턴트에 기록하는 단계로서, 상기 제2 이미지 데이터는 상기 제2 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 나타내는, 단계;
    의 방법에 의해 기록된 제1 및 제2 이미지 데이터를 수신하는 단계; 및
    b) 상기 제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 상기 제1 및 제2 이미지 데이터를 처리하는 단계를 포함하는, 오브젝트 감시 방법.
  28. 청구항 1 ~ 27 중 어느 한 항에 기재된 방법을 실행하도록 마련되는 컴퓨터 소프트웨어.
  29. 청구항 28의 소프트웨어를 저장하는 데이터 캐리어.
  30. 감시할 오브젝트에 방사 패턴을 투영하도록 마련된 투영 시스템;
    오브젝트 상의 상기 투영된 패턴의 적어도 일부를 나타내는 제1 및 제2 이미지 데이터를 각각 제1 및 제2 시간 인스턴트에서 기록하도록 마련되고, 상기 제1 및 제2 이미지 데이터는 상기 제1 및 제2 시간 인스턴트에서 상기 오브젝트의 3차원 구성을 각각 나타내는, 기록 시스템; 및
    제1 및 제2 시간 인스턴트 사이에서 상기 오브젝트의 구성의 변화를 나타내는 디퍼렌셜 데이터를 생성하기 위해 상기 제1 및 제2 이미지 데이터를 처리하도록 마련되는 처리 시스템을 포함하는, 오브젝트 감시 장치.
  31. 청구항 30에 있어서,
    상기 기록 시스템은 오브젝트의 3차원 구성을 나타내는 이미지 데이터를 기록하기 위해 투영된 방사 패턴의 적어도 일부의 복수의 이미지를 일시에 기록하기 위해 마련되며, 복수의 이미지 각각은 상기 오브젝트의 상이한 관점에서 기록되는, 오브젝트 감시 장치.
  32. 청구항 30 또는 31에 있어서,
    상기 투영 시스템에 의한 투영을 위해 상기 방사 패턴을 생성하도록 마련된 패턴 발생기를 포함하는, 오브젝트 감시 장치.
  33. 청구항 32에 있어서,
    상기 패턴 발생기는, 감시할 오브젝트 및/또는 교정 오브젝트에 투영하기 위한 적어도 하나의 교정 패턴을 생성하기 위해 마련되는, 오브젝트 감시 장치.
  34. 청구항 30 ~ 33 중 어느 한 항에 있어서,
    상기 방사 패턴은 비전리 전자 방사 패턴인, 오브젝트 감시 장치.
  35. 청구항 34에 있어서,
    가시 방사로서 방사 패턴을 투영하기 위해 투영 시스템이 마련되고, 가시 방사를 검출하기 위해 기록 수단이 마련되는, 오브젝트 감시 장치.
  36. 청구항 34에 있어서,
    적외 방사로서 방사 패턴을 투영하기 위해 투영 시스템이 마련되고, 적외 방사를 검출하기 위해 기록 시스템이 마련되는, 오브젝트 감시 장치.
  37. 청구항 30 ~ 36 중 어느 한 항에 있어서,
    방사 패턴은 공간적으로 변화하는 세기 패턴인, 오브젝트 감시 장치.
  38. 청구항 37에 있어서,
    방사 패턴은 공간적으로 분포된 교점, 코너 및/또는 원형 패치의 조합을 포함하는, 오브젝트 감시 장치.
KR1020117015715A 2008-12-11 2009-12-10 오브젝트 감시 방법 및 장치 KR20110105789A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0822605.2 2008-12-11
GBGB0822605.2A GB0822605D0 (en) 2008-12-11 2008-12-11 Method and apparatus for monitoring an object

Publications (1)

Publication Number Publication Date
KR20110105789A true KR20110105789A (ko) 2011-09-27

Family

ID=40325936

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117015715A KR20110105789A (ko) 2008-12-11 2009-12-10 오브젝트 감시 방법 및 장치

Country Status (10)

Country Link
US (2) US9204824B2 (ko)
EP (1) EP2384420B1 (ko)
JP (1) JP2012511707A (ko)
KR (1) KR20110105789A (ko)
CN (1) CN102301202B (ko)
AU (1) AU2009324342A1 (ko)
CA (1) CA2746483A1 (ko)
DK (1) DK2384420T3 (ko)
GB (1) GB0822605D0 (ko)
WO (1) WO2010066824A2 (ko)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3117768B1 (en) 2006-05-19 2019-11-06 The Queen's Medical Center Motion tracking system and method for real time adaptive imaging and spectroscopy
KR101714050B1 (ko) * 2010-11-01 2017-03-08 삼성전자주식회사 휴대단말기의 데이터 표시장치 및 방법
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
US9595115B1 (en) 2011-09-19 2017-03-14 Amazon Technologies, Inc. Visualizing change in augmented reality environments
BR112014009334A2 (pt) 2011-10-20 2017-12-05 Koninklijke Philips Nv dispositivo e método de monitoramento do movimento e orientação de pessoas; processador para uso em dispositivos de monitoramento do movimento e orientação de pessoas; método de processamento para uso em dispositivos de monitoramento do movimento e orientação de pessoas; e programa de computador
DE102011121696A1 (de) * 2011-12-16 2013-06-20 Friedrich-Schiller-Universität Jena Verfahren zur 3D-Messung von tiefenlimitierten Objekten
WO2013174980A1 (en) 2012-05-25 2013-11-28 Danmarks Tekniske Universitet Apparatus and method for motion tracking in brain imaging
US9301710B2 (en) * 2012-06-01 2016-04-05 Xerox Corporation Processing a video for respiration rate estimation
EP2873060B1 (en) * 2012-07-10 2016-01-13 Koninklijke Philips N.V. Embolization volume reconstruction in interventional radiography
WO2014059681A1 (zh) * 2012-10-20 2014-04-24 因美吉智能科技(济南)有限公司 非接触式儿科测量方法和测量设备
CN103750817B (zh) * 2012-10-20 2018-03-16 因美吉智能科技(济南)有限公司 非接触式儿科测量方法和测量设备
WO2014083337A1 (en) * 2012-11-27 2014-06-05 Pneumacare Limited Analysis of breathing data
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
EP2770296A1 (de) * 2013-02-25 2014-08-27 Siemens Aktiengesellschaft Verfahren zur Objektmarkierung mittels 3D-Oberflächeninspektionssystem mittels 2D-Aufnahmen und Verfahren
CN103278141B (zh) * 2013-03-06 2016-05-18 北京工业大学 婴幼儿睡眠监控系统及方法
US20140276104A1 (en) * 2013-03-14 2014-09-18 Nongjian Tao System and method for non-contact monitoring of physiological parameters
US10292623B2 (en) 2013-03-15 2019-05-21 Koninklijke Philips N.V. Apparatus and method for determining a respiration volume signal from image data
WO2014171418A1 (ja) * 2013-04-19 2014-10-23 凸版印刷株式会社 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
CN105744882A (zh) * 2013-11-13 2016-07-06 丹麦科技大学 在医学成像中进行表面扫描的方法和相关设备
GB2547357B (en) * 2013-11-27 2017-10-25 Pneumacare Ltd Analysis of breathing data
GB2522452B (en) 2014-01-24 2017-07-19 Chapelglade Ltd System for measuring body characteristics relevant for mattress selection
RU2691878C1 (ru) * 2014-02-05 2019-06-18 Конинклейке Филипс Н.В. Мониторинг показателей жизненно важных функций во время фототерапевтического лечения на основе камеры
CN106134192B (zh) * 2014-03-25 2020-08-11 株式会社索思未来 图像解码装置、图像解码方法及集成电路
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
DE102014110536A1 (de) * 2014-07-25 2016-01-28 E. Zoller GmbH & Co. KG Einstell- und Messgeräte Lichtprojektor
US10091418B2 (en) * 2014-10-24 2018-10-02 Bounce Imaging, Inc. Imaging systems and methods
CN107110637B (zh) * 2014-12-22 2019-11-01 赛博光学公司 对三维测量系统的校准进行更新
JP6002811B1 (ja) * 2015-05-20 2016-10-05 シャープ株式会社 計測システム、被験体の呼吸に起因する生体活動の計測方法およびコンピュータプログラム
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
EP3158502B1 (en) * 2015-08-10 2018-07-25 Koninklijke Philips N.V. Furniture occupancy monitoring
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10667723B2 (en) 2016-02-19 2020-06-02 Covidien Lp Systems and methods for video-based monitoring of vital signs
US10403037B1 (en) * 2016-03-21 2019-09-03 URC Ventures, Inc. Verifying object measurements determined from mobile device images
USD854074S1 (en) 2016-05-10 2019-07-16 Udisense Inc. Wall-assisted floor-mount for a monitoring camera
US10925496B2 (en) 2016-07-16 2021-02-23 Alexander Misharin Methods and systems for obtaining physiologic information
US11412943B2 (en) 2016-07-16 2022-08-16 Olesya Chornoguz Methods and systems for obtaining physiologic information
US11889979B2 (en) * 2016-12-30 2024-02-06 Barco Nv System and method for camera calibration
US10186049B1 (en) 2017-03-06 2019-01-22 URC Ventures, Inc. Determining changes in object structure over time using mobile device images
USD855684S1 (en) 2017-08-06 2019-08-06 Udisense Inc. Wall mount for a monitoring camera
US10939824B2 (en) 2017-11-13 2021-03-09 Covidien Lp Systems and methods for video-based monitoring of a patient
CN111372516A (zh) 2017-11-22 2020-07-03 乌迪森斯公司 呼吸监控器
CN111565638B (zh) 2018-01-08 2023-08-15 柯惠有限合伙公司 用于基于视频的非接触式潮气容积监测的系统和方法
KR102048364B1 (ko) * 2018-04-13 2019-11-25 엘지전자 주식회사 로봇 청소기
US10930001B2 (en) * 2018-05-29 2021-02-23 Zebra Technologies Corporation Data capture system and method for object dimensioning
US10650585B2 (en) 2018-06-08 2020-05-12 Data Integrity Advisors, Llc System and method for geometrically-resolved radiographic X-ray imaging
US11754712B2 (en) * 2018-07-16 2023-09-12 Cilag Gmbh International Combination emitter and camera assembly
CN109211143A (zh) * 2018-09-21 2019-01-15 苏州佳世达光电有限公司 三维扫描系统
US11617520B2 (en) * 2018-12-14 2023-04-04 Covidien Lp Depth sensing visualization modes for non-contact monitoring
USD900431S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket with decorative pattern
USD900429S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band with decorative pattern
US11315275B2 (en) 2019-01-28 2022-04-26 Covidien Lp Edge handling methods for associated depth sensing camera devices, systems, and methods
USD900428S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle band
USD900430S1 (en) 2019-01-28 2020-11-03 Udisense Inc. Swaddle blanket
JP2020181400A (ja) * 2019-04-25 2020-11-05 キヤノン株式会社 画像処理装置、撮像装置、制御方法、プログラム及び記録媒体
GB201914842D0 (en) * 2019-10-14 2019-11-27 Binatone Electronics Int Ltd Breathing detection apparatus and methods for detecting breathing
US11282291B1 (en) 2021-02-09 2022-03-22 URC Ventures, Inc. Determining object structure using fixed-location cameras with only partial view of object
US11989899B2 (en) 2021-02-09 2024-05-21 Everypoint, Inc. Determining object structure using physically mounted devices with only partial view of object
US11741618B2 (en) 2021-03-22 2023-08-29 Everypoint, Inc. Performing object modeling by combining visual data from images with motion data of the image acquisition device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9107740D0 (en) 1991-04-11 1991-05-29 Atomic Energy Authority Uk Method of monitoring displacements
AT404638B (de) * 1993-01-28 1999-01-25 Oesterr Forsch Seibersdorf Verfahren und vorrichtung zur dreidimensionalen vermessung der oberfläche von gegenständen
JP3263035B2 (ja) 1997-11-21 2002-03-04 東芝エンジニアリング株式会社 呼吸モニタリングの関心領域設定装置および呼吸モニタリングシステム
US6352517B1 (en) 1998-06-02 2002-03-05 Stephen Thomas Flock Optical monitor of anatomical movement and uses thereof
WO2001082785A2 (en) 2000-05-03 2001-11-08 Flock Stephen T An optical monitor for sudden infant death syndrome
JP3477166B2 (ja) * 2000-12-07 2003-12-10 学校法人慶應義塾 監視装置
WO2002075245A1 (en) * 2001-03-13 2002-09-26 Solutionix Co., Ltd. Apparatus and method for measuring three dimensional shape with multi-stripe patterns
JP3764949B2 (ja) 2003-06-09 2006-04-12 住友大阪セメント株式会社 状態解析装置
JP3738291B2 (ja) * 2003-06-09 2006-01-25 住友大阪セメント株式会社 三次元形状測定装置
GB0404269D0 (en) * 2004-02-26 2004-03-31 Leuven K U Res & Dev Time-dependent three-dimensional musculo-skeletal modeling based on dynamic surface measurements of bodies
US7903849B2 (en) * 2005-04-15 2011-03-08 Kabushiki Kaisha Toshiba Medical image processing apparatus
US8504140B2 (en) * 2008-04-08 2013-08-06 Bruker Biospin Corporation Apparatus and method for fluorescence imaging and tomography using spatially structured illumination
US8199970B2 (en) 2006-06-06 2012-06-12 Nec Corporation Moving amount calculation system and obstacle detection system
WO2009083973A1 (en) * 2007-12-31 2009-07-09 Real Imaging Ltd. System and method for registration of imaging data
JP6818456B2 (ja) 2016-07-14 2021-01-20 株式会社竹中工務店 柱の接続構造

Also Published As

Publication number Publication date
US20140140592A1 (en) 2014-05-22
CA2746483A1 (en) 2010-06-17
EP2384420A2 (en) 2011-11-09
WO2010066824A2 (en) 2010-06-17
US9204825B2 (en) 2015-12-08
CN102301202B (zh) 2017-04-26
GB0822605D0 (en) 2009-01-21
WO2010066824A3 (en) 2010-10-07
JP2012511707A (ja) 2012-05-24
CN102301202A (zh) 2011-12-28
DK2384420T3 (en) 2016-06-27
AU2009324342A1 (en) 2011-07-07
US9204824B2 (en) 2015-12-08
US20130002832A1 (en) 2013-01-03
EP2384420B1 (en) 2016-03-30

Similar Documents

Publication Publication Date Title
KR20110105789A (ko) 오브젝트 감시 방법 및 장치
US10506952B2 (en) Motion monitor
US7545279B2 (en) Condition-analyzing device
US8792969B2 (en) Respiratory function estimation from a 2D monocular video
US9226691B2 (en) Processing a video for tidal chest volume estimation
CN103445782B (zh) 一种用于估算呼吸频率的视频处理技术
RU2618172C2 (ru) Устройство и способ отслеживания перемещения и ориентации устройства
US20080317313A1 (en) System and method for tracking motion for generating motion corrected tomographic images
Rehouma et al. 3D imaging system for respiratory monitoring in pediatric intensive care environment
US20170000430A1 (en) Methods and apparatus for jaw motion analysis
Li et al. Detection of patient's bed statuses in 3D using a Microsoft Kinect
US20230005154A1 (en) Apparatus, method and computer program for monitoring a subject during a medical imaging procedure
Auvinet et al. Lower limb movement asymmetry measurement with a depth camera
US20130324874A1 (en) Minute ventilation estimation based on chest volume
Agarwal et al. Method to improve gait speed assessment for low frame rate AI enabled visual sensor
US20220378321A1 (en) Methods and systems for assessing severity of respiratory distress of a patient
RU2663387C1 (ru) Контактное устройство для измерения конфигурации и размеров объемного тела, система измерения конфигурации и размеров объемного тела, способ измерения конфигурации и размеров объемного тела
JP2022514167A (ja) 対象者をモニタリングするための装置、システム及び方法
US20230301546A1 (en) Imaging human respiratory gas patterns to determine volume, rate and carbon dioxide concentration
CN117042697A (zh) 胸部放射摄影图像检查的呼吸的非接触式测量和可视化
Noonan An Investigation Into Motion Correction Schemes For High Resolution 3D PET And PET/CT
Verster A structured light solution for detecting scapular dyskinesis
Ahmad Innovative Optical Non-contact Measurement of Respiratory Function Using Photometric Stereo

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid