KR102582761B1 - 센싱 방법 및 장치 - Google Patents

센싱 방법 및 장치 Download PDF

Info

Publication number
KR102582761B1
KR102582761B1 KR1020180068364A KR20180068364A KR102582761B1 KR 102582761 B1 KR102582761 B1 KR 102582761B1 KR 1020180068364 A KR1020180068364 A KR 1020180068364A KR 20180068364 A KR20180068364 A KR 20180068364A KR 102582761 B1 KR102582761 B1 KR 102582761B1
Authority
KR
South Korea
Prior art keywords
shape
blood vessel
information
received light
sensor
Prior art date
Application number
KR1020180068364A
Other languages
English (en)
Other versions
KR20190141505A (ko
Inventor
주양현
장성하
박주언
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020180068364A priority Critical patent/KR102582761B1/ko
Priority to PCT/KR2019/007164 priority patent/WO2019240517A1/ko
Priority to US16/973,160 priority patent/US11957432B2/en
Priority to CN201980039878.7A priority patent/CN112312829A/zh
Publication of KR20190141505A publication Critical patent/KR20190141505A/ko
Application granted granted Critical
Publication of KR102582761B1 publication Critical patent/KR102582761B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Physiology (AREA)
  • Electromagnetism (AREA)
  • Cardiology (AREA)
  • Vascular Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

일 실시 예에 따라, 객체에 대한 정보를 획득하는 방법 및 장치가 개시된다. 구체적으로, 수신 광의 세기 정보와 객체의 거리 정보를 이용해서 혈관의 형상을 획득하는 센싱 방법 및 장치가 개시된다.

Description

센싱 방법 및 장치{Method and apparatus for sensing}
본 개시에서는 하나 이상의 실시 예에 따라 센싱하는 방법 및 장치가 개시된다.
광을 출력하여 객체에 반사시킴으로서 정보를 획득하는 디바이스가 여러 분야에서 이용되고 있다. 예를 들면, 3D 카메라에서부터 거리 측정 기법에 이르기 까지, 광을 출력하여 정보를 획득하는 기술은 여러 방식으로 이용되고 있다.
일 예로, TOF(Time of Flight)는 광이 출력된 시점과 객체에서 반사되어 되돌아온 수신광의 수신시점 사이의 시간차를 측정하여 거리를 측정하는 원리를 나타내는 용어로서, TOF 기술은 구현 방법이 간단하기 때문에 항공, 조선, 토목, 카메라, 측량 등 다양 한 분야에서 이용되고 있다.
KR10-2017-0026125 (공개일: 2017.03.08.) KR10-2014-0109158 (공개일: 2014.09.15.)
본 개시는 하나 이상의 실시 예에 따라 광을 센싱함으로써 객체에 대한 정보를 획득하는 방법 및 장치를 제공할 수 있다. 구체적으로, 광의 세기 정보 또는 객체의 거리 정보 등을 통해 객체에 대한 정보를 획득하는 방법 및 장치가 개시된다.
해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제들이 더 포함될 수 있다.
제 1 측면에 따른 센싱 장치는 객체로부터 반사되는 수신 광으로, 상기 수신 광의 세기 정보와 상기 객체의 거리 정보를 획득하는 센서; 및 상기 세기 정보를 이용하여 상기 객체의 혈관의 제 1 형상을 획득하고, 상기 거리 정보와 상기 혈관의 상기 제 1 형상을 이용하여 상기 혈관의 제 2 형상을 획득하는 프로세서를 포함할 수 있다.
또한, 상기 제 1 형상 및/또는 상기 제 2 형상은 상기 혈관의 두께 정보를 포함할 수 있다.
또한, 상기 수신 광의 초점을 제어하는 액체 렌즈를 포함할 수 있다.
또한, 상기 제 2 형상은 상기 제 1 형상의 자세차 정보가 반영된 형상일 수 있다.
또한, 상기 제 1 형상은 상기 수신 광의 세기가 상대적으로 약한 영역에 기초하여 결정될 수 있다.
또한, 상기 프로세서는 상기 제 2 형상과 저장부에 저장된 기준 형상을 비교할 수 있다.
또한, 상기 센서로부터 상기 객체까지의 거리가 기설정값 이하인 경우 상기 액체 렌즈를 제어하여 화각을 증가시킬 수 있다.
제 2 측면에 따른 카메라 모듈은 객체로 적외선 광을 출력하는 광원; 상기 객체로부터 반사되는 수신 광의 초점을 제어하는 액체 렌즈; 상기 수신 광의 세기 정보와 상기 객체의 거리 정보를 획득하는 센서; 및 상기 세기 정보를 이용하여 상기 객체의 혈관의 제 1 형상을 획득하고, 상기 거리 정보와 상기 혈관의 상기 제 1 형상을 이용하여 상기 혈관의 제 2 형상을 획득하는 프로세서를 포함할 수 있다.
또한, 상기 프로세서는 상기 센서에 수신되는 상기 수신 광의 파워가 포화된 경우, 상기 광원으로부터 출력되는 상기 적외선 광의 파워를 감소시킬 수 있다.
또한, 상기 프로세서는 상기 센서에 수신되는 상기 수신 광의 파워가 포화된 경우, 상기 광원의 시간당 광 출력 양을 감소시키거나, 상기 센서의 상기 수신 광에 대한 노출 시간을 감소시킬 수 있다.
또한, 상기 프로세서는 상기 센서로부터 상기 객체까지의 거리가 기설정값 이하인 경우, 상기 액체 렌즈를 제어하여 화각을 증가시킬 수 있다.
또한, 상기 거리 정보는 상기 센서로부터 상기 객체까지의 거리를 나타내는 정보를 포함하고, 상기 액체 렌즈는 상기 거리 정보에 따라 오토 포커싱을 수행할 수 있다.
제 3 측면에 따른 센싱 방법은 객체로부터 반사되는 수신 광으로, 상기 수신 광의 세기 정보와 상기 객체의 거리 정보를 획득하는 단계; 및 상기 세기 정보를 이용하여 상기 객체의 혈관의 제 1 형상을 획득하고, 상기 거리 정보를 이용하여 상기 혈관의 상기 제 1 형상의 자세차를 보정한 상기 혈관의 제 2 형상을 획득하는 단계를 포함할 수 있다.
제 4 측면에 따른 센싱 방법은 객체로 출력 광을 출력하는 단계; 상기 객체로부터 상기 출력 광이 반사되어 획득되는 수신 광의 세기 정보 및 상기 객체의 거리 정보를 획득하는 단계; 상기 세기 정보를 이용해서 상기 객체의 혈관의 형상과 두께 정보를 획득하는 단계; 및 상기 혈관의 형상과 두께 정보 및 상기 거리 정보를 이용하여 상기 혈관의 3D 정보를 획득하는 단계를 포함할 수 있다.
제 5 측면은 제 3 측면 및 제 4 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
본 개시는 하나 이상의 실시 예에 따라 광을 센싱함으로써 객체에 대한 정보를 획득하는 방법 및 장치를 제공할 수 있다.
도 1은 일 실시 예에 따른 센싱 장치의 동작을 나타내는 개념도이다.
도 2는 일 실시 예에 따른 센싱 장치가 광원과 연동하여 동작하는 일 예를 나타내는 개념도이다.
도 3은 렌즈를 내부에 포함하는 센싱 장치가 광원과 연동하여 동작하는 일 예를 나타내는 개념도이다.
도 4는 센싱 장치가 IR 패스 필터를 포함하는 경우를 나타내는 개념도이다.
도 5는 센싱 장치가 센서와 객체간의 거리에 따라 동작하는 실시 예를 설명하기 위한 도면이다.
도 6은 일 실시 예에 따라 센싱 장치에 포함되는 고체 렌즈의 일 예를 설명하는 도면이다.
도 7은 일 실시 예에 따른 센싱 장치가 제 2 형상을 획득하는 방법을 나타내는 흐름도이다.
실시 예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, “…모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 일 실시 예에 따른 센싱 장치(20)의 동작을 나타내는 개념도이다.
도 1에 도시된 바와 같이 센싱 장치(20)는 광원(30)과 함께 동작할 수 있다. 또한 센싱 장치(20)와 광원(30)은 카메라 모듈(10)에 포함될 수 있다.
도 1을 참조하면, 센싱 장치(20)는 광원(30)에서 출력된 출력 광(11)이 객체(1)로부터 반사되는 수신 광(12)을 획득할 수 있다.
일 실시 예에 따른 센싱 장치(20)는 수신 광(12)으로, 수신 광(12)의 세기 정보 및 객체(1)의 거리 정보를 획득할 수 있다. 수신 광(12)의 세기 정보는 영역에 따른 수신 광(12)의 세기 값을 포함할 수 있다. 또한 객체(1)의 거리 정보는 센싱 장치(20)와 객체(1)간의 거리를 나타낼 수 있다.
센싱 장치(20)의 구체적인 구성 및 동작은 도 2 이하에서 보다 구체적으로 설명한다.
도 2는 일 실시 예에 따른 센싱 장치(20)가 광원(30)과 연동하여 동작하는 일 예를 나타내는 개념도이다.
도 2를 참조하면, 센싱 장치(20)는 센서(22) 및 렌즈(21)를 포함할 수 있다. 그러나, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 센싱 장치(20)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 센싱 장치(20)는 프로세서(40)를 더 포함할 수 있다. 다른 예로, 센싱 장치(20)는 프로세서(40)와 연결되는 메모리(미도시)를 더 포함할 수 있다.
또는 다른 실시 예에 따를 경우, 도 2에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
일 실시 예에 따른 센싱 장치(20)는 센서(22) 및 프로세서(40)로 구성될 수 있다.
일 실시 예에 따른 광원(30)은 출력 광(11)을 출력할 수 있다. 출력 광(11)은 광원(30)에서 출력되는 광으로서, 기설정된 범위 내의 파장일 수 있다.
광원(30)은, 예를 들어, 적외선 파장을 갖는 광, 안전을 위해 인간의 눈에는 보이지 않는 약 850nm의 근적외선(NIR) 파장을 갖는 광을 방출시킬 수 있는 발광 다이오드(LED), 레이저 다이오드(LD), 또는 빅셀(VCSEL)일 수 있지만, 파장의 대역과 광원의 종류는 제한을 받지 않는다. 예를 들면, 광원(30)에서 출력하는 출력 광의 파장은 가시광선 영역에 포함될 수도 있으며, 자외선 영역에 포함될 수도 있다.
일 실시 예에 따라 광원(30)에서 출력되는 출력 광(11)은 적외선일 수 있다. 이하에서는 일 실시 예에 따라 출력 광(11)이 적외선인 경우에 대해 설명하지만, 출력 광(11)이 적외선인 경우로 제한 해석되지 않는다. 출력 광(11)이 적외선인 경우 뿐 아니라, 자외선, 가시광선, x선 등인 경우도 본 발명의 권리범위에 포함될 수 있다.
프로세서(40)로부터 수신된 제어 신호에 따라 광원(30)은 예를 들어 크기(amplitude) 변조 또는 위상(phase) 변조를 수행하여 출력 광(11)을 출력할 수 있다. 프로세서(40)의 제어 신호에 따라 광원(30)으로부터 객체(1)로 출력되는 출력 광(11)은 소정의 주기를 갖는 주기적인 연속 함수의 형태를 가질 수 있다. 예를 들어, 출력 광(11)은 사인파, 램프파, 사각파, 펄스파 등과 같이 특수하게 정의된 파형을 가질 수도 있지만, 정의되지 않은 일반적인 형태의 파형을 가질 수도 있다.
일 실시 예에 따른 센서(22)는 객체(1)로부터 반사되는 수신 광(12)으로, 수신 광(12)의 세기 정보와 객체(1)의 거리 정보를 획득할 수 있다.
센서(22)는 센서(22)로 유입되는 여러 광 중 광원(30)에서 출력된 출력 광(11)이 객체(1)에 반사되어 획득되는 수신 광(12)을 구별할 수 있다. 예를 들면, 광원(30)이 750nm~950nm 범위의 출력 광을 출력하는 경우, 센서(22)는 필터링을 통해 750nm~950nm 범위의 광을 선별적으로 획득할 수 있다. 또한, 센서(22)는 출력 광에 대응되는 수신 광을 선별적으로 획득함으로써, 객체(1)에 대한 정확한 정보를 획득할 수 있다.
센서(22)는 객체(1)로부터 반사되는 수신 광(12)으로 수신 광(12)의 세기 정보를 획득할 수 있다.
출력 광(11)이 적외선인 경우, 센서(22)는 객체(1)의 센싱된 영역을 적외선 흡수 정도에 따라 구별할 수 있다. 예를 들면, 객체(1)가 제 1 영역과 제 2 영역을 포함하고, 제 1 영역은 적외선 흡수율이 높고, 제 2 영역은 적외선 흡수율이 낮을 때, 센서(22)는 수신 광(12)의 세기 정보를 통해 제 1 영역과 제 2 영역을 구별할 수 있다. 구체적으로 제 1 영역에서는 수신 광(12)의 세기가 기설정값보다 낮고, 제 2 영역에서는 수신 광(12)의 세기가 기설정값보다 클 때, 센서(22)는 수신 광(12)의 세기 정보를 통해 제 1 영역과 제 2 영역을 구별할 수 있다.
일 실시 예에 따라, 객체(1)가 인체의 일부인 경우, 헤모글로빈의 특성에 따라, 객체(1)의 센싱된 영역이 복수개의 영역으로 구별될 수 있다. 구체적으로, 적외선을 흡수하는 헤모글로빈의 특성이 이용될 수 있다. 예를 들면, 출력 광(11)이 적외선인 경우, 센서(22)는 수신 광(12)의 세기 정보에 기초하여, 수신 광(12)의 세기가 상대적으로 큰 영역은 혈관이 아닌 영역으로 결정하고, 수신 광(12)의 세기가 상대적으로 작은 영역은 혈관인 영역으로 결정할 수 있다. 일 실시 예에 따라, 수신 광(12)의 세기가 상대적으로 크다는 것은 수신 광(12)의 세기가 전체 영역의 평균 값보다 크다는 것을 의미할 수 있고, 수신 광(12)의 세기가 상대적으로 작다는 것은 수신 광(12)의 세기가 전체 영역의 평균 값보다 작다는 것을 의미할 수 있다. 또는 수신 광(12)의 세기가 상대적으로 큰 영역은 수신 광(12)의 세기가 기설정값보다 큰 영역을 의미할 수 있고, 수신 광(12)의 세기가 상대적으로 작은 영역은 수신 광(12)의 세기가 기설정값보다 작은 영역을 의미할 수 있다. 이 경우, 기설정값은 출력 광(11)의 세기에 기초하여 결정될 수 있다.
센서(22)는 객체(1)로부터 반사되는 수신 광(12)으로 객체(1)의 거리 정보를 획득할 수 있다.
거리 정보는 기설정된 위치로부터 객체(1)까지의 거리를 나타낼 수 있다. 예를 들면, 거리 정보는 카메라 모듈(10)로부터 객체(1)까지의 거리, 광원(30)으로부터 객체(1)까지의 거리, 센서(22)로부터 객체(1)까지의 거리, 센싱 장치(20)로부터 객체(1)까지의 거리 등을 나타내는 정보를 포함할 수 있다.
이하에서 기술하는 바와 같이, 일 실시 예에 따른 센서(22)는 TOF(Time-of-Flight) 방식으로 거리 정보를 획득할 수 있다.
일 실시 예에 따른 센서(22)는 출력 광(11)이 발사된 기준 시점과 객체(1)에서 출력 광(11)이 반사되어 되돌아온 수신 광(12)의 획득 시점 사이의 시간차를 이용하여 거리 정보를 획득할 수 있다.
일 실시 예에 따른 센서(22)는 광원(30)에서 출력된 출력 광(11)의 제 1 위상과 객체(1)에서 출력 광(11)이 반사되어 되돌아온 수신 광(12)의 제 2 위상간의 차이를 이용하여 거리 정보를 획득할 수 있다. 위상 차이를 이용해서 거리를 결정할 때, 출력 광(11)으로 주기파가 이용될 수 있다.
일 실시 예에 따른 프로세서(40)는 거리 정보 획득 알고리즘에 따라 거리 정보를 계산할 수 있다. 거리 정보 획득 알고리즘은 기설정되어 있을 수 있다. 프로세서(40)는 예를 들어 전용의 집적회로(IC)로 구현될 수도 있으며, 또는 카메라 모듈(10) 내에 설치된 소프트웨어로도 구현될 수 있다. 소프트웨어로 구현되는 경우, 거리 정보 획득 알고리즘은 카메라 모듈(10)에 포함된 메모리에 저장될 수도 있다.
일 실시 예에 따른 프로세서(40)는 세기 정보를 이용하여 객체(1)의 혈관의 제 1 형상을 획득할 수 있다.
일 실시 예에 따른 제 1 형상은 수신 광(12)의 세기 정보를 통해 획득될 수 있다. 예를 들면, 제 1 형상은 센싱된 영역 중 수신 광(12)의 세기가 제 1 값 미만인 영역이 나타내는 형상일 수 있다. 다른 예로, 제 1 형상은 센싱된 영역 중 수신 광(12)의 세기가 제 1 값 미만이고, 제 2 값 이상인 영역이 나타내는 형상일 수 있다. 다른 예로, 제 1 형상은 센싱된 영역 중 수신 광(12)의 세기가 제 3 값 이상인 영역이 나타내는 형상일 수 있다.
출력 광(11)이 적외선인 경우, 혈관에 포함된 헤모글로빈이 적외선을 흡수하기 때문에 센싱된 영역 중 혈관에 대응되는 영역에서는 수신 광(12)의 세기가 기설정값 이하일 수 있다. 따라서, 프로세서(40)는 센싱된 영역 중 수신 광(12)의 세기가 제 1 값 미만인 영역이 나타내는 형상인 제 1 형상을 획득할 수 있다.
또한, 프로세서(40)는 제 1 형상을 획득하는 과정에서 기설정된 하나 이상의 알고리즘을 이용할 수 있다.
일 실시 예에 따른 프로세서(40)는 혈관이 서로 연결되어 있다는 특성을 반영하여 제 1 형상을 획득할 수 있다. 예를 들면, 수신 광(12)의 세기가 제 1 값 미만인 영역 중 서로 연결되고, 기설정 값 이하의 두께로 인식되는 영역을 서로 연결하여 제 1 형상으로 결정할 수 있다.
일 실시 예에 따른 프로세서(40)는 혈관이 인간의 신체에 둘러싸여 있다는 특성을 반영하여 제 1 형상을 획득할 수 있다. 예를 들면, 프로세서(40)는 비어 있는 공간과 인간의 신체로 인식되는 부분을 분리하고, 인간의 신체로 인식되는 영역 내에서 수신 광(12)의 세기가 제 1 값 미만인 영역이 나타내는 영역을 제 1 형상으로 결정할 수 있다.
일 실시 예에 따른 프로세서(40)는 세기 정보를 이용해서 제 1 형상을 획득하기 위한 이미지를 획득할 수 있다. 제 1 형상을 획득하기 위한 이미지는 수신 광(12)의 세기 정보가 포함된 이미지일 수 있다. 예를 들면, 제 1 형상을 획득하기 위한 이미지는 수신 광(12)의 세기 정도가 명암으로 나타난 이미지일 수 있다.
일 실시 예에 따른 프로세서(40)는 세기 정보를 이용해서 객체(1)의 혈관의 제 1 형상을 획득할 수 있다. 일 예에 따라 객체(1)가 손인 경우, 프로세서(40)는 세기 정보를 이용해서 객체(1)인 손에 포함된 혈관의 형상인 제 1 형상을 획득할 수 있다. 예를 들면, 제 1 형상은 적외선의 세기가 기설정값 이하인 영역이 나타내는 2차원 이미지 형상일 수 있다.
일 실시 예에 따른 제 1 형상은 혈관의 두께 정보를 포함할 수 있다. 구체적으로, 프로세서(40)는 수신 광(12)의 세기 정보를 이용해서 혈관의 두께 정보를 획득할 수 있다. 일 실시 예에 따른 프로세서(40)는 기설정된 알고리즘을 통해 혈관의 두께를 결정할 수 있다. 예를 들면, 혈관을 특정 모양(예: 원기둥)으로 모델링하고, 수신 광(12)의 세기 정보를 통해 결정된 일 측면에서의 혈관 두께에 따라 혈관의 두께를 결정할 수 있다.
일 실시 예에 따른 프로세서(40)는 거리 정보와 제 1 형상을 이용하여 혈관의 제 2 형상을 획득할 수 있다.
일 실시 예에 따른 프로세서(40)는 객체(1)의 거리 정보를 획득할 수 있다. 예를 들면, 센싱된 영역에 포함되는 각 픽셀에 대한 거리 정보를 획득할 수 있다. 프로세서(40)는 객체(1)의 형상, 모양 등에 대한 정보를 획득할 수 있다.
또한, 프로세서(40)는 센싱된 객체(1)의 형상과 기설정된 형상과 비교함으로써 객체(1)의 기본 모양을 모델링할 수 있다. 예를 들면, 객체(1)가 손이고, 검지와 중지가 붙어있는 상태인 경우, 검지와 중지가 떨어져있는 상태의 모양을 모델링할 수 있다.
다만, 거리 정보는 객체(1)의 외형에 대해서 획득되기 때문에, 혈관에 대한 정보는 거리 정보에 직접적으로 포함되지 않을 수 있다. 따라서, 프로세서(40)는 제 1 형상과 거리 정보를 함께 이용하여 혈관의 제 2 형상을 획득할 수 있다.
이하에서는 객체(1)가 손인 경우에 대해서 설명하지만, 이에 제한되지 않는다.
제 1 형상은 현재 손 모양에 대응되는 혈관의 형상을 나타낼 수 있다. 또한, 프로세서(40)는 거리 정보를 통해 현재 손 모양을 결정할 수 있다.
따라서, 혈관의 2차원 또는 3차원 형상과 손의 3차원 형상을 결합하여, 현재 손 모양에 대응하는 혈관의 3차원 형상을 결정할 수 있다. 이 경우, 혈관의 제 2 형상은 3차원 형상일 수 있다.
또한, 결정된 혈관의 3차원 형상은 기설정된 손 모양에 대응되도록 모델링될 수 있다. 예를 들면, 혈관의 2차원 형상과 손의 3차원 형상을 결합하여 손이 15도 틸트된 상태에서의 혈관의 3차원 형상이 획득된 경우, 획득된 혈관의 3차원 형상에 기초하여 기설정된 알고리즘을 통해 손이 틸트되지 않고 평면 상에 놓인 상태에서의 혈관의 3차원 형상을 모델링할 수 있다. 이 경우, 최종적으로 획득되는 혈관의 제 2 형상은 2차원 형상일 수 있다. 따라서, 프로세서(40)는 현재 손 모양과 상관 없이 기준 모양(예: 평면에서 손가락을 모두 펼친 모양)에서의 혈관 형상을 모델링을 통해 획득할 수 있다.
일 실시 예에 따른 제 2 형상은 혈관의 두께 정보를 포함할 수 있다. 구체적으로, 프로세서(40)는 거리 정보와 제 1 형상을 이용해서 혈관의 두께 정보를 획득할 수 있다. 일 실시 예에 따른 프로세서(40)는 기설정된 알고리즘을 통해 혈관의 두께를 결정할 수 있다. 예를 들면, 혈관을 특정 모양(예: 원기둥)으로 모델링하고, 거리 정보와 제 1 형상으로부터 획득한 정보에 기초하여 혈관의 두께를 결정할 수 있다. 프로세서(40)는 혈관을 3차원으로 모델링하여 혈관의 두께 정보를 획득할 수 있다.
제 2 형상은 제 1 형상의 자세차 정보가 반영될 수 있다. 제 2 형상은 거리 정보를 통해 획득되기 때문에 자세차 정보가 반영된 형상일 수 있다. 구체적으로 제 1 형상을 통해 획득된 정보와 거리 정보를 통해 획득된 자세차 정보가 모두 제 2 형상에 반영될 수 있다.
일 실시 예에 따른 렌즈(21)는 액체 렌즈 또는 고체 렌즈를 포함할 수 있다. 렌즈(21)는 수신 광(12)을 초점을 제어할 수 있다. 렌즈(21)가 초점을 제어하는 방식은 렌즈(21)의 종류에 따라 기설정될 수 있다.
액체 렌즈는 액체, 플레이트 및 전극을 포함할 수 있다. 액체는 전도성 액체 및 비전도성 액체를 포함할 수 있고, 전극은 플레이트 위 또는 아래에 배치될 수 있다. 또한 전극은 공통 단자와 복수의 개별 단자를 포함할 수 있다. 공통 단자는 하나일 수 있으며 개별 단자는 복수개일 수 있다. 플레이트는 액체가 배치되는 캐비티를 포함하는 제 1 플레이트를 포함할 수 있고, 제 1 플레이트 위 또는 아래에 제 2 플레이트를 더 포함할 수 있다. 또한 액체렌즈는 제3 플레이트를 더 포함하여 제 2 플레이트와 제3플레이트 사이에 제 1 플레이트가 배치될 수도 있다. 공통 단자와 개별 단자 사이에 인가되는 구동 전압에 대응하여 전도성 액체 및 비전도성 액체가 형성하는 계면의 형상이 변경되어 초점거리가 변경될 수 있다. 프로세서(40)는 액체 렌즈에 구동 전압을 공급할 수 있으며, 이미지 센서가 배치되는 센서 기판에 배치될 수 있다.
도 2를 참조하면, 렌즈(21)가 애드 온(add on) 타입으로 배치될 수 있다. 애드 온 타입이란 고체 렌즈들 위에 액체 렌즈가 배치되는 구조의 타입을 나타낸다. 그러나, 본 실시 예에 한정되지 않으며, 도 3에서 후술하는 바와 같이 렌즈(21)는 애드 인(add in) 타입으로 배치될 수도 있다. 애드 인 타입이란 고체 렌즈들 사이에 액체 렌즈가 배치되는 타입을 나타낸다.
일 실시 예에 따른 프로세서(40)는 제 2 형상과 저장부에 저장된 기준 형상을 비교할 수 있다. 제 2 형상은 기준 형상에 대응되는 형상으로 모델링된 형상일 수 있다. 예를 들면, 객체(1)가 손인 경우, 제 2 형상은 평면에서 손가락을 모두 펼친 모양으로 모델링되어 기준 형상과 비교될 수 있다. 또한, 프로세서(40)는 비교 결과에 기초하여 인증을 수행할 수 있다. 구체적으로 프로세서(40)는 객체(1)의 혈관(예: 정맥)의 형상을 저장부에 저장된 형상과 비교하여 인증을 수행할 수 있다.
일 실시 예에 따른 프로세서(40)는 객체(1)의 혈관(예: 정맥)의 형상이 저장부에 기저장된 형상에 대응되는 경우, 잠금 상태를 해제할 수 있다.
일 실시 예에 따른 프로세서(40)는 수신 광(12)의 파워가 포화된 경우, 적외선 광을 출력하는 광원(30)을 제어하여 적외선 광의 파워를 감소시킬 수 있다. 또는, 일 실시 예에 따른 프로세서(40)는 수신 광(12)의 파워가 포화된 경우, 수신 광(12)의 시간당 수신 양을 감소시키거나, 센서(22)의 수신 광(12)에 대한 노출 시간을 감소시킬 수 있다. 프로세서(40)는 수신 광(12)의 파워가 포화된 경우, 수신 광(12)의 파워가 포화되지 않도록 광원(30)이나 센서(22)를 제어할 수 있다.
카메라 모듈(10)에 조리개나 셔터가 포함된 경우, 프로세서(40)는 수신 광(12)의 파워가 포화된 경우, 조리개나 셔터를 제어하여 수신 광(12)의 시간당 수신 양을 감소시키거나, 센서(22)의 수신 광(12)에 대한 노출 시간을 감소시킬 수 있다
일 실시 예에 따른 프로세서(40)는 센서(22)로부터 객체(1)까지의 거리가 기설정값 이하인 경우, 렌즈(21)(예: 액체 렌즈)를 제어하여 화각을 증가시킬 수 있다.
일 실시 예에 따른 거리 정보는 센서(22)로부터 객체(1)까지의 거리를 나타내는 정보를 포함하고, 렌즈(21)(예: 액체 렌즈)는 거리 정보에 따라 오토 포커싱을 수행할 수 있다.
이하에서는 순서에 따른 카메라 모듈의 동작을 설명한다.
제 1 단계에서 일 실시 예에 따른 광원(30)은 객체(1)로 출력 광(11)을 출력할 수 있다. 제 2 단계에서 일 실시 예에 따른 센싱 장치(20)는 객체(1)로부터 출력 광(11)이 반사되어 획득되는 수신 광(12)의 세기 정보 및 객체(1)에 대한 거리 정보를 획득할 수 있다. 제 3 단계에서, 일 실시 예에 따른 센싱 장치(20)는 세기 정보를 이용해서 객체(1)의 혈관의 형상과 두께 정보를 획득할 수 있다. 예를 들면, 센싱 장치(20)는 세기 정보를 이용해서 혈관의 3차원 모양을 획득할 수 있다. 이 경우, 센싱 장치(20)는 기설정된 알고리즘을 이용해서 세기 정보를 이용해서 혈관의 3차원 형상을 획득할 수 있다.
제 4 단계에서, 일 실시 예에 따른 센싱 장치(20)는 거리 정보를 이용하여 객체(1)의 형상을 획득할 수 있다. 예를 들면, 센싱 장치(20)는 손 모양, 또는 손 형상을 결정할 수 있다.
제 5 단계에서, 일 실시 예에 따른 센싱 장치(20)는 혈관의 형상과 두께 정보 및 객체(1)의 형상을 이용하여 객체(1)의 형상에 따른 혈관의 형상을 획득할 수 있다. 센싱 장치(20)는 손 모양에 따른 혈관 모양을 결정할 수 있다. 혈관의 형상은 현재 손 모양에 대응하는 형상일 수도 있고, 기준 모양에 대응하도록 모델링된 형상일 수도 있다.
도 3은 렌즈(21)를 내부에 포함하는 센싱 장치(20)가 광원(30)과 연동하여 동작하는 일 예를 나타내는 개념도이다.
도 3을 참조하면, 렌즈(21)는 애드 인(add in) 타입으로 배치될 수 있다. 구체적으로 렌즈(21)는 센싱 장치(20)의 내부에 포함될 수 있다. 렌즈(21)는 센싱 장치(20)에 포함된 다른 렌즈와 연동하여 동작할 수 있으며, 수신 광(12)의 센서(22)에대한 초점을 제어할 수 있다.
도 4는 센싱 장치(20)가 IR 패스 필터(23)를 포함하는 경우를 나타내는 개념도이다.
일 실시 예에 따른 광원(30)은 출력 광(11)을 출력할 수 있다. 출력 광(11)은 광원(30)에서 출력되는 광으로서, 기설정된 범위 내의 파장일 수 있다.
광원(30)은, 예를 들어, 적외선 파장을 갖는 광을 출력할 수 있으며, 도 4에서는 광원(30)이 적외선 광을 출력하는 경우의 실시 예에 대해 개시한다.
센서(22)는 센서(22)로 유입되는 여러 광 중 광원(30)에서 출력된 출력 광(11)이 객체(1)에 반사되어 획득되는 수신 광(12)을 선별적으로 획득할 수 있다. 예를 들면, 광원(30)이 750nm~950nm 범위의 출력 광을 출력하는 경우, 센서(22)는 필터링을 통해 750nm~950nm 범위의 광을 선별적으로 획득할 수 있다. 또한, 센서(22)는 출력 광에 대응되는 수신 광을 선별적으로 획득함으로써, 객체(1)에 대한 정확한 정보를 획득할 수 있다. 이 과정에서 필터가 이용될 수 있다. 예를 들면 일 실시 예에 따라 광원(30)에서 출력되는 출력 광(11)은 적외선 광인 경우, 도 4에 도시된 바와 같이 IR 패스 필터(23)가 센서(22) 위에 배치됨으로써, 센서(22)는 적외선 광을 선별적으로 획득할 수 있다.
도 5는 센싱 장치(20)가 센서(22)와 객체(1)간의 거리에 따라 동작하는 실시 예를 설명하기 위한 도면이다.
일 실시 예에 따라 센싱 장치(20)는 센서(22)와 객체(1)간의 거리가 제 3 거리(51)의 범위 내에 있는 경우에 동작할 수 있다.
일 실시 예에 따라 센서(22)와 객체(1)간의 거리가 제 1 거리(53)에서 제 2 거리(52)로 변하는 경우, 센싱 장치(20)는 센싱 장치(20)에 포함된 액체 렌즈의 ROC(Radius of Curvature)를 감소시킬 수 있다. 구체적으로 센서(22)와 객체(1)간의 거리가 감소하는 경우, 프로세서(40)는 액체 렌즈에 대응하는 반지름 값이 감소하도록 액체 렌즈를 제어함으로써, 액체 렌즈의 곡률을 증가시킬 수 있다.
일 실시 예에 따라 센서(22)와 객체(1)간의 거리가 제 2 거리(52)에서 제 1 거리(53)로 변하는 경우, 센싱 장치(20)는 센싱 장치(20)에 포함된 액체 렌즈의 ROC를 증가시킬 수 있다. 구체적으로 센서(22)와 객체(1)간의 거리가 증가하는 경우, 프로세서(40)는 액체 렌즈에 대응하는 반지름 값이 증가하도록 액체 렌즈를 제어함으로써, 액체 렌즈 계면의 곡률을 감소 시킬 수 있다.
일 실시 예에 따른 프로세서(40)는 액체 렌즈의 ROC를 제어하기 위해 액체 렌즈에 인가되는 전류 또는 전압을 제어할 수 있다.
프로세서(40)가 액체 렌즈의 ROC를 제어하기 위해 액체 렌즈에 인가되는 전류 또는 전압을 제어하는 구체적인 방법은 액체 렌즈의 특성(에: 스펙, 회로 특성 등)에 따라 결정될 수 있다.
도 6은 일 실시 예에 따라 센싱 장치(20)에 포함되는 고체 렌즈의 일 예를 설명하는 도면이다.
일 실시 예에 따른 센싱 장치(20)에 포함되는 렌즈(21)는 고체 렌즈일 수 있다. 센싱 장치(20)는 고체 렌즈를 이용하여 수신 광(12)의 초점을 제어할 수 있다. 구체적으로 도 6을 참조하면, 고체 렌즈가 상하로 움직이면서 수신 광(12)의 초점을 제어할 수 있다. 고체 렌즈의 위치가 제어되기 위해서 자기력이 이용될 수 있다.
도 7은 일 실시 예에 따른 센싱 장치(20)가 제 2 형상을 획득하는 방법을 나타내는 흐름도이다. 구체적인 센싱 장치(20)의 동작 방식은 도 2에 개시된 내용을 참조할 수 있다.
단계 S710에서 일 실시 예에 따른 센싱 장치(20)는 객체(1)로부터 반사되는 수신 광(12)으로, 수신 광(12)의 세기 정보와 객체(1)의 거리 정보를 획득한다.
센싱 장치(20)는 센싱 장치(20)로 유입되는 여러 광 중 광원(30)에서 출력된 출력 광(11)이 객체(1)에 반사되어 획득되는 수신 광(12)을 선별하여 획득할 수 있다. 센싱 장치(20)는 센싱 장치(20)에 포함된 센서(22)를 통해, 수신 광(12)의 세기 정보를 획득할 뿐 아니라, 센싱 장치(20)와 객체(1)간의 거리를 나타내는 거리 정보도 획득할 수 있다.
단계 S720에서 일 실시 예에 따른 센싱 장치(20)는 세기 정보를 이용하여 객체(1)의 혈관의 제1 형상을 획득한다.
일 실시 예에 따른 제 1 형상은 수신 광(12)의 세기 정보를 통해 획득될 수 있다. 예를 들면, 제 1 형상은 센싱된 영역 중 수신 광(12)의 세기가 기설정 값 미만인 영역이 나타내는 형상일 수 있으나 이에 제한되지 않는다.
단계 S730에서 일 실시 예에 따른 센싱 장치(20)는 거리 정보를 이용하여 혈관의 제 1 형상의 자세차를 보정한 혈관의 제 2 형상을 획득한다.
제 1 형상은 현재 객체(1)의 자세에 따라 결정된 형상일 수 있다. 센싱 장치(20)는 거리 정보를 이용하여 객체(1)의 현재 형상 또는 자세를 결정하고, 자세차를 보정함으로써 제 2 형상을 획득할 수 있다. 예를 들면, 제 2 형상은 자세차가 보정되어 기준 모양(예: 평면에서 손가락을 모두 펼친 모양)에서의 혈관 형상을 나타낼 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
1: 객체 10: 카메라 모듈
11: 출력 광 12: 수신 광
20: 센싱 장치 21: 렌즈
22: 센서 23: IR 패스 필터
30: 광원 40: 프로세서

Claims (15)

  1. 객체로부터 반사되는 수신 광으로, 상기 수신 광의 세기 정보와 상기 객체의 거리 정보를 획득하는 센서; 및
    상기 세기 정보를 이용하여 상기 객체의 혈관의 제 1 형상을 획득하고, 상기 거리 정보를 이용하여 객체의 형상을 획득하고, 상기 객체의 형상과 상기 혈관의 상기 제 1 형상을 이용하여 상기 혈관의 제 2 형상을 획득하는 프로세서를 포함하고,
    상기 프로세서는 상기 객체의 형상과 기설정된 형상과 비교하여 객체의 기본 모양을 모델링하고, 상기 제 1 형상과 상기 객체의 기본 모양을 결합하여 상기 혈관의 제 2 형상을 결정하고,
    상기 제 2 형상은 상기 제 1 형상의 자세차 정보가 반영된 형상인 센싱 장치.
  2. 제 1 항에 있어서,
    상기 제 2 형상은 자세차 정보가 보정되어 평면에서 손가락을 모두 펼친 모양인 기준 모양에서의 혈관 영상인 센싱 장치.
  3. 삭제
  4. 삭제
  5. 제 1 항에 있어서,
    상기 프로세서는
    상기 센서에 수신되는 상기 수신 광의 파워가 포화된 경우, 상기 센서의 상기 수신 광에 대한 노출 시간을 감소시키는 센싱 장치.
  6. 제 1 항에 있어서,
    상기 제 1 형상 및/또는 상기 제 2 형상은 상기 혈관의 두께 정보를 포함하는 센싱 장치.
  7. 제 1 항에 있어서,
    상기 수신 광의 초점을 제어하는 액체 렌즈를 포함하는 센싱 장치.
  8. 제 7 항에 있어서,
    상기 센서로부터 상기 객체까지의 거리가 기설정값 이하인 경우 상기 액체 렌즈를 제어하여 화각을 증가시키는 센싱 장치.
  9. 제 7 항에 있어서,
    상기 거리 정보는 상기 센서로부터 상기 객체까지의 거리를 나타내는 정보를 포함하고,
    상기 액체 렌즈는 상기 거리 정보에 따라 오토 포커싱을 수행하는 센싱 장치.
  10. 제 1 항에 있어서,
    상기 프로세서는
    상기 제 2 형상과 저장부에 저장된 기준 형상을 비교하는 센싱 장치
  11. 객체로 적외선 광을 출력하는 광원; 및
    상기 객체로부터 반사되는 수신 광으로, 상기 객체의 혈관의 형상을 획득하는 센서 장치를 포함하고,
    상기 센서 장치는 제 1 항의 센서 장치인 카메라 모듈.
  12. 제 11 항에 있어서,
    상기 프로세서는
    상기 센서에 수신되는 상기 수신 광의 파워가 포화된 경우, 상기 광원으로부터 출력되는 상기 적외선 광의 파워를 감소시키는 카메라 모듈.
  13. 제 11 항에 있어서,
    상기 프로세서는
    상기 센서에 수신되는 상기 수신 광의 파워가 포화된 경우, 상기 광원의 시간당 광 출력 양을 감소시키는 카메라 모듈.
  14. 프로세서가 객체로부터 반사되는 수신 광으로, 상기 수신 광의 세기 정보와 상기 객체의 거리 정보를 획득하는 단계; 및
    상기 프로세서는 상기 세기 정보를 이용하여 상기 객체의 혈관의 제 1 형상을 획득하고, 상기 거리 정보를 이용하여 객체의 형상을 획득하고, 상기 객체의 형상과 상기 혈관의 상기 제 1 형상을 이용하여 상기 혈관의 제 2 형상을 획득하는 단계를 포함하고,
    상기 객체의 형상과 상기 혈관의 상기 제 1 형상을 이용하여 상기 혈관의 제 2 형상을 획득하는 단계에서 상기 프로세서는 상기 객체의 형상과 기설정된 형상과 비교하여 객체의 기본 모양을 모델링하고, 상기 제 1 형상과 상기 객체의 기본 모양을 결합하여 상기 혈관의 제 2 형상을 결정하고,
    상기 제 2 형상은 상기 제 1 형상의 자세차 정보가 반영된 형상인 센싱 방법.
  15. 제 14 항에 있어서,
    상기 제 2 형상은 자세차 정보가 보정되어 평면에서 손가락을 모두 펼친 모양인 기준 모양에서의 혈관 영상인 센싱 방법.
KR1020180068364A 2018-06-14 2018-06-14 센싱 방법 및 장치 KR102582761B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020180068364A KR102582761B1 (ko) 2018-06-14 2018-06-14 센싱 방법 및 장치
PCT/KR2019/007164 WO2019240517A1 (ko) 2018-06-14 2019-06-13 센싱 방법 및 장치
US16/973,160 US11957432B2 (en) 2018-06-14 2019-06-13 Sensing method and apparatus
CN201980039878.7A CN112312829A (zh) 2018-06-14 2019-06-13 感测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180068364A KR102582761B1 (ko) 2018-06-14 2018-06-14 센싱 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190141505A KR20190141505A (ko) 2019-12-24
KR102582761B1 true KR102582761B1 (ko) 2023-09-26

Family

ID=68843454

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180068364A KR102582761B1 (ko) 2018-06-14 2018-06-14 센싱 방법 및 장치

Country Status (4)

Country Link
US (1) US11957432B2 (ko)
KR (1) KR102582761B1 (ko)
CN (1) CN112312829A (ko)
WO (1) WO2019240517A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115516846A (zh) * 2020-03-03 2022-12-23 Lg伊诺特有限公司 测距相机设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2493366A4 (en) 2009-10-30 2013-07-03 Carestream Health Inc INTRAORAL CAMERA WITH LIQUID LENS
JP5297997B2 (ja) * 2009-12-21 2013-09-25 株式会社日立メディアエレクトロニクス 個人認証装置及び移動通信端末
KR20120119523A (ko) * 2011-04-21 2012-10-31 방부복 혈관 위치 탐지용 장치
KR102117261B1 (ko) 2013-03-05 2020-06-01 삼성전자주식회사 거리 검출 및 생체 인증 방법, 저장 매체 및 단말
KR102249824B1 (ko) 2014-02-24 2021-05-10 삼성전자주식회사 신체 정보 감지장치 및 이의 신체 정보 감지방법
KR102570637B1 (ko) 2015-08-27 2023-08-25 광주과학기술원 지정맥 인식 장치 및 지정맥 인식 방법
US10244952B2 (en) 2015-09-28 2019-04-02 Kyocera Corporation Measuring apparatus and measuring system
KR101626837B1 (ko) * 2015-12-08 2016-06-02 주식회사 나르테크놀로지 손가락 마디 및 지정맥 기반의 융합형 생체 인증 방법 및 그 장치
JP7315459B2 (ja) * 2016-12-09 2023-07-26 エルジー イノテック カンパニー リミテッド 液体レンズを含むカメラモジュール、このカメラモジュールを含む光学機器及び液体レンズ駆動方法

Also Published As

Publication number Publication date
CN112312829A (zh) 2021-02-02
US11957432B2 (en) 2024-04-16
US20210251495A1 (en) 2021-08-19
WO2019240517A1 (ko) 2019-12-19
KR20190141505A (ko) 2019-12-24

Similar Documents

Publication Publication Date Title
CN112805585A (zh) 改进的3d感测
KR102568462B1 (ko) 적어도 하나의 대상체의 위치를 결정하는 검출기
CN108333860B (zh) 控制方法、控制装置、深度相机和电子装置
US20220308232A1 (en) Tof depth measuring device and method
CN108509867B (zh) 控制方法、控制装置、深度相机和电子装置
CN112702541B (zh) 控制方法及装置、深度相机、电子装置及可读存储介质
WO2016010481A1 (en) Optoelectronic modules operable to distinguish between signals indicative of reflections from an object of interest and signals indicative of a spurious reflection
CN115280751B (zh) 多光路成像技术和用于主动深度感测技术的共享发射器
KR102237828B1 (ko) 동작 인식 장치 및 이를 이용한 동작 인식 방법
EP3171806B1 (en) A device for cutting hair
CN108227361B (zh) 控制方法、控制装置、深度相机和电子装置
US20210263136A1 (en) Method and device for outputting light
KR102582761B1 (ko) 센싱 방법 및 장치
US20130027548A1 (en) Depth perception device and system
CN110501714A (zh) 一种距离探测器及距离探测方法
CN109005326A (zh) 光电模组及其控制方法、成像装置、电子设备
CN114089348A (zh) 结构光投射器、结构光系统以及深度计算方法
KR102158114B1 (ko) 프로젝터를 제어하는 방법 및 관련 전자 기기
EP3171805B1 (en) A device for cutting hair
US20220057508A1 (en) Method and camera module for acquiring depth information
RU2020132308A (ru) Способ и система для улучшенной устойчивости к движению во время измерения местоположения
US11223816B2 (en) Multi-image projector and electronic device having multi-image projector
CN114051656A (zh) 从具有机发光二极管显示屏幕的设备投射结构光图案
KR102674227B1 (ko) 카메라 장치
KR102677248B1 (ko) 광학식 위치추적 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant