KR101608030B1 - 캡처된 3차원 엔티티의 영상을 인증하는 방법 - Google Patents
캡처된 3차원 엔티티의 영상을 인증하는 방법 Download PDFInfo
- Publication number
- KR101608030B1 KR101608030B1 KR1020157008803A KR20157008803A KR101608030B1 KR 101608030 B1 KR101608030 B1 KR 101608030B1 KR 1020157008803 A KR1020157008803 A KR 1020157008803A KR 20157008803 A KR20157008803 A KR 20157008803A KR 101608030 B1 KR101608030 B1 KR 101608030B1
- Authority
- KR
- South Korea
- Prior art keywords
- images
- entity
- optical sensor
- series
- sensor
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G06K9/00255—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G06K9/00899—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
캡처된 3차원 엔티티(X)의 영상(ic)을 인증하는 방법에 있어서, 상기 방법은 :
광센서(1)를 사용하여 상기 엔티티(X)의 영상들(ia, ib, ic, id, ie)의 일련의 영상들(S)을 생성하는 단계;
영상(ia, ib, ic, id, ie) 각각을 상기 영상이 생성되는 순간의 상기 광센서(1) 위치를 나타내는 정보(Pa, Pb, Pc, Pd, Pe)와 연관시키는 단계; 및
상기 일련의 영상들 중 두개의 영상들 간의 정합성이 있는지 여부를 판단하는 단계로서,
- 상기 두개의 영상들에 보이는 특성점들을 비교함으로써 판단되는, 상기 광센서(1)의 가현 운동(apparent movement); 및
- 상기 두개의 영상들이 생성되는 순간의 상기 광센서의 3차원 위치들을 나타내는 정보를 비교함으로써 예상되는, 상기 광센서의 실제 운동 간의 일치 여부를 확인함으로써 정합성 여부를 판단하는, 단계를 포함한다.
광센서(1)를 사용하여 상기 엔티티(X)의 영상들(ia, ib, ic, id, ie)의 일련의 영상들(S)을 생성하는 단계;
영상(ia, ib, ic, id, ie) 각각을 상기 영상이 생성되는 순간의 상기 광센서(1) 위치를 나타내는 정보(Pa, Pb, Pc, Pd, Pe)와 연관시키는 단계; 및
상기 일련의 영상들 중 두개의 영상들 간의 정합성이 있는지 여부를 판단하는 단계로서,
- 상기 두개의 영상들에 보이는 특성점들을 비교함으로써 판단되는, 상기 광센서(1)의 가현 운동(apparent movement); 및
- 상기 두개의 영상들이 생성되는 순간의 상기 광센서의 3차원 위치들을 나타내는 정보를 비교함으로써 예상되는, 상기 광센서의 실제 운동 간의 일치 여부를 확인함으로써 정합성 여부를 판단하는, 단계를 포함한다.
Description
본 발명은 3차원 엔티티의 영상을 캡처하는 방법들의 분야에 관한 것이며, 특히, 이러한 캡처된 영상이 인증되는 것을 가능하게 하는 방법들에 관한 것이다.
광센서를 사용하여 3차원 엔티티의 영상을 캡처하는 방법은 공지되어 있다. 그럼에도 불구하고, 본 출원인은, 상기 캡처된 영상이 실제로 광센서를 3차원 엔티티에 향하도록 배치함으로써 실제 촬영된 것인지 여부를 판단하기 곤란하다는 것을 발견하였다. 특허 문서 US2007/226509A1은 사람을 인증하는 방법을 개시한다.
따라서, 본 발명의 목적은 캡처된 3차원 엔티티의 영상을 인증하는 방법을 제공하는 것이며, 또한 이러한 방법을 구현하기 위한 휴대용 컴퓨터 단말기를 제공하는 것이다.
이를 위해, 첫 번째 양상에서, 본 발명은 캡처된 3차원 엔티티의 영상을 인증하는 방법을 제공하며, 상기 방법은 다음의 단계들을 포함한다 :
상기 일련의 영상들의 각각의 영상을 상기 영상이 생성되는 순간 3차원 공간 내의 상기 광센서의 위치를 나타내는 정보와 연관시키는 단계로서, 상기 위치는 주어진 3차원 기준 프레임으로부터 결정되는, 단계; 및
- 상기 두개의 영상들에 보이는 특성점(characteristic point)들을 비교함으로써 판단되는, 상기 광센서의 가현 운동(apparent movement); 및
- 상기 두개의 영상들이 생성되는 순간 상기 광센서의 3차원 위치들을 나타내는 정보를 비교함으로써 판단되는, 광센서의 예상되는 실제 운동(estimated real movement)(이하 '예상 실제 운동'이라 함)의 일치 여부를 확인함으로써, 상기 적어도 두 개의 영상들 간의 정합성 여부를 판단하는, 단계.
본 발명에 의해, 상기 캡처된 영상들로부터 계산된 가현 운동 및 상기 센서를 사용하여 예상된 상기 실제 운동 사이에 일치성이 발견된다면, 상기 3차원 엔티티의 일련의 영상들은 실제로 상기 광센서가 상기 실제 3차원 엔티티 주위를 움직이게 함으로써 실제로 생성된 것으로 결론지을 수 있다.
따라서, 본 발명은 캡처된 3차원 엔티티의 영상을 인증하는 수단을 제공한다.
특히, 본 발명에 의해, 상기 캡처된 영상이 상기 광센서를 3차원 물체에서 촬영된 2차원 영상 앞에서 움직이게 함으로써 얻어진 것인지 검출하는 것이 가능하다. 이러한 상황에서, 본 발명의 방법은 상기 센서의 실제 운동 및 상기 영상들에서 관찰된 상기 가현 운동 사이에 일치성이 없다는 것을 관찰할 수 있게 한다. 상기 가현 운동은 상기 광센서의 실제 운동과 다르며, 상기 운동들 간에는 상관/일치성이 없다. 이러한 어떤 상관/일치성도 없는 경우, 상기 캡처된 3차원 영상은 인증되지 않는다.
본 발명을 이해하기 위해서는, 다음이 주시되어야 한다 :
"예상되는 실제 운동(이하 '예상 실제 운동')" 이란 용어는, 상기 두개의 영상들이 캡처된 순간들 간의 상기 광센서의 운동을 의미하는데 사용되며, 상기 실제 운동은 주어진 기준 프레임에 대해 상대적인 상기 광센서의 3차원 운동을 측정함으로써 판단된다(상기 기준 프레임은 관측되는 상기 3차원 엔티티에 대해 선택적으로 고정될 수 있다); 그리고
"3차원 엔티티" 란 용어는, 평평하고 2차원인 사물(article)에 대조되고, 상기 엔티티의 평면으로의 정사영은 상기 평면에 대한 상대적 상기 3차원 엔티티의 배향 함수에 따라 변하는, 체적을 차지하는 사물을 의미하는데 사용된다.
특정 구현의 예에서, 본 발명의 상기 인증 방법은, 캡처된 상기 3차원 엔티티의 영상을 위해 인증 표시기가 생성되는 추가 단계를 포함하며, 상기 표시기는 상기 두 영상들간의 상기 광센서의 가현 운동 및 상기 두 영상들 간의 상기 광센서의 예상 실제 운동 사이에서 판단되는 일치 여부에 의존한다.
또한 두 번째 양상에서, 본 발명은 전술한 일치성을 검출하는 방법을 이용하여 개체를 식별하는 방법을 제공한다. 개체를 식별하는 방법은 다음 단계들을 포함한다 :
1) 상기 광센서가 식별될 상기 개체의 일부인 엔티티 주위를 움직이게 함으로써, 일련의 영상들을 생성하는 단계; 및
2) 매칭(match)을 찾는 단계로서,
- 상기 일련의 영상들 중 적어도 하나의 영상으로부터 취해진, 상기 개체의 물리적 특성으로부터 생성된 식별 데이터; 및
- 기존에 등록된 데이터베이스에 포함된 개체 식별 데이터로서, 기존의 식별 데이터는 적어도 하나의 개체 신분(identity)과 관련된 상기 데이터베이스에 기존에 등록된, 개체 식별 데이터 사이의 매칭을 찾는 단계; 및
3) 상기 매칭을 찾은 것에 따라, 식별될 상기 개체의 식별 표시기를 생성하는 단계.
상기 식별 방법에서, 상기 3차원 엔티티는 식별될 개체이며, 상기 개체의 일련의 영상들은, 상기 광센서가 개체의 손 또는 머리와 같은 상기 개체 일부의 주위를 움직이게 함으로써 캡처된다. 상기 일련의 영상들 중 적어도 하나의 영상은 상기 개체의 특정 물리적 특성을 나타내는 개체 식별 데이터를 판단하기 위해 사용된다. 상기 일련의 영상들 중 상기 캡처된 영상(들)이 캡처된 3차원 엔티티의 영상의 일부를 형성한다고 실제로 인증된다면, 상기 개체의 식별 데이터가 실제로 식별될 상기 개체를 나타낸다고 추론될 수 있으며, 이어서, 상기 데이터는 상기 개체를 식별하기위해 사용될 수 있다.
상기 개체를 식별하기 위해 사용되는 상기 물리적 특성들은 형상들일 수 있으며, 개체의 일부분들의 상대적 위치들(예를 들어, 입가(corners of lips), 코 끝, 콧구멍, 눈가, 귀 끝, 지문)이거나, 또는 영상 처리 결과(예를 들어, 국부 필터링(local filtering)에 대한 반응과 같은 것)일 수 있다는 것이 주시되어야 한다.
식별 데이터의 매칭을 찾기 위해, 상기 캡처된 영상으로부터 얻어진 상기 식별 데이터는 기존에 등록된 데이터베이스에 포함된 식별 데이터와 비교된다. 상기 매칭을 찾은 것의 결과에 따라 상기 개체에 대한 식별 표시기가 생성된다.
일반적으로, 상기 영상(들)으로부터 얻어진 식별 데이터와 상기 데이터베이스에 포함된 식별 데이터가 충분히 매치된다면, 상기 식별 표시기는 소정의 제 1 값을 취한다. 상기 영상들로부터 얻어진 식별 데이터와 상기 데이터베이스에 포함된 식별 데이터 사이에 충분히 매치되지 않을 때, 상기 식별 데이터는 제 1 값과 상이한 제 2 값을 취한다.
하나 이상의 영상들로부터 얻어진 식별 데이터와 데이터베이스에 등록된 식별 데이터 간을 매칭을 찾기 위한 여러 가지 방법들은 생체인식 분야의 당업자에게 자명하다. 이러한 방법들 중 일부에서, 상기 영상들로부터 얻어진 식별 데이터와 상기 데이터베이스에 포함된 개체 식별 데이터간의 유사성들의 수가 소정의 임계값보다 크다면, 충분히 매치된다고 간주될 수 있다.
반대로, 상기 유사성들의 수가 상기 소정의 임계값보다 작다면, 매칭이 불충분하다고 간주되며, 따라서 상기 식별 표시기는 상기 제 2의 값을 취한다. 상기 제 2 값은 "개체가 식별되지 않음"을 가리키는 메시지일 것이다.
세 번째 양상에서, 본 발명은 스마트폰과 같은 휴대용 컴퓨터 단말기에 관한 것이다. 상기 단말기는 본질적으로, 캡처된 3차원 엔티티의 영상을 인증하는 본 발명의 방법을 수행하도록 하고, 또한 바람직하게는, 본 발명의 상기 식별 방법을 수행하도록 하는 것을 특징으로 한다.
이를 위하여, 상기 휴대용 컴퓨터 단말기는 다음을 포함한다 :
상기 단말기는 다음을 더 포함한다 :
상기 일련의 영상들 중 다수의 영상들 각각과 상기 영상이 생성되는 순간의 상기 광센서의 3차원 위치를 나타내는 정보를 연관시키도록 구성된 수단으로서, 각각의 위치는 상기 광센서의 위치들 나타내는 상기 정보를 생성하기 위한 수단을 사용하여 판단되는, 수단; 및
- 상기 두개의 영상들에 보이는 특성점들을 비교함으로써 판단된 상기 광센서의 가현운동; 및
- 상기 두개의 영상들이 생성되는 순간의 광센서의 3차원 위치를 나타내는 정보를 비교함으로써 예상되는 상기 광센서의 실제 운동 사이에 일치 여부를 검증하도록 구성된, 수단.
상기 단말기는, 적은 비용으로 그리고 광학 및 위치 센서를 가진 일반 전화들을 사용하여, 캡처된 3차원 엔티티 영상의 인증을 수행할 수 있게 하기 때문에 특히 유익하다.
바람직하게는, 이러한 단말기는 적어도 하나의 개체의 식별 데이터를 포함한 데이터베이스를 판독하기 위해 판독 수단을 포함한다. 상기 판독 수단은 상기 데이터베이스 내의 데이터를 판독하도록 구성되며, 상기 데이터베이스는 상기 단말기의 메모리 내에 그리고/또는 단말기로부터 떨어져있는 메모리내에 저장될 수 있다.
이러한 실시예에서, 상기 단말기는 다음을 더 포함한다 :
1) 상기 일련의 영상들을 분석하고, 상기 일련의 영상들 중 적어도 하나의 영상에서 보이는 적어도 하나의 개체의 물리적 특성들로부터 식별 데이터를 생성하도록 구성된, 분석 수단;
2) 매칭을 찾기 위한 수단으로서,
- 상기 분석 수단에 의해 생성된 개체 식별 데이터; 및
- 상기 판독 수단을 사용하여 상기 데이터베이스로부터 판독된 개체 식별 데이터 간을 매칭하기 위한, 매칭 수단; 및
3) 상기 매칭에 따라, 식별될 상기 개체의 식별 표시기를 생성하기 위한 수단.
상기 구현에서, 상기 단말기는 3차원 엔티티의, 즉 식별될 상기 개체의 영상들을 캡처하도록 구성된 것 뿐만 아니라, 상기 해당 개체를 식별하기 위해 상기 인증된 캡처 내의 영상들 중 적어도 하나를 사용하도록 구성된다. 따라서 상기 광센서에 개체의 영상을 제시함으로써 얻어지는 거짓 식별을 갖게 되는 위험으로부터 안전하게 개체 식별이 이루어진다. 본 발명을 이용하면, 식별로 이어질 수 있는 것은 광센서 앞에 있는 실존하는 개체뿐이다.
본 발명의 이러한 실시예에서, 상기 단말기는, 첫번째로는 상기 일련의 영상들 중 상기 두개의 영상들 사이에서 판단된 정합성 여부에 따라, 두번째로는 상기 개체의 식별 표시기에 따라, 적어도 하나의 컴퓨터 애플리케이션의 실행을 조절하기 위한 수단 또한 포함할 수 있다.
적어도 하나의 애플리케이션의 실행을 조절하기 위한 이러한 수단은 상기 컴퓨터 단말기에 액세스하기 위한 권한을 관리하는 것과 관련될 수 있다. 따라서, 상기 식별 표시기가 제 1값을 취한다면, 상기 단말기로 또는 상기 단말기의 애플리케이션으로의 액세스는 금지된다. 반대로, 상기 식별 표시기가 제 2값을 취한다면, 상기 단말기로 또는 상기 애플리케이션으로의 액세스는 승인된다.
본 발명의 효과는 본 명세서에 해당되는 부분들에 개별적으로 명시되어 있다.
본 발명의 다른 특징들 및 장점들은, 첨부 도면을 참조하여 비-제한적 표시로 주어진 다음의 설명으로부터 명확하게 나타난다. 첨부된 도면들은 다음과 같이 도시되어 있다.
도 1은 상기 엔티티 주위로 상기 단말기의 광센서를 회전시킴으로써 3차원 엔티티의 일련의 영상들을 캡처하는 본 발명의 단말기를 도시하고;
도 2는 도 1내의 상기 단말기에 의해 캡처된 상기 일련의 영상들을 도시하고;
도 3은 캡처된 3차원 영상으로부터 얻어진 인증된 영상을 도시하고; 그리고
도 4는 본 발명의 상기 인증 및 식별 방법들을 구현하기 위해 필요한 기능적 단계들의 도표를 도시한다.
도 1은 상기 엔티티 주위로 상기 단말기의 광센서를 회전시킴으로써 3차원 엔티티의 일련의 영상들을 캡처하는 본 발명의 단말기를 도시하고;
도 2는 도 1내의 상기 단말기에 의해 캡처된 상기 일련의 영상들을 도시하고;
도 3은 캡처된 3차원 영상으로부터 얻어진 인증된 영상을 도시하고; 그리고
도 4는 본 발명의 상기 인증 및 식별 방법들을 구현하기 위해 필요한 기능적 단계들의 도표를 도시한다.
전술한 바와 같이, 본 발명은 캡처된 3차원 엔티티의 영상을 인증하는 방법에 관한 것이다. 도 1 내지 도 4 에 도시된 상기 3차원 엔티티는 본 발명의 식별 방법을 이용하여 식별될 개체의 머리이다. 상기 인증 방법은 식별하기 위한 상기 개체가 실제로 광센서(1) 앞에 존재한다는 것을 보장하는 역할을 한다.
상기 방법들을 수행하기 위해, 사용은 컴퓨터 단말기(2)로 (이 예에서는 모바일 전화기(2)로) 이루어진다. 상기 단말기는, 상기 사용자가 상기 단말기(2)와 상호작용할 수 있게 하며 상기 단말기가 상기 사용자에게 정보를 제공하도록, 인간/장치 간 인터페이스 수단을 갖는다. 구체적으로는, 상기 인터페이스 수단은 스크린, 키보드 및/또는 상기 스크린 위에 옵션으로 겹쳐질 수 있는 터치 수단을 포함한다.
또한, 상기 단말기는 프로세서 및 본 발명의 상기 방법들을 실행하도록 구성된 컴퓨터 프로그램을 저장하는 적어도 하나의 메모리를 갖는다. 상기 방법들을 실행하기 위해, 상기 프로세서는 그 자체가 상기 인간/장치 간 인터페이스 수단에 연결된다.
상기 전화기(2)는 카메라(1)와 같은 광센서(1) 및 주어진 3차원 기준 프레임(Ref)에 대한 상기 광센서의 3차원 공간 내 위치들을 나타내는 정보를 생성하기 위한 수단(CptMvt)을 가진다. 상기 3차원 기준 프레임(Ref)은, 수직축, 북쪽을 가리키는 축 및 동쪽 또는 서쪽을 가리키는 축을 가지는 지구 기준 프레임과 같은, 다양한 종류의 프레임일 수 있다. 상기 기준 프레임의 원점은 예를 들어 상기 단말기에 의해 임의적 방식으로 위치될 수 있다. 예를 들어, 상기 기준 프레임은 상기 단말기에 의해 검출된 개체 얼굴의 특성점에 중점을 둘 수 있고, 또는 일련의 이미지들(S) 중 참조번호 ia의 이미지가 캡쳐되는 순간에 발견될 상기 단말기(2)의 위치에 중점을 둘 수도 있다.
상기 광센서(1)의 3차원 공간에서의 위치들(Pa, Pb, Pc, Pd 및 Pe)을 나타내는 정보를 생성하기 위해, 상기 단말기는 내부에 포함된 센서들로부터 생산되는 데이터를 사용할 수 있으며, 상기 센서들은 상기 광센서(1)에 대해 고정된 위치들에 있다.
구체적으로는, 상기 센서(1)의 3차원 위치 정보는,
- 가속도계와 같은 하나 이상의 관성 데이터 센서(CptMvt)들; 및/또는
- 가속도 자이로(rate gyro)와 같은 적어도 하나의 회전 데이터 센서 및/또는 적어도 하나의 자유 자이로 센서(free gyro sensor); 및/또는
- 지구의 자북을 검출하기 위한 나침반을 구성하는 자기 센서(magnetic sensor)와 같은 하나 이상의 방향 센서(orientation sensor)들; 및/또는
- 지구상의 수직축에 대한 상기 광센서의 경사 각도를 판단하기위한 하나 이상의 레벨 센서들; 및/또는
- 위성들에 대해 상대적인 지오로케이션(geolocation)을 위한 시스템 및/또는 고정된 안테나들에 대한 상대적인 지오로케이션을 위한 시스템과 같은, 지오로케이션 시스템(geolocation system)의 하나 이상의 위치 센서들(location sensors)을 사용하여 생성될 수 있다.
상기 기준 프레임(Ref) 및 상기 프레임의 원점은 주로 상기 광센서의 3차원 운동을 판단하기 위해 사용되는 위치 센서(position sensor) 유형의 함수로 선택된다. 따라서, 한 예로서, 상기 기준 프레임은, 위성 지오로케이션 시스템을 구성하는 요소들에 대해 또는 전화 통신 시스템내의 릴레이 안테나들의 네트워크에 대해 상대적으로 결정될 수 있다.
상기 개체의 영상들을 캡처하기 위해 상기 인증 방법은 상기 사용자에게 상기 단말기가 상기 개체 주위에서 움직이도록 요청하는 것으로 이루어진 개시 명령을 포함할 수 있다. 상기 개체 주변으로 상기 단말기가 움직이는동안, 상기 센서(1)는 상기 개체 및 배경의 일련의 이미지들(S)을 생성한다. 상기 단말기 내에 포함된 연관 수단(association means)은 상기 일련의 영상들(S)의 각 영상들을 상기 영상이 생성되는 순간의 상기 광센서(1)의 3차원 위치를 나타내는 정보와 연관시킨다.
따라서, 도 2에 도시된 바와 같이, 상기 기준 프레임(Ref)에 대한 상기 카메라의 실제 위치들(Pa, Pb, Pc, Pd 및 Pe) 각각에 대한 데이터는 상기 일련의 영상들(S)내의 상기 영상들(ia, ib, ic, id 및 id)과 연관된다.
이러한 영상들, 위치들, 그리고 영상들과 위치들간의 연관성들은 상기 단말기의 메모리들에 저장된다.
또한, 상기 일련의 영상들 중 두개의 영상들 간의 정합성을 판단하기 위한 수단은 상기 단말기에 내장되고, 상기 단말기의 메모리들에 연결된다. 이러한 수단들은 정합성을 검출하기 위한 애플리케이션을 포함할 수 있으며, 상기 애플리케이션은 상기 단말기의 프로세서에 의해 수행되고 이하 두 운동간의 일치성이 있는지 여부를 확인하는 함수를 갖는다 :
- 일련의 영상들(S)중 적어도 두개의 영상들(ia, ic)에서 보이는 특성점들(Pt1, Pt2, Pt3, Pt4, Pt5, Pt6 및 Pt7)간을 비교함으로써 결정되는 상기 광센서(1)의 가현운동; 및
- 두개의 영상들(ia, ic)이 생성되는 순간의 상기 광센서(1)의 3차원 위치들(Pa, Pb, Pc, Pd 및 Pe)을 나타내는 정보를 비교함으로써 예상되는 상기 광센서(1)의 실제 운동.
상기 영상들(ia, ic)에서 보이는 특성점들의 일부들(Pt4, Pt5, Pt6 및 Pt7)은 상기 두개의 영상들(ia, ic) 사이의 상기 광센서(1)의 가현운동을 판단하기위해 사용된다. 이러한 특성점들은 상기 두개의 영상들(ia, ic)에서 보이는, 식별될 개체의 물리적 특성들이다.
이상적으로, 이러한 물리적 특성들은 또한 이하의 데이터들을 매칭(matching)하기 위해 사용된다 :
- 상기 개체의 물리적 특성들로부터 생성된 식별 데이터(IdX)로서, 상기 물리적 특성들은 상기 일련의 영상들(S) 중 적어도 하나의 영상(ic)으로부터 얻어진, 식별 데이터(IdX) ; 및
- 하나 이상의 개체들과 관련되며, 상기 기존에 등록된 데이터베이스에 포함된 식별 데이터(Idn).
따라서, 상기 방법들을 구현하기 위해 필요한 계산의 양은, 두 영상들 간의 상기 광센서의 움직임을 판단하고 상기 개체를 식별하기 위한 상기 개체의 공통된 물리적 특성들의 세트를 이용함으로써 감소된다.
상기 광센서의 가현운동을 판단하기 위해 사용되는, 상기 영상들에 보이는 상기 특성점들의 적어도 일부는 식별될 상기 개체의 배경에 보이는 상기 영상들(ia, ib, ic, id 및 ie)의 특성들(Pt1, Pt2, Pt3)을 포함할 수 있다는 것이 주시되어야 한다.
상기 기준 프레임(Ref)에 대한 상기 광센서의 가현운동은 적어도 두개의 영상들에 보이는 특성들의 상대적 움직임들을 관찰함으로써 결정된다.
예를 들어, 영상 분석 방법들을 이용하여, 광센서(1)의 상기 가현 운동을 고정된 기준 프레임(Ref)에 대해 상대적으로, 상기 개체의 머리에 대해 상대적으로 또는 상기 배경에 대해 상대적으로 판단하는 방법은 공지되어 있다. 따라서, 참조번호 ia의 영상 및 참조번호 ic 영상 사이에서, 상기 광센서(1)가 상기 개체를 중심으로 90도로 회전했음을 알 수 있다.
참조번호 ia의 영상 및 참조번호 ic 영상 사이에서 상기 개체를 중심으로 90도의 가현운동이 있었는지 여부를 결정하는 제 1 방법은, 상기 개체에 대한 "정사각형" 배경 특성의 상대적 움직임을 관찰하는 것이다. 따라서, 상기 정사각형이 참조번호 ia의 영상에서는 개체의 뒤에서 보인 다음 참조번호 ic의 영상에서는 상기 개체의 왼쪽에 보이며, 계속해서 상기 "삼각형" 배경과 같은 쪽에 위치하고 있기 때문에, 알고리즘은 상기 센서(1)가 실제로 상기 기준 프레임(Ref)에 대해 90도로 회전한 것으로 판단할 수 있다.
또한 다른 방법에서, 참조번호 ia 및 ic의 영상에서 서로에 대한 얼굴의 특성점들의 가현 운동들을 관찰함으로써, 상기 회전이 90도로 이루어졌는지 판단하는 것이 가능하다. 예를 들어, 참조번호 ia의 영상에서, 코(Pt6)는 왼쪽 눈(Pt5) 아래에서 보이며, 이는 상기 개체의 왼쪽 옆모습임을 의미한다. 참조번호 ic의 영상에서, 개체의 왼쪽 눈(Pt5)은 코(Pt6)를 통과하는 축의 우측에 보이며, 상기 축을 기준으로 오른쪽 눈(Pt4)과 등거리에 있다. 따라서, 참조번호 ic의 영상이 정면도이며, 그 결과 참조번호 ia 및 ic의 영상들 사이에서, 상기 개체 및 상기 기준 프레임(Ref)에 대해 상기 센서의 90도 회전이 있었음이 쉽게 추정될 수 있다. 따라서, 알고리즘은 상기 개체 얼굴의 특성점들을 분별할 수 있으며, 특성점들의 가현 상대적 운동들의 함수로 상기 개체 또는 상기 기준 프레임(Ref)에 대한 상기 센서(1)의 가현운동을 판단할 수 있다.
참조번호 ia 및 ic의 영상들과 관련된 참조번호 Pa 및 Pc의 실제 3차원 위치들로부터, 상기 광센서(1)가 실제로 참조번호 ia 및 ic의 영상들 사이에서 90도로 회전하였다는 것을 알 수 있다.
참조번호 ia 및 ic의 영상들 사이에서, 실제로 상기 엔티티(X)에 대해 상대적으로 90도의 상기 센서의 가현운동이 있고 상기 기준 프레임(Ref)에 대해 상대적으로 90도의 예상되는 실제 운동이 있다는 것은 판단될 수 있다. 따라서, 상기 가현 및 실제 운동들은 일치하며, 상기 일련의 영상들(ia, ib, ic, id 및 ie)은 실제로 인증된다.
특히 도 4에서 도시된 바와 같이, 상기 광센서(1) 및 상기 운동 센서(movement sensor)(CptMvt)를 수반하는 상기 단말기(2)는, 상기 두개의 영상들간의 예상 실제 운동이 판단될 수 있게 하는 위치 데이터 스트림(DMvt) 및 상기 일련의 영상들을 전송하는 역할을 하는 비디오 데이터 스트림(DVid)을 생성한다. 이러한 스트림들은, 각각의 이미지에 대한 타임 스탬프를 기존 프레임(Ref)에 대해 상대적인 해당 시각(viewpoint) 위치와 함께 제공하는 프로토콜을 부호화한 영상 데이터를 이용하여 분리되거나 결합될 수 있다.
상기 비디오 스트림(DVid)은 상기 일련의 영상들 중 적어도 일부 영상들 사이의 가현 운동들을 판단하는 비디오 프로세서 모듈로 전달된다. 정합성 판단 모듈(3)은 영상들 사이에서의 상기 실제 및 가현 운동들을 비교한다.
정합성이 판단되지 않을 때, 다음으로 인증 실패 메시지(MsgEch)가 발행되고, 이러한 상황하에서는 상기 개체를 식별하는 것을 시도하지 않기로 결정될 수 있다.
그와 달리, 정합성이 관찰되었다면 참조번호 Y의 값이 식별 모듈(4)로 전송된다. 이러한 상기 식별 모듈은,
- 상기 일련의 영상들(S) 중 적어도 하나의 영상으로부터 취해진, 상기 개체의 참조번호 Pt4, Pt5, Pt6 및 Pt7의 물리적 특성들로부터 생성된 상기 식별 데이터(IdX); 및
- 데이터베이스에 포함된 적어도 하나의 개체에 대한 상기 식별 데이터(Idn)를 비교하는데 적합하다.
바람직하게는, 상기 영상들에서 보이는 상기 개체의 특성들로부터 생성된 참조번호 IdX의 데이터들은 상기 비디오 프로세서 모듈(TrtVid)에 의해 생성된다는 것이 준수되어야한다.
참조번호 4의 수단에 의해, 상기 데이터베이스에 포함된 상기 식별 데이터(Idn) 및 상기 개체와 관련된 참조번호 IdX 데이터 사이에 매치(match)가 발견된다면, 참조번호 4의 수단은 상기 개체가 실제로 식별되었다는 것을 명시하는 식별 표시기(IdentX)를 생성한다. 이러한 표시기(IdentX)는, 이름 및 ID 사진과 같이 상기 개체의 고유한 특징들을 포함하는 파일과 같은 상기 개체의 식별자일 수 있다.
또한, 단말기의 추가적 모듈인 참조번호 5의 모듈은 상기 표시기(IdentX)에 의해 식별된 상기 개체가 실제로 상기 단말기의 인증된 사용자(Uti)인지 여부를 판단하기 위해 사용될 수 있다. 인증되었다면, 상기 애플리케이션(Appli)(애플리케이션 모듈(6))의 사용자는 인증된다. 그와 달리, 상기 개체가 인증된 사용자(Uti)가 아니라면, 상기 단말기를 중지하거나 차단하기위해 명령(Stp)이 발행된다. 따라서, 본 발명의 상기 식별 방법은 상기 단말기의 대기화면 애플리케이션을 차단해제하기위해 사용될 수 있다.
본 발명은 상기 설명에 한정되지 않으며, 캡쳐된 일련의 영상들 중 다수의 영상 쌍들(pairs) 간의 다수의 측정된/관찰된 실제 운동들과 다수의 가현 운동들을 비교함으로써 실행될 수 있다.
또한 본 방법은, 예를 들면 상기 정합성 판단의 결과들 간의 평균을 고려하기 위해서, 3차원 엔티티의 일련의 영상들 다수를 캡처하는 것을 포함할 수 있다.
또한, 가현 및 실제 운동들 간의 일치성 판단은 운동들 각각의 판단 오차범위를 고려함으로써 수행될 수 있다. 특히, 상기 예상 운동들은, 허용 오차 범위내, 가능한 소정의 범위에만 있다면 정확히 동일할 필요는 없다. 이러한 상황에서, 일치성은 여전히 발견되고 상기 캡처된 영상은 인증된다. 이러한 가현 및 실제 운동들 간의 비교가 상기 예상 운동들 사이의 너무 큰 차이를 보여주고, 그 차이가 상기 허용 오차범위 한계를 넘는다면, 상기 운동들 간에 일치성이 없다고 간주되고, 상기 캡처된 영상은 인증되지 않는다.
Claims (11)
- 캡처된 3차원 엔티티(X)의 영상(ic)을 인증하는 방법에 있어서,
상기 방법은 기기에 의해 구현되며,
상기 엔티티(X) 주위를 움직이는 광센서(1)를 사용하여 상기 엔티티(X)의 영상들(ia, ib, ic, id, ie)의 일련의 영상들(S)을 생성하는 단계;
상기 일련의 영상들(S) 중 각각의 영상(ia, ib, ic, id, ie)을 상기 영상이 생성되는 순간 3차원 공간내의 상기 광센서(1)의 위치를 나타내는 정보(Pa, Pb, Pc, Pd, Pe)와 연관시키는 단계로서, 상기 위치는 주어진 3차원 기준 프레임(Ref)으로부터 정해지는, 단계; 및
상기 일련의 영상들 중 두 개의 영상들 간의 정합성(consistency) 여부를 판단하는 단계로서,
- 상기 두개의 영상들에 보이는 특성점(characteristic point)들(Pt1, Pt2, Pt3, Pt4, Pt5, Pt6, Pt7)을 비교함으로써 결정되는 상기 광센서(1)의 가현 운동(apparent movement); 및
- 상기 두개의 영상이 생성되는 순간의 상기 광센서(1)의 3차원 위치들을 나타내는 정보를 비교함으로써 예상되는 상기 광센서의 실제 운동(estimated real movement) 간의 일치 여부를 확인함으로써 두 개의 영상들의 정합성 여부를 판단하는, 단계를 포함하는, 캡처된 3차원 엔티티의 영상 인증 방법. - 개체를 식별하기 위한 식별 방법으로서,
상기 식별 방법은 제 1항의 영상 인증 방법을 이용하며,
상기 광센서(1)가 식별될 상기 개체의 일부인 엔티티(X) 주위를 움직이게 함으로써 상기 일련의 영상들(S)을 생성하는 단계; 및
매칭(matching)을 찾는 단계(4)로서,
- 상기 일련의 영상들(S) 중 적어도 하나의 영상(ic)으로부터 취해진, 상기 개체의 특성점들(Pt1, Pt2, Pt3, Pt4, Pt5, Pt6, Pt7) 중 물리적 특성들(Pt4, Pt5, Pt6, Pt7)로부터 생성된 식별 데이터(Idx); 및
- 기존에 등록된 데이터베이스에 포함된 개체 식별 데이터(Idn)로서, 상기 식별 데이터(Idn)는 개체의 적어도 하나의 신분(identity)(IdentX)과 관련된 상기 데이터베이스에 기존에 등록된, 개체 식별 데이터 사이의 매칭을 찾는 단계; 및
상기 매칭을 찾은 것에 따라, 식별될 상기 개체의 식별 표시기(IdentX)를 생성하는 단계를 포함하는, 개체 식별 방법. - 제 2항에 있어서,
상기 3차원 공간내의 상기 광센서(1)의 위치들(Pa, Pb, Pc, Pd)을 나타내는 정보는,
가속도계와 같은 적어도 하나의 관성 데이터 센서(CptMvt); 또는
자이로(gyro)와 같은 적어도 하나의 회전 데이터 센서; 또는
나침반을 구성하는 자기 센서(magnetic sensor)와 같은 적어도 하나의 방향 센서(orientation sensor); 또는
수직축에 대한 상기 광센서의 경사 각도를 구하기 위한 적어도 하나의 레벨 센서; 또는
위성 지오로케이션(geolocation) 시스템과 같은 또는 고정된 안테나들에 대해 상대적인 지오로케이션을 위한, 지오로케이션 시스템의 적어도 하나의 위치 센서를 사용하여 생성되는, 개체 식별 방법. - 제 2항 또는 제 3항에 있어서,
상기 영상들 내에 보이며 두개의 영상들(ia, ic) 사이의 상기 광센서(1)의 가현 운동을 판단하기 위해 사용되는 상기 특성점들 중 적어도 일부는,
식별될 상기 개체의 물리적 특성들(Pt5, Pt6, Pt7)을 포함하고,
상기 특성들은 적어도 이러한 두개의 영상들(ia, ic)에서 볼 수 있는, 개체 식별 방법. - 제 4항에 있어서,
식별될 상기 개체의 물리적 특성들(Pt5, Pt6, Pt7)의 적어도 일부는,
상기 광센서의 가현운동을 판단하기 위해 사용되고,
- 상기 일련의 영상들(S) 중 적어도 하나의 영상(ic)으로부터 취해진 상기 개체의 물리적 특성들로부터 생성된 상기 식별 데이터(IdX); 및
- 기존에 등록된 데이터베이스에 포함된 상기 개체 식별 데이터(Idn)간의 매칭을 찾기 위해 또한 사용되는, 개체 식별 방법. - 제 2항 또는 제 3항에 있어서,
상기 영상들 내에 보이고 상기 광센서의 가현 운동을 판단하기 위해 사용되는 상기 특성점들 중 적어도 일부(Pt1, Pt2, Pt3)는,
식별될 상기 개체의 배경에 보이는 상기 영상들 내의 특성들을 포함하는, 개체 식별 방법. - 제 2항 또는 제 3항에 있어서,
상기 데이터베이스는 다수의 개체들에 대한 식별 데이터를 포함하고,
상기 기존에 등록된 식별 데이터는 상기 개체들의 각각의 신분(IdentX)과 관련된, 개체 식별 방법. - 스마트폰과 같은 휴대용 컴퓨터 단말기(2)에 있어서,
상기 단말기는 :
광센서가 개체의 적어도 일부 주위를 움직이게 함으로써 촬영된, 상기 개체의 일련의 영상들(ia, ib, ic, id, ie)을 생성하도록 구성된 광센서(1); 및
주어진 3차원 기준 프레임(Ref)으로부터 정해지는 상기 광센서(1)의 3차원 위치들(Pa, Pb, Pc, Pd, Pe)의 특성 정보(DMvt)를 생성하는 수단(CptMvt)을 포함하고,
상기 단말기는 :
상기 일련의 영상들 중 다수의 영상들의 각 영상과 상기 영상이 생성되는 순간의 상기 광센서의 3차원 위치를 나타내는 정보를 연관시키도록 구성된 수단으로서, 각각의 위치(Pa, Pb, Pc, Pd, Pe)는, 상기 광센서(1)의 위치들을 나타내는 정보를 생성하기 위한 상기 수단(CptMvt)을 사용하여 판단되는, 수단; 및
상기 일련의 영상들(S) 중 두개의 영상들(ia, ic) 사이의 정합성을 판단하기 위한 수단(3)으로서,
- 상기 두개의 영상들(ia, ic)에 보이는 특성점들(Pt5, Pt6, Pt7)을 비교함으로써 판단되는 상기 광센서의 가현운동; 및
- 상기 두개의 영상들(ia, ic)이 생성되는 순간의 상기 광센서(1)의 3차원 위치들(Pa, Pc)을 나타내는 정보를 비교함으로써 예상되는 상기 광센서의 실제 운동 간의 일치 여부를 검증하도록 구성된, 수단(3)을 더 포함하는, 단말기. - 제 8항에 있어서,
상기 단말기는 :
적어도 하나의 개체에 대한 식별 데이터(Idn)를 포함한 데이터베이스를 판독하기 위한 판독 수단;
상기 일련의 영상들(S)을 분석하고, 상기 일련의 영상들(S) 중 적어도 하나의 영상에서 보이는 적어도 하나의 개체의 물리적 특성들(Pt4, Pt5, Pt6, Pt7)로부터 식별 데이터(IdX)를 생성하도록 구성된, 분석 수단(TrtVid);
매칭을 찾기 위한 수단(4)으로서,
- 상기 분석 수단(TrtVid)에 의해 생성된 개체 식별 데이터(IdX); 및
- 상기 판독 수단을 사용하여 상기 데이터베이스로부터 판독된 개체 식별 데이터(Idn) 간을 매칭을 찾기 위한, 수단(4); 및
상기 매칭을 찾은 것에 따라, 식별될 상기 개체의 식별 표시기(IdentX)를 생성하기 위한 수단을 더 포함하는, 단말기. - 제 9항에 있어서,
첫번째로는 상기 일련의 영상들 중 상기 두개의 영상들 사이에서 판단된 상기 정합성 여부에 따라, 두 번째로는 상기 개체의 상기 식별 표시기(IdentX)에 따라, 적어도 하나의 컴퓨터 애플리케이션(6)의 실행을 조절하기 위한 수단(5)을 더 포함하는, 단말기. - 제 8항 내지 10항 중 어느 한 항에 있어서,
상기 광센서(1)의 상기 3차원 위치들을 나타내는 정보를 생성하기 위한 수단(CptMvt)은,
가속도계들과 같은 관성 데이터 센서들 또는 적어도 하나의 자이로센서 또는 나침반을 구성하는 자기 센서와 같은 적어도 하나의 방향 센서(orientation sensor); 또는 수직축에 대한 상기 광센서의 경사 각도를 판단하기 위한 적어도 하나의 레벨 센서; 또는 위성 지오로케이션 시스템과 같은 또는 상기 휴대용 컴퓨터 단말기로부터 떨어져있는 고정된 안테나들에 대한 상대적 지오로케이션과 같은, 지오로케이션 시스템(geolocation system)의 위치 센서들(location sensors)을 포함하는, 단말기.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1259962A FR2997211B1 (fr) | 2012-10-18 | 2012-10-18 | Procede d'authentification d'une capture d'image d'une entite tridimensionnelle |
FR1259962 | 2012-10-18 | ||
PCT/EP2013/071561 WO2014060441A1 (fr) | 2012-10-18 | 2013-10-15 | Procede d'authentification d'une capture d'image d'une entite tridimensionnelle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150052292A KR20150052292A (ko) | 2015-05-13 |
KR101608030B1 true KR101608030B1 (ko) | 2016-03-31 |
Family
ID=47714230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157008803A KR101608030B1 (ko) | 2012-10-18 | 2013-10-15 | 캡처된 3차원 엔티티의 영상을 인증하는 방법 |
Country Status (9)
Country | Link |
---|---|
US (1) | US9667946B2 (ko) |
EP (1) | EP2909787B1 (ko) |
JP (1) | JP5937763B2 (ko) |
KR (1) | KR101608030B1 (ko) |
CN (1) | CN104737179B (ko) |
ES (1) | ES2743732T3 (ko) |
FR (1) | FR2997211B1 (ko) |
PL (1) | PL2909787T3 (ko) |
WO (1) | WO2014060441A1 (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN105809664B (zh) * | 2014-12-31 | 2020-03-17 | 北京三星通信技术研究有限公司 | 生成三维图像的方法和装置 |
WO2019150254A1 (en) * | 2018-01-30 | 2019-08-08 | Global Id Sa | Method and device for biometric vascular recognition and/or identification |
US11715308B2 (en) * | 2018-10-10 | 2023-08-01 | Delaval Holding Ab | Animal identification using vision techniques |
SG11202104685WA (en) * | 2018-11-05 | 2021-06-29 | Nec Corp | Information processing apparatus, information processing method, and storage medium |
FR3088457B1 (fr) * | 2018-11-14 | 2020-12-04 | Surys | Procede de detection automatique de l'usurpation de visage |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003178308A (ja) * | 2001-12-11 | 2003-06-27 | Sony Corp | 演算方法及び装置、プログラム、並びに記録媒体 |
JP2004362079A (ja) * | 2003-06-02 | 2004-12-24 | Fuji Photo Film Co Ltd | 本人認証装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331799A (ja) * | 2000-03-16 | 2001-11-30 | Toshiba Corp | 画像処理装置および画像処理方法 |
JP2003178306A (ja) * | 2001-12-12 | 2003-06-27 | Toshiba Corp | 個人認証装置および個人認証方法 |
JP4899551B2 (ja) * | 2006-03-15 | 2012-03-21 | オムロン株式会社 | 認証装置、認証方法、認証プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP4422777B2 (ja) * | 2008-08-05 | 2010-02-24 | オリンパス株式会社 | 移動体姿勢検出装置 |
US8860795B2 (en) * | 2008-10-28 | 2014-10-14 | Nec Corporation | Masquerading detection system, masquerading detection method, and computer-readable storage medium |
JP5159950B2 (ja) * | 2009-05-28 | 2013-03-13 | 株式会社東芝 | 画像処理装置、方法、プログラム |
CN101923641B (zh) * | 2010-09-09 | 2012-08-08 | 北京交通大学 | 一种改进的人脸识别方法 |
-
2012
- 2012-10-18 FR FR1259962A patent/FR2997211B1/fr active Active
-
2013
- 2013-10-15 WO PCT/EP2013/071561 patent/WO2014060441A1/fr active Application Filing
- 2013-10-15 ES ES13777055T patent/ES2743732T3/es active Active
- 2013-10-15 US US14/432,986 patent/US9667946B2/en active Active
- 2013-10-15 KR KR1020157008803A patent/KR101608030B1/ko active IP Right Grant
- 2013-10-15 CN CN201380054729.0A patent/CN104737179B/zh active Active
- 2013-10-15 EP EP13777055.8A patent/EP2909787B1/fr active Active
- 2013-10-15 JP JP2015537231A patent/JP5937763B2/ja active Active
- 2013-10-15 PL PL13777055T patent/PL2909787T3/pl unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003178308A (ja) * | 2001-12-11 | 2003-06-27 | Sony Corp | 演算方法及び装置、プログラム、並びに記録媒体 |
JP2004362079A (ja) * | 2003-06-02 | 2004-12-24 | Fuji Photo Film Co Ltd | 本人認証装置 |
Also Published As
Publication number | Publication date |
---|---|
ES2743732T3 (es) | 2020-02-20 |
CN104737179B (zh) | 2019-05-14 |
EP2909787A1 (fr) | 2015-08-26 |
PL2909787T3 (pl) | 2020-01-31 |
FR2997211B1 (fr) | 2021-01-01 |
KR20150052292A (ko) | 2015-05-13 |
FR2997211A1 (fr) | 2014-04-25 |
CN104737179A (zh) | 2015-06-24 |
JP2015533432A (ja) | 2015-11-24 |
JP5937763B2 (ja) | 2016-06-22 |
EP2909787B1 (fr) | 2019-07-31 |
US20150281673A1 (en) | 2015-10-01 |
WO2014060441A1 (fr) | 2014-04-24 |
US9667946B2 (en) | 2017-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101608030B1 (ko) | 캡처된 3차원 엔티티의 영상을 인증하는 방법 | |
US10250598B2 (en) | Liveness detection method and device, and identity authentication method and device | |
CN105740778B (zh) | 一种改进的三维人脸活体检测方法及其装置 | |
CN106937532B (zh) | 用于检测真正用户的系统和方法 | |
JP6609640B2 (ja) | 電子デバイス上における環境マッピング用のフィーチャ・データの管理 | |
TW201727537A (zh) | 人臉識別系統及人臉識別方法 | |
US11244182B2 (en) | Spoof detection by estimating subject motion from captured image frames | |
US20220189110A1 (en) | System and method for adaptively constructing a three-dimensional facial model based on two or more inputs of a two-dimensional facial image | |
Angladon et al. | The toulouse vanishing points dataset | |
KR101799335B1 (ko) | 단안 카메라를 이용한 위조 얼굴 판별 시스템 및 이를 이용한 위조 얼굴 판별 방법 | |
CN107615297A (zh) | 便携式识别和数据显示装置和系统及其使用方法 | |
CN111274602B (zh) | 一种图像特征信息替换方法、装置、设备及介质 | |
KR101362597B1 (ko) | 사용자 인증기능을 갖는 이동통신단말기 및 그 사용자인증방법 | |
KR20170051392A (ko) | 라이브니스를 검증하는 모바일 장치 및 방법 | |
CN113228117B (zh) | 创作装置、创作方法和记录有创作程序的记录介质 | |
JP2022025148A (ja) | 認証装置、認証システム、認証方法及びコンピュータプログラム | |
CN114202790A (zh) | 活体人脸检测方法、装置、电子设备及存储介质 | |
CN113705428A (zh) | 活体检测方法及装置、电子设备及计算机可读存储介质 | |
US20120038750A1 (en) | Apparatus and method for displaying three-dimensional (3d) object | |
Etzold et al. | MIPos: towards mobile image positioning in mixed reality web applications based on mobile sensors | |
JP2007004536A (ja) | 被写体判別方法および顔判別装置 | |
WO2016201016A1 (en) | Liveness detection method and device, and identity authentication method and device | |
Reinhardt et al. | DETERMINATION OF DEVICE POSE USING TEXT MATCHING FROM CAPTURED IMAGES | |
JP2019204358A (ja) | 顔認証装置、顔認証方法、および、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |