KR20220016184A - Vehicle door unlocking method and device, system, vehicle, electronic device and storage medium - Google Patents

Vehicle door unlocking method and device, system, vehicle, electronic device and storage medium Download PDF

Info

Publication number
KR20220016184A
KR20220016184A KR1020217043021A KR20217043021A KR20220016184A KR 20220016184 A KR20220016184 A KR 20220016184A KR 1020217043021 A KR1020217043021 A KR 1020217043021A KR 20217043021 A KR20217043021 A KR 20217043021A KR 20220016184 A KR20220016184 A KR 20220016184A
Authority
KR
South Korea
Prior art keywords
image
depth
vehicle
target object
module
Prior art date
Application number
KR1020217043021A
Other languages
Korean (ko)
Inventor
커 리
치준 린
Original Assignee
상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드 filed Critical 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Priority to KR1020227017334A priority Critical patent/KR20220070581A/en
Publication of KR20220016184A publication Critical patent/KR20220016184A/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00309Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated with bidirectional data transmission between data carrier and locks
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00896Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys specially adapted for particular uses
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C2009/00753Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated by active electrical keys
    • G07C2009/00769Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated by active electrical keys with data transmission performed by wireless means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C2209/00Indexing scheme relating to groups G07C9/00 - G07C9/38
    • G07C2209/60Indexing scheme relating to groups G07C9/00174 - G07C9/00944
    • G07C2209/63Comprising locating means for detecting the position of the data carrier, i.e. within the vehicle or within a certain distance from the vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Lock And Its Accessories (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 차량의 도어 잠금 해제 방법 및 장치, 시스템, 차량, 전자 기기 및 기억 매체에 관한 것으로, 상기 방법은 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것(S11)과, 상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 상기 블루투스 모듈과 상기 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하는 것(S12)과, 상기 블루투스 페어링·접속의 성공에 따라 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것(S13)과, 상기 제1 이미지에 기초하여 얼굴 인식을 행하는 것(S14)과, 얼굴 인식의 성공에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것(S15)을 포함하고, 본 발명의 실시예는 저전력 소비에서의 가동, 신속한 해정 및 사용자 체험 의향상과 같은 요구를 만족시킬 수 있다.The present invention relates to a vehicle door unlocking method and apparatus, system, vehicle, electronic device and storage medium, the method comprising: searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on the vehicle (S11); In response to being able to search for the Bluetooth device of the predetermined identifier, establishing Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier (S12); Wake up and control an image acquisition module mounted on the vehicle to acquire a first image (S13), perform face recognition based on the first image (S14), and according to success of face recognition, and sending a door unlocking command and/or door opening command to one or more doors of the vehicle (S15), wherein the embodiment of the present invention meets demands such as operation at low power consumption, quick unlocking, and improvement of user experience. can satisfy

Description

차량의 도어 잠금 해제 방법 및 장치, 시스템, 차량, 전자 기기 및 기억 매체Vehicle door unlocking method and device, system, vehicle, electronic device and storage medium

본원은 2019년 7월 1일에 중국 국가지식산권국에 제출된, 출원번호가 201910586845.6이고, 발명의 명칭이 「차량의 도어 잠금 해제 방법 및 장치, 시스템, 차량, 전자 기기 및 기억 매체」인 중국 특허출원의 우선권을 주장하고, 그 모든 내용은 원용함으로써 본원에 포함된다.This application was filed with the State Intellectual Property Office of China on July 1, 2019, with an application number of 201910586845.6, and the title of the invention is "Method and apparatus, system, vehicle, electronic device and storage medium for unlocking a vehicle's door" Claims the priority of the patent application, all of which are incorporated herein by reference.

본 발명은 차량 기술에 관한 것으로, 특히 차량의 도어 잠금 해제 방법 및 장치, 시스템, 차량, 전자 기기 및 기억 매체에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to vehicle technology, and more particularly, to a method and apparatus, system, vehicle, electronic device and storage medium for unlocking a vehicle door.

얼굴 인증에 의한 차량의 해정은 스마트카에 관한 새로운 기술이다. 지금까지 얼굴을 적시에 검출할 수 있게 하기 위해서는 카메라의 온 상태를 유지할 필요가 있고, 차량에 접근하고 있는 사람이 차량 소유자인지를 적시에 판단할 수 있기 위해서는 카메라에 의해 취득된 이미지를 실시간으로 처리할 필요가 있다. 이에 의해, 신속하게 차량 소유자를 식별하여 해정할 수 있다. 그러나, 이 방법은 가동의 소비 전력이 높기 때문에, 장기간의 고소비 전력의 가동에 의한 전력 부족으로 차량이 기동할 수 없어, 차량의 정상 사용 및 사용자 체험에 영향을 미칠 가능성이 있다.Vehicle unlocking by face authentication is a new technology for smart cars. Until now, in order to be able to detect faces in a timely manner, it is necessary to keep the camera on state. Needs to be. Thereby, the vehicle owner can be identified and unlocked quickly. However, in this method, since operation power consumption is high, the vehicle cannot be started due to lack of power due to operation of high power consumption for a long period of time, which may affect normal use of the vehicle and user experience.

본 발명은 차량의 도어 잠금 해제의 기술적 수단을 제공한다.The present invention provides a technical means for unlocking a door lock of a vehicle.

본 발명의 제1 측면에 의하면,According to a first aspect of the present invention,

차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것과,Searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on a vehicle;

상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 상기 블루투스 모듈과 상기 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하는 것과,establishing Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier as the Bluetooth device of the predetermined identifier can be searched;

상기 블루투스 페어링·접속의 성공에 따라 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것과,waking up and controlling the image acquisition module mounted on the vehicle to acquire a first image of the target object according to the success of the Bluetooth pairing/connection;

상기 제1 이미지에 기초하여 얼굴 인식을 행하는 것과,performing face recognition based on the first image;

얼굴 인식의 성공에 따라, 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것을 포함하는 차량의 도어 잠금 해제 방법이 제공된다.A method of unlocking a door of a vehicle is provided, the method comprising sending a door unlocking command and/or a door open command to one or more doors of the vehicle upon success of facial recognition.

본 발명의 제2 측면에 의하면,According to a second aspect of the present invention,

차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것과,Searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on a vehicle;

상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것과,waking up and controlling an image acquisition module mounted on the vehicle to acquire a first image of a target object as the Bluetooth device of the predetermined identifier can be searched;

상기 제1 이미지에 기초하여 얼굴 인식을 행하는 것과,performing face recognition based on the first image;

얼굴 인식의 성공에 따라, 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것을 포함하는 차량의 도어 잠금 해제 방법이 제공된다.A method of unlocking a door of a vehicle is provided, the method comprising sending a door unlocking command and/or a door open command to one or more doors of the vehicle upon success of facial recognition.

본 발명의 제3 측면에 의하면,According to a third aspect of the present invention,

차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하기 위한 검색 모듈과,a search module for searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on a vehicle;

상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 상기 블루투스 모듈과 상기 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하고, 상기 블루투스 페어링·접속의 성공에 따라 목표 대상물의 제1 이미지를 취득하도록 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하거나, 또는 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하기 위한 웨이크업 모듈과,As the Bluetooth device of the predetermined identifier can be searched for, a Bluetooth pairing/connection is established between the Bluetooth module and the Bluetooth device of the predetermined identifier, and a first image of the target object is acquired according to the success of the Bluetooth pairing/connection. Control by waking up the image acquisition module mounted on the vehicle to control it, or by waking up and controlling the image acquisition module mounted on the vehicle to acquire the first image of the target object according to the ability to search for a Bluetooth device with a predetermined identifier a wake-up module for

상기 제1 이미지에 기초하여 얼굴 인식을 행하기 위한 얼굴 인식 모듈과,a face recognition module for performing face recognition based on the first image;

얼굴 인식의 성공에 따라, 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하기 위한 잠금 해제 모듈을 구비하는 차량의 도어 잠금 해제 장치가 제공된다.A door unlocking device for a vehicle is provided having an unlocking module for sending a door unlocking command and/or a door open command to one or more doors of the vehicle upon success of facial recognition.

본 발명의 제4 측면에 의하면, 메모리와, 얼굴 인식 모듈과, 이미지 취득 모듈과, 블루투스 모듈을 구비하고, 상기 얼굴 인식 모듈은 상기 메모리, 상기 이미지 취득 모듈 및 상기 블루투스 모듈에 각각 접속되고, 상기 블루투스 모듈은 소정 식별자의 블루투스 디바이스와의 블루투스 페어링·접속에 성공하는 경우, 또는 상기 소정 식별자의 블루투스 디바이스를 검색할 수 있는 경우, 상기 얼굴 인식 모듈을 웨이크업하는 마이크로 프로세서와, 상기 마이크로 프로세서에 접속되는 블루투스 센서를 구비하고, 상기 얼굴 인식 모듈에는 도어 도메인 컨트롤러에 접속하기 위한 통신 인터페이스가 추가로 설치되고, 얼굴 인식에 성공하면 상기 통신 인터페이스를 통해 상기 도어 도메인 컨트롤러에 도어 잠금 해제를 위한 제어 정보를 송신하는 차재 얼굴 인증 잠금 해제 시스템이 제공된다.According to a fourth aspect of the present invention, there is provided a memory, a face recognition module, an image acquisition module, and a Bluetooth module, wherein the face recognition module is respectively connected to the memory, the image acquisition module and the Bluetooth module, and the The Bluetooth module includes a microprocessor for waking up the face recognition module when Bluetooth pairing/connection with the Bluetooth device of a predetermined identifier is successful or when the Bluetooth device of the predetermined identifier can be searched; a communication interface for accessing the door domain controller is additionally installed in the face recognition module, and when face recognition is successful, control information for unlocking the door is transmitted to the door domain controller through the communication interface through the communication interface A transmission-mounted face authentication unlock system is provided.

본 발명의 제5 측면에 의하면, 상기 차재 얼굴 인증 잠금 해제 시스템을 포함하고, 상기 차재 얼굴 인증 잠금 해제 시스템은 상기 차량의 도어 도메인 컨트롤러에 접속되는 차량이 제공된다.According to a fifth aspect of the present invention, there is provided a vehicle comprising the vehicle-mounted face authentication unlock system, wherein the vehicle-mounted face authentication unlock system is connected to a door domain controller of the vehicle.

본 발명의 제6 측면에 의하면,According to a sixth aspect of the present invention,

프로세서와,processor and

프로세서에 의해 실행 가능한 명령을 기억하는 메모리를 포함하고,a memory for storing instructions executable by the processor;

상기 프로세서는 상기 제1 측면에 의한 방법을 실행하도록 구성되는 전자 기기가 제공된다.There is provided an electronic device, wherein the processor is configured to execute the method according to the first aspect.

본 발명의 제7 측면에 의하면,According to a seventh aspect of the present invention,

프로세서와,processor and

프로세서에 의해 실행 가능한 명령을 기억하는 메모리를 포함하고,a memory for storing instructions executable by the processor;

상기 프로세서는 상기 제2 측면에 의한 방법을 실행하도록 구성되는 전자 기기가 제공된다.There is provided an electronic device, wherein the processor is configured to execute the method according to the second aspect.

본 발명의 제8 측면에 의하면, 컴퓨터 프로그램 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체로서, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 실행되면, 상기 제1 측면에 의한 방법을 실현시키는 컴퓨터 판독 가능 기억 매체가 제공된다.According to an eighth aspect of the present invention, there is provided a computer-readable storage medium storing computer program instructions, wherein the computer-readable storage medium realizes the method according to the first aspect when the computer program instructions are executed by a processor. provided

본 발명의 제9 측면에 의하면, 컴퓨터 프로그램 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체로서, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 실행되면, 상기 제2 측면에 의한 방법을 실현시키는 컴퓨터 판독 가능 기억 매체가 제공된다.According to a ninth aspect of the present invention, there is provided a computer-readable storage medium storing computer program instructions, wherein the computer-readable storage medium realizes the method according to the second aspect when the computer program instructions are executed by a processor. provided

본 발명의 제10 측면에 의하면, 상기 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램으로서, 상기 컴퓨터 판독 가능 코드는 전자 기기에서 동작하면, 상기 전자 기기의 프로세서에서 상기 방법을 실현하기 위한 명령을 실행시키는 컴퓨터 프로그램이 제공된다.According to a tenth aspect of the present invention, a computer program including the computer readable code, the computer readable code executing instructions for realizing the method in a processor of the electronic device when the computer readable code operates in an electronic device program is provided.

본 발명의 실시예에서는 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 블루투스 모듈과 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하고, 블루투스 페어링·접속의 성공에 따라 얼굴 인식 모듈을 웨이크업하여, 목표 대상물의 제1 이미지를 취득하도록 이미지 취득 모듈을 제어함으로써, 블루투스 페어링·접속에 성공하고 나서 얼굴 인식 모듈을 웨이크업하는 방법에 의해, 얼굴 인식 모듈의 웨이크업 오류 확률을 효과적으로 낮출 수 있고, 사용자 체험을 향상시키고, 얼굴 인식 모듈의 소비 전력을 효과적으로 저감시킬 수 있다. 또한, 블루투스의 페어링·접속 방법은 초음파나 적외선 등의 단거리 센서 기술에 비해, 보안성이 높고, 긴 거리의 통신에 대응한다는 이점이 있다. 실천에 의하면, 소정 식별자의 블루투스 디바이스를 소지하고 있는 사용자가 이 거리(블루투스 페어링·접속에 성공했을 때의 사용자와 차량의 거리)를 통행해 차량에 도착하는 시간과, 차량이 얼굴 인식 모듈을 슬립 상태에서 가동 상태로 전환하도록 웨이크업하는 시간이 대략 일치하는 것을 나타내고 있다. 이에 의해, 사용자가 도어에 도착한 후, 얼굴 인식 모듈의 웨이크업을 기다리는 것이 아니라, 사용자가 도어에 도착하면 웨이크업된 얼굴 인식 모듈에 의해 얼굴 인식에 의한 해정을 즉시 행할 수 있고, 얼굴 인식 효율을 향상시키고, 사용자 체험을 개선할 수 있다. 또한, 사용자가 블루투스 페어링·접속을 느끼는 경우는 없기 때문에, 사용자 체험을 더욱 향상시킬 수 있다. 따라서, 본 발명의 실시예에서는 블루투스 페어링·접속에 성공하고 나서 얼굴 인식 모듈을 웨이크업하는 방법에 의해 얼굴 인식 모듈의 전력 절약, 사용자 체험 및 보안성 등의 각 측면의 균형을 잘 취할 수 있는 해결책을 제공하고 있다.In an embodiment of the present invention, as a Bluetooth device of a predetermined identifier can be searched for, Bluetooth pairing/connection is established between the Bluetooth module and a Bluetooth device of a predetermined identifier, and the face recognition module wakes up according to the success of Bluetooth pairing/connection. Thus, by controlling the image acquisition module to acquire the first image of the target object, the wakeup error probability of the facial recognition module can be effectively lowered by the method of waking up the face recognition module after successful Bluetooth pairing/connection, , it is possible to improve the user experience and effectively reduce the power consumption of the face recognition module. In addition, the Bluetooth pairing/connection method has advantages in that it provides high security and supports long-distance communication compared to short-range sensor technologies such as ultrasonic waves and infrared rays. According to practice, the time it takes for a user who has a Bluetooth device with a predetermined identifier to arrive at the vehicle through this distance (the distance between the user and the vehicle when Bluetooth pairing/connection is successful), and the vehicle sleeps the face recognition module It is shown that the time to wake up to transition from the state to the active state is approximately coincident. Accordingly, instead of waiting for the wakeup of the face recognition module after the user arrives at the door, when the user arrives at the door, unlocking by face recognition can be immediately performed by the wakeup face recognition module, and face recognition efficiency is improved. and improve the user experience. In addition, since the user does not feel Bluetooth pairing/connection, the user experience can be further improved. Therefore, in the embodiment of the present invention, the method of waking up the face recognition module after successful Bluetooth pairing/connection is a solution that can balance each aspect such as power saving, user experience and security of the face recognition module is providing

또한, 상술한 개략적인 설명 및 다음의 상세한 설명은 예시적 및 해석적인 것에 불과하고, 본 발명을 한정하는 것은 아니다.In addition, the above schematic description and the following detailed description are illustrative and interpretative only, and do not limit the present invention.

이하, 도면을 참조하면서 예시적인 실시예를 상세하게 설명함으로써, 본 발명의 다른 특징 및 측면은 명료해진다.BRIEF DESCRIPTION OF THE DRAWINGS Other features and aspects of the present invention will become apparent by describing exemplary embodiments in detail below with reference to the drawings.

여기서, 본 명세서의 일부로서 포함되는 도면은 본 발명의 실시예에 바람직하고, 명세서와 함께 본 발명의 기술적 해결 수단의 설명에 사용된다.
도 1은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법의 흐름도를 나타낸다.
도 2는 차량의 B필러의 모식도를 나타낸다.
도 3은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 차량의 도어 잠금 해제 장치의 장착 높이와 식별 가능한 신장 범위의 모식도를 나타낸다.
도 4a는 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 이미지 센서 및 심도 센서의 모식도를 나타낸다.
도 4b는 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 이미지 센서 및 심도 센서의 다른 모식도를 나타낸다.
도 5는 본 발명의 실시예에 따른 생체 검출 방법의 일례의 모식도를 나타낸다.
도 6은 본 발명의 실시예에 따른 생체 검출 방법에서의 제1 이미지 및 제2 심도맵에 기초하여 제1 이미지에서의 목표 대상물의 생체 검출 결과를 결정하는 일례의 모식도를 나타낸다.
도 7은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 심도 추정 뉴럴 네트워크의 모식도를 나타낸다.
도 8은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 관련도 검출 뉴럴 네트워크의 모식도를 나타낸다.
도 9는 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 심도맵 갱신의 예시적인 모식도를 나타낸다.
도 10은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서 주변 화소의 모식도를 나타낸다.
도 11은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서 주변 화소의 다른 모식도를 나타낸다.
도 12는 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법의 다른 흐름도를 나타낸다.
도 13은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 장치의 블록도를 나타낸다.
도 14는 본 발명의 실시예에 따른 차재 얼굴 인증 잠금 해제 시스템의 블록도를 나타낸다.
도 15는 본 발명의 실시예에 따른 차재 얼굴 인증 잠금 해제 시스템의 모식도를 나타낸다.
도 16은 본 발명의 실시예에 따른 차량의 모식도를 나타낸다.
도 17은 일 실시예에 나타내는 전자 기기(800)의 블록도이다.
Here, the drawings included as a part of the present specification are preferred for the embodiment of the present invention, and together with the specification are used for the description of the technical solution of the present invention.
1 is a flowchart illustrating a method for unlocking a door lock of a vehicle according to an embodiment of the present invention.
2 shows a schematic diagram of a B-pillar of a vehicle.
3 is a schematic diagram illustrating a mounting height of a vehicle door unlocking device and an identifiable height range in the vehicle door unlocking method according to an embodiment of the present invention.
4A is a schematic diagram of an image sensor and a depth sensor in a method for unlocking a door of a vehicle according to an embodiment of the present invention.
4B is another schematic diagram of an image sensor and a depth sensor in a method for unlocking a door of a vehicle according to an embodiment of the present invention.
5 is a schematic diagram illustrating an example of a biometric detection method according to an embodiment of the present invention.
6 is a schematic diagram illustrating an example of determining a bio-detection result of a target object in a first image based on a first image and a second depth map in the bio-detection method according to an embodiment of the present invention.
7 is a schematic diagram of a depth estimation neural network in a method for unlocking a door of a vehicle according to an embodiment of the present invention.
8 is a schematic diagram of a relevance detection neural network in a method for unlocking a vehicle door according to an embodiment of the present invention.
9 is a schematic diagram illustrating an example of updating a depth map in a method for unlocking a door of a vehicle according to an embodiment of the present invention.
10 is a schematic diagram of peripheral pixels in a method for unlocking a door of a vehicle according to an embodiment of the present invention.
11 is another schematic diagram of surrounding pixels in a method for unlocking a door of a vehicle according to an embodiment of the present invention.
12 is another flowchart of a method for unlocking a door lock of a vehicle according to an embodiment of the present invention.
13 is a block diagram of a door unlocking device for a vehicle according to an embodiment of the present invention.
14 is a block diagram of an in-vehicle face authentication unlock system according to an embodiment of the present invention.
15 is a schematic diagram of an in-vehicle face authentication unlocking system according to an embodiment of the present invention.
16 is a schematic diagram of a vehicle according to an embodiment of the present invention.
17 is a block diagram of an electronic device 800 according to an embodiment.

이하에 도면을 참조하면서 본 발명의 다양한 예시적인 실시예, 특징 및 측면을 상세하게 설명한다. 도면에서 동일한 부호가 동일하거나 또는 유사한 기능의 요소를 나타낸다. 도면에서 실시예의 다양한 측면을 나타냈지만, 특별히 언급하지 않는 한, 비례에 따라 도면을 그릴 필요가 없다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Various exemplary embodiments, features and aspects of the present invention will be described in detail below with reference to the drawings. In the drawings, the same reference numerals indicate elements having the same or similar functions. Although the drawings have shown various aspects of the embodiments, the drawings are not necessarily drawn to scale unless otherwise noted.

여기서의 용어 「예시적」이란 「예, 실시예로서 사용되는 것 또는 설명적인 것」을 의미한다. 여기서, 「예시적」으로 설명되는 어떤 실시예는 다른 실시예보다 바람직하거나 또는 우수한 것으로 이해해서는 안된다. The term "exemplary" herein means "an example, used as an embodiment, or explanatory." Here, certain embodiments described as “exemplary” should not be understood as preferred or superior to other embodiments.

본 명세서에서의 용어 「및/또는」은 단순히 관련 대상과의 연관 관계를 기술하는 것이고, 3개의 관계가 존재 가능함을 나타내고, 예를 들면, A 및/또는 B는 A만이 존재하거나, A와 B 양방이 존재하거나, B만이 존재한다는 3개의 경우를 나타내도 된다. 또한, 본 명세서에서의 용어 「하나 이상」은 복수 중 어느 하나, 또는 복수 중 적어도 2개의 임의의 조합을 나타내고, 예를 들면, A, B, C 중 하나 이상을 포함하는 것은 A, B 및 C로 이루어지는 집합에서 선택된 어느 하나 또는 복수의 요소를 포함하는 것을 나타내도 된다. The term "and/or" in the present specification simply describes a relationship with a related object, and indicates that three relationships are possible, for example, A and/or B are only A, or A and B You may show the three cases that both exist or that only B exists. In addition, the term "one or more" in the present specification indicates any one of a plurality or any combination of at least two of the plurality, for example, A, B, and C including one or more of A, B, and C It may indicate including any one or a plurality of elements selected from the set consisting of.

또한, 본 발명을 보다 효과적으로 설명하기 위해 이하의 구체적인 실시형태에서 다양한 구체적인 상세를 나타낸다. 당업자라면 본 발명은 어떤 구체적인 상세가 없어도, 동일하게 실시할 수 있음을 이해해야 한다. 일부 실시예에서는 본 발명의 취지를 강조하기 위해 당업자가 숙지하고 있는 방법, 수단, 요소 및 회로에 대해 상세한 설명을 행하지 않는다. In addition, in order to explain the present invention more effectively, various specific details are set forth in the following specific embodiments. It should be understood by those skilled in the art that the present invention may be practiced without any specific details. In some embodiments, detailed descriptions of methods, means, elements and circuits known to those skilled in the art are not set forth in order to emphasize the spirit of the present invention.

도 1은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법의 흐름도를 나타낸다. 이 차량의 도어 잠금 해제 방법은 차량의 도어 잠금 해제 장치에 의해 실행되어도 된다. 예를 들면, 이 차량의 도어 잠금 해제 방법은 차재 장치 또는 다른 처리 장치에 의해 실행할 수 있다. 예를 들면, 이 차량의 도어 잠금 해제 장치는 차량의 B필러, 하나 이상의 도어 및 하나 이상의 백미러 중 하나 이상에 장착되어도 된다. 도 2는 차량의 B필러의 모식도를 나타낸다. 예를 들면, 차량의 도어 잠금 해제 장치는 B필러의 지상으로부터의 130㎝∼160㎝에 장착되고, 그 수평 인식 거리가 30㎝∼100㎝이도록 해도 되지만, 여기서 이를 한정하지 않는다. 도 3은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 차량의 도어 잠금 해제 장치의 장착 높이와 인식 가능한 신장 범위의 모식도를 나타낸다. 도 3에 나타내는 예에서는 차량의 도어 잠금 해제 장치의 장착 높이는 160㎝이고, 인식 가능한 신장 범위는 140㎝∼190㎝이다.1 is a flowchart illustrating a method for unlocking a door lock of a vehicle according to an embodiment of the present invention. This vehicle door unlocking method may be executed by a vehicle door unlocking device. For example, the door unlocking method of this vehicle can be executed by an in-vehicle device or other processing device. For example, the door unlocking device of the vehicle may be mounted on one or more of the vehicle's B-pillar, one or more doors, and one or more rearview mirrors. 2 shows a schematic diagram of a B-pillar of a vehicle. For example, the vehicle door unlocking device may be mounted 130 cm to 160 cm from the ground of the B-pillar, and the horizontal recognition distance thereof may be 30 cm to 100 cm, but the present invention is not limited thereto. 3 is a schematic diagram illustrating a mounting height and recognizable height range of a vehicle door unlocking device in a vehicle door unlocking method according to an embodiment of the present invention. In the example shown in FIG. 3 , the mounting height of the vehicle door unlocking device is 160 cm, and the recognizable height range is 140 cm to 190 cm.

가능한 일 실시예에서는 이 차량의 도어 잠금 해제 방법은 프로세서에 의해 메모리에 기억되어 있는 컴퓨터 판독 가능 명령을 불러냄으로써 실현되도록 해도 된다.In one possible embodiment, this method of unlocking a door of the vehicle may be realized by calling a computer readable instruction stored in a memory by a processor.

도 1에 나타내는 바와 같이, 이 차량의 도어 잠금 해제 방법은 단계(S11)∼단계(S15)를 포함한다.As shown in Fig. 1, this vehicle door unlocking method includes steps S11 to S15.

단계(S11)에서, 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색한다.In step S11, a Bluetooth device of a predetermined identifier is searched for by a Bluetooth module mounted on the vehicle.

가능한 일 실현형태에서는 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것은 차량이 점화 오프 상태 또는 점화 오프이고, 또한 도어 잠금 상태에 있는 경우, 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것을 포함한다. 이 실시형태에서는 차량의 점화 오프 전에 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색할 필요가 없거나, 또는 차량의 점화 오프 전에, 또한 차량이 점화 오프 상태에 있지만 도어가 잠김 상태가 아닐 때, 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색할 필요가 없기 때문에, 소비 전력을 더욱 저감시킬 수 있다.In one possible implementation form, searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on the vehicle is performed by a Bluetooth module mounted on the vehicle when the vehicle is in an ignition-off state or ignition-off state and is in a door-locked state. Searching for Bluetooth devices. In this embodiment, there is no need to search for the Bluetooth device of a predetermined identifier by the Bluetooth module before ignition off of the vehicle, or before ignition off of the vehicle, and also when the vehicle is in the ignition off state but the door is not locked, the Bluetooth module Since there is no need to search for a Bluetooth device with a predetermined identifier, power consumption can be further reduced.

가능한 일 실현형태에서는 블루투스 모듈은 저소비 전력 블루투스(BLE, Bluetooth Low Energy) 모듈이어도 된다. 이 실현형태에서는 차량이 점화 오프 상태 또는 점화 오프 상태이고, 또한 도어 잠금 상태에 있는 경우, 블루투스 모듈은 방송 모드가 됨으로써, 일정 시간(예를 들면, 100밀리초)마다 방송 패킷을 주위에 방송해도 된다. 주위의 블루투스 디바이스가 주사 동작을 실행하고 있을 때, 블루투스 모듈에 의해 방송된 방송 패킷을 수신하면, 이 블루투스 모듈에 주사 리퀘스트를 송신한다. 이 블루투스 모듈은 주사 리퀘스트에 응답하여 이 주사 리퀘스트를 송신한 블루투스 디바이스에 주사 응답 패킷을 되돌릴 수 있다. 이 실시형태에서는 소정 식별자의 블루투스 디바이스로부터 송신되어 온 주사 리퀘스트를 수신하면, 이 소정 식별자의 블루투스 디바이스를 검색할 수 있다고 결정할 수 있다.In one possible realization, the Bluetooth module may be a Bluetooth Low Energy (BLE) module. In this realization embodiment, when the vehicle is in the ignition-off state or the ignition-off state and the door is locked, the Bluetooth module enters the broadcasting mode, so that even if it broadcasts a broadcast packet to the surroundings every predetermined period of time (for example, 100 milliseconds) do. When a surrounding Bluetooth device is executing a scanning operation, upon receiving a broadcast packet broadcast by the Bluetooth module, it transmits a scanning request to this Bluetooth module. The Bluetooth module may respond to the scan request and return a scan response packet to the Bluetooth device that sent the scan request. In this embodiment, upon receiving the scan request transmitted from the Bluetooth device of the predetermined identifier, it can be determined that the Bluetooth device of the predetermined identifier can be searched.

다른 가능한 일 실현형태에서는 차량이 점화 오프 상태 또는 점화 오프, 또한 도어 잠금 상태에 있는 경우, 블루투스 모듈은 주사 상태가 되고, 소정 식별자의 블루투스 디바이스를 주사하면, 소정 식별자의 블루투스 디바이스를 검색할 수 있다고 결정할 수 있다.In another possible realization, when the vehicle is in the ignition-off state or ignition-off state, and also in the door lock state, the Bluetooth module enters a scanning state, and when scanning a Bluetooth device of a predetermined identifier, it can search for a Bluetooth device of a predetermined identifier. can decide

가능한 일 실현형태에서는 블루투스 모듈과 얼굴 인식 모듈은 얼굴 인식 시스템에 집적되어도 된다.In one possible realization, the Bluetooth module and the face recognition module may be integrated into the face recognition system.

다른 가능한 일 실현형태에서는 블루투스 모듈은 얼굴 인식 시스템과 별체여도 된다. 즉, 블루투스 모듈은 얼굴 인식 시스템의 외부에 설치되어도 된다.In another possible realization, the Bluetooth module may be separate from the face recognition system. That is, the Bluetooth module may be installed outside the face recognition system.

본 발명의 실시예에서는 블루투스 모듈의 최대 검색 거리가 한정되지 않지만, 일례에서는 최대 검색 거리가 30m 정도여도 된다.Although the maximum search distance of the Bluetooth module is not limited in the embodiment of the present invention, in an example, the maximum search distance may be about 30 m.

본 발명의 실시예에서는 블루투스 디바이스의 식별자는 블루투스 디바이스의 일의의 식별자여도 된다. 예를 들면, 블루투스 디바이스의 식별자는 블루투스 디바이스의 ID, 명칭 또는 어드레스 등이어도 된다.In the embodiment of the present invention, the identifier of the Bluetooth device may be a unique identifier of the Bluetooth device. For example, the identifier of the Bluetooth device may be an ID, name, or address of the Bluetooth device.

본 발명의 실시예에서는 소정 식별자는 미리 블루투스의 보안 접속 기술에 의해 차량의 블루투스 모듈과 페어링하는 것에 성공한 디바이스의 식별자여도 된다.In an embodiment of the present invention, the predetermined identifier may be an identifier of a device that has succeeded in pairing with the Bluetooth module of the vehicle by the secure connection technology of Bluetooth in advance.

본 발명의 실시예에서는 소정 식별자의 블루투스 디바이스의 수는 하나 또는 복수여도 된다. 예를 들면, 블루투스 디바이스의 식별자가 블루투스 디바이스의 ID인 경우, 미리 해제 권한을 갖는 하나 이상의 블루투스 ID를 하나 또는 복수 설정해도 된다. 예를 들면, 소정 식별자의 블루투스 디바이스의 수가 1개인 경우, 이 소정 식별자의 블루투스 디바이스는 차량 소유자의 블루투스 디바이스여도 되고, 소정 식별자의 블루투스 디바이스의 수가 복수인 경우, 이 복수의 소정 식별자의 블루투스 디바이스는 차량 소유자의 블루투스 디바이스 및 차량 소유자의 가족, 친구, 미리 등록된 연락자의 블루투스 디바이스를 포함해도 된다. 여기서, 미리 등록된 연락자는 미리 등록된 배달원이나 부동산 관리 회사의 스탭 등이어도 된다.In the embodiment of the present invention, the number of Bluetooth devices with a predetermined identifier may be one or plural. For example, when the identifier of the Bluetooth device is the ID of the Bluetooth device, one or more Bluetooth IDs having release authority may be set in advance. For example, when the number of Bluetooth devices of a predetermined identifier is one, the Bluetooth devices of the predetermined identifier may be the Bluetooth devices of the vehicle owner. When the number of Bluetooth devices of a predetermined identifier is plural, the Bluetooth devices of the plurality of predetermined identifiers are It may include the Bluetooth device of the vehicle owner and the Bluetooth device of the vehicle owner's family, friends, and pre-registered contacts. Here, the pre-registered contact person may be a pre-registered delivery man or a staff of a real estate management company.

본 발명의 실시예에서는 블루투스 디바이스는 블루투스 기능을 갖는 임의의 모바일 디바이스여도 된다. 예를 들면, 블루투스 디바이스는 휴대 전화, 웨어러블 디바이스, 전자 키 등이어도 된다. 여기서, 웨어러블 디바이스는 스마트 팔찌 또는 스마트 안경 등이어도 된다.In the embodiment of the present invention, the Bluetooth device may be any mobile device having a Bluetooth function. For example, the Bluetooth device may be a mobile phone, a wearable device, an electronic key, or the like. Here, the wearable device may be a smart bracelet or smart glasses.

단계(S12)에서, 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 블루투스 모듈과 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립한다.In step S12, as the Bluetooth device of the predetermined identifier can be searched, Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier is established.

가능한 일 실현형태에서는 소정 식별자의 블루투스 디바이스의 수가 복수인 경우, 소정 식별자의 블루투스 디바이스 중 어느 하나를 검색할 수 있음에 따라, 블루투스 모듈과 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립한다.In one possible implementation mode, when the number of Bluetooth devices of a predetermined identifier is plural, any one of the Bluetooth devices of a predetermined identifier can be searched for, thereby establishing Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier.

가능한 일 실현형태에서는 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 블루투스 모듈은 당해 소정 식별자의 블루투스 디바이스의 아이덴티티 인증을 행하고, 아이덴티티 인증을 통과한 후, 블루투스 모듈과 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립함으로써, 블루투스 페어링·접속의 보안성을 향상시킬 수 있다.In one possible implementation mode, as the Bluetooth device of the predetermined identifier can be searched for, the Bluetooth module performs identity authentication of the Bluetooth device of the predetermined identifier, and after passing the identity authentication, the Bluetooth module and the Bluetooth device of the Bluetooth device of the predetermined identifier By establishing pairing/connection, the security of Bluetooth pairing/connection can be improved.

단계(S13)에서, 블루투스 페어링·접속의 성공에 따라 목표 대상물의 제1 이미지를 취득하도록 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어한다.In step S13, the image acquisition module mounted on the vehicle is woken up and controlled so as to acquire the first image of the target object according to the success of Bluetooth pairing/connection.

가능한 일 실현형태에서는 목표 대상물의 제1 이미지를 취득하도록 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것은 차량에 탑재되는 얼굴 인식 모듈을 웨이크업하는 것과, 웨이크업된 얼굴 인식 모듈에 의해 목표 대상물의 제1 이미지를 취득하도록 이미지 취득 모듈을 제어하는 것을 포함한다.In one possible implementation form, waking up and controlling the image acquisition module mounted on the vehicle to acquire the first image of the target object includes waking up the facial recognition module mounted on the vehicle, and the target by the wakeup facial recognition module and controlling the image acquisition module to acquire a first image of the object.

본 발명의 실시예에서는 소정 식별자의 블루투스 디바이스를 검색할 수 있는 경우, 소정 식별자의 블루투스 디바이스를 소지하고 있는 사용자(예를 들면, 차량 소유자)가 블루투스 모듈의 검색 범위 내에 들어갈 가능성은 높은 것을 나타내고 있다. 이 때, 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 블루투스 모듈과 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하고, 블루투스 페어링·접속의 성공에 따라, 얼굴 인식 모듈을 웨이크업하여 목표 대상물의 제1 이미지를 취득하도록 이미지 취득 모듈을 제어함으로써, 블루투스 페어링·접속에 성공하고 나서 얼굴 인식 모듈을 웨이크업하는 방법에 의해 얼굴 인식 모듈의 웨이크업 오류 확률을 효과적으로 낮출 수 있고, 사용자 체험을 향상시키고, 얼굴 인식 모듈의 소비 전력을 효과적으로 저감시킬 수 있다. 또한, 블루투스의 페어링·접속 방법은 초음파나 적외선 등의 단거리 센서 기술에 비해, 보안성이 높고, 긴 거리의 통신에 대응한다는 이점이 있다. 실천에 의하면, 소정 식별자의 블루투스 디바이스를 소지하고 있는 사용자가 이 거리(블루투스 페어링·접속에 성공했을 때의 사용자와 차량의 거리)를 통행해 차량에 도착하는 시간과, 차량이 얼굴 인식 모듈을 슬립 상태에서 가동 상태로 전환하도록 웨이크업하는 시간이 대략 일치하는 것을 나타내고 있다. 이에 의해, 사용자가 도어에 도착한 후, 얼굴 인식 모듈의 웨이크업을 기다리는 것이 아니라, 사용자가 도어에 도착하면 웨이크업된 얼굴 인식 모듈에 의해 얼굴 인식에 의한 해정을 즉시 행할 수 있기 때문에, 얼굴 인식의 효율성을 향상시키고, 사용자 체험을 개선시킬 수 있다. 또한, 블루투스 페어링·접속을 사용자에게 느끼게 하지 않고, 사용자 체험을 더욱 향상시킬 수 있다. 따라서, 본 발명의 실시예에서는 블루투스 페어링·접속에 성공하고 나서 얼굴 인식 모듈을 웨이크업하는 방법에 의해, 얼굴 인식 모듈의 전력 절약, 사용자 체험 및 보안성 등의 각 측면의 균형이 잘 취해지는 해결책을 제공한다.In the embodiment of the present invention, when a Bluetooth device of a predetermined identifier can be searched for, it indicates that a user (eg, a vehicle owner) possessing a Bluetooth device of a predetermined identifier is highly likely to enter the search range of the Bluetooth module. . At this time, as the Bluetooth device of the predetermined identifier can be searched, Bluetooth pairing/connection is established between the Bluetooth module and the Bluetooth device of the predetermined identifier, and according to the success of the Bluetooth pairing/connection, the face recognition module is woken up to the target By controlling the image acquisition module to acquire the first image of the object, the wakeup error probability of the facial recognition module can be effectively lowered by a method of waking up the facial recognition module after Bluetooth pairing/connection is successful, and the user experience can be improved. improved, and the power consumption of the face recognition module can be effectively reduced. In addition, the Bluetooth pairing/connection method has advantages in that it provides high security and supports long-distance communication compared to short-range sensor technologies such as ultrasonic waves and infrared rays. According to practice, the time it takes for a user who has a Bluetooth device with a predetermined identifier to arrive at the vehicle through this distance (the distance between the user and the vehicle when Bluetooth pairing/connection is successful), and the vehicle sleeps the face recognition module It is shown that the time to wake up to transition from the state to the active state is approximately coincident. Thereby, instead of waiting for the wakeup of the face recognition module after the user arrives at the door, when the user arrives at the door, unlocking by face recognition can be immediately performed by the wakeup face recognition module. It can improve efficiency and improve user experience. In addition, the user experience can be further improved without making the user feel Bluetooth pairing/connection. Therefore, in the embodiment of the present invention, by the method of waking up the face recognition module after successful Bluetooth pairing/connection, each aspect such as power saving, user experience and security of the face recognition module is well balanced. provides

가능한 일 실현형태에서는 이 방법은 차량에 탑재되는 얼굴 인식 모듈을 웨이크업한 후, 미리 설정된 시간 내에 얼굴 이미지를 취득할 수 없는 경우, 얼굴 인식 모듈이 슬립 상태가 되도록 제어하는 것을 추가로 포함한다. 이 실시형태는 얼굴 인식 모듈을 웨이크업하고 나서 미리 설정된 시간 내에 얼굴 이미지를 취득할 수 없을 때, 얼굴 인식 모듈이 슬립 상태가 되도록 제어함으로써 소비 전력을 저감시킬 수 있다.In one possible realization, the method further includes controlling the facial recognition module to enter a sleep state when the facial image cannot be acquired within a preset time after waking up the vehicle-mounted facial recognition module. This embodiment can reduce power consumption by controlling the face recognition module to enter a sleep state when a face image cannot be acquired within a preset time after waking up the face recognition module.

가능한 일 실현형태에서는 이 방법은 차량에 탑재되는 얼굴 인식 모듈을 웨이크업한 후, 미리 설정된 시간 내에 얼굴 인식에 성공하지 못한 경우, 얼굴 인식 모듈이 슬립 상태가 되도록 제어하는 것을 추가로 포함한다. 이 실현형태는 얼굴 인식 모듈을 웨이크업하고 나서 미리 설정된 시간 내에 얼굴 인식에 성공하지 못했을 때, 얼굴 인식 모듈이 슬립 상태가 되도록 제어함으로써 소비 전력을 저감시킬 수 있다.In one possible realization, the method further includes controlling the facial recognition module to enter a sleep state when the face recognition module is not successfully recognized within a preset time after waking up the vehicle-mounted face recognition module. This realization can reduce power consumption by controlling the face recognition module to enter a sleep state when face recognition is not successful within a preset time after waking up the face recognition module.

단계(S14)에서, 제1 이미지에 기초하여 얼굴 인식을 행한다.In step S14, face recognition is performed based on the first image.

가능한 일 실현형태에서는 얼굴 인식은 생체 검출 및 얼굴 인증을 포함하고, 제1 이미지에 기초하여 얼굴 인식을 행하는 것은 이미지 취득 모듈의 이미지 센서에 의해 제1 이미지를 취득하고, 제1 이미지 및 미리 등록된 얼굴 특징에 기초하여 얼굴 인증을 행하는 것과, 이미지 취득 모듈의 심도 센서에 의해 제1 이미지에 대응하는 제1 심도맵을 취득하고, 제1 이미지 및 제1 심도맵에 기초하여 생체 검출을 행하는 것을 포함한다.In one possible realization, the face recognition includes biometric detection and face authentication, and performing face recognition based on the first image is to acquire a first image by an image sensor of an image acquisition module, the first image and the pre-registered performing face authentication based on facial features, acquiring a first depth map corresponding to the first image by a depth sensor of an image acquisition module, and performing biometric detection based on the first image and the first depth map do.

본 발명의 실시예에서는 제1 이미지에는 목표 대상물을 포함한다. 여기서, 목표 대상물은 얼굴 또는 인체의 적어도 일부여도 되지만, 본 발명의 실시예는 이를 한정하지 않는다.In an embodiment of the present invention, the first image includes a target object. Here, the target object may be a face or at least a part of the human body, but the embodiment of the present invention is not limited thereto.

여기서, 제1 이미지는 정적 이미지 또는 비디오 프레임의 이미지여도 된다. 예를 들면, 비디오 시퀀스에서 선택된 이미지를 제1 이미지로 하고, 다양한 방법으로 비디오 시퀀스에서 이미지를 선택할 수 있다. 일 구체예에서는 제1 이미지는 비디오 시퀀스에서 선택된 소정의 품질 조건을 만족하는 이미지이다. 여기서, 소정의 품질 조건에는 목표 대상물을 포함하는지 여부, 목표 대상물이 이미지의 중심 영역에 위치하는지 여부, 목표 대상물이 완전히 이미지에 포함되는지 여부, 목표 대상물이 이미지에서 차지하는 비율, 목표 대상물의 상태(예를 들면, 얼굴 각도), 이미지의 선명도, 이미지의 노출도 등의 하나 또는 임의의 조합을 포함해도 되지만, 본 발명의 실시예는 이를 한정하지 않는다.Here, the first image may be a static image or an image of a video frame. For example, an image selected from the video sequence may be a first image, and the image may be selected from the video sequence in various ways. In one embodiment, the first image is an image that satisfies a predetermined quality condition selected from a video sequence. Here, the predetermined quality conditions include whether the target object is included, whether the target object is located in the central region of the image, whether the target object is completely included in the image, the ratio of the target object to the image, and the state of the target object (eg For example, face angle), sharpness of an image, and exposure of an image may include one or any combination thereof, but embodiments of the present invention are not limited thereto.

일례에서는 생체 검출을 행하고 나서 얼굴 인증을 행하도록 해도 된다. 예를 들면, 목표 대상물이 생체임을 나타내는 목표 대상물의 생체 검출 결과인 경우, 얼굴 인증 흐름이 트리거된다. 한편, 목표 대상물이 비생체임을 나타내는 목표 대상물의 생체 검출 결과인 경우, 얼굴 인증 흐름이 트리거되지 않는다.In one example, face authentication may be performed after biometric detection. For example, when the biometric detection result of the target object indicating that the target object is a living body, the face authentication flow is triggered. On the other hand, when the biometric detection result of the target object indicating that the target object is non-living, the face authentication flow is not triggered.

다른 일례에서는, 얼굴 인증을 행하고 나서 생체 검출을 행하도록 해도 된다. 예를 들면, 얼굴 인증에 성공하는 경우, 생체 검출 흐름이 트리거되고, 얼굴 인증에 실패하는 경우, 생체 검출 흐름이 트리거되지 않는다.In another example, biometric detection may be performed after face authentication. For example, if the face authentication succeeds, the biometric detection flow is triggered, and if the face authentication fails, the biometric detection flow is not triggered.

다른 일례에서는 생체 검출과 얼굴 인증을 동시에 행하도록 해도 된다.In another example, biometric detection and face authentication may be performed simultaneously.

이 실현형태에서는 생체 검출은 목표 대상물이 생체인지 여부를 검증하기 위한 것이고, 예를 들면, 목표 대상물이 인체인지 여부를 검증할 수 있다. 얼굴 인증은 취득된 이미지에서의 얼굴 특징을 추출하고, 취득된 이미지에서의 얼굴 특징을 미리 등록된 얼굴 특징과 조합하여, 동일한 사람의 얼굴 특징인지 여부를 판단하기 위한 것이고, 예를 들면, 취득된 이미지에서의 얼굴 특징이 차량 소유자의 얼굴 특징인지 여부를 판정할 수 있다.In this embodiment, the biometric detection is for verifying whether the target object is a living body, for example, it can verify whether the target object is a human body. Facial authentication is for extracting facial features from an acquired image and combining the facial features from the acquired image with pre-registered facial features to determine whether they are facial features of the same person, for example, It may be determined whether a facial feature in the image is a facial feature of a vehicle owner.

본 발명의 실시예에서는 심도 센서란 심도 정보를 취득하기 위한 센서를 가리킨다. 본 발명의 실시예는 심도 센서의 동작 원리 및 동작 파장역을 한정하지 않는다.In an embodiment of the present invention, the depth sensor refers to a sensor for acquiring depth information. Embodiments of the present invention do not limit the operating principle and operating wavelength range of the depth sensor.

본 발명의 실시예에서는 이미지 취득 모듈의 이미지 센서와 심도 센서는 별체여도 되고, 일체여도 된다. 예를 들면, 이미지 센서가 RGB(Red, 적색; Green, 녹색; Blue, 청색) 센서 또는 적외선 센서를 사용함과 함께, 심도 센서가 양안 적외선 센서 또는 TOF(Time off Flight, 비행 시간) 센서를 사용하도록 별체여도 되고, 이미지 취득 모듈이 RGBD(Red, 적색; Green, 녹색; Blue, 청색; Deep, 심도) 센서를 사용하여 이미지 센서와 심도 센서의 기능을 실현하도록 일체로 해도 된다.In an embodiment of the present invention, the image sensor and the depth sensor of the image acquisition module may be separate or integrated. For example, so that the image sensor uses an RGB (Red, Red; Green, Green; Blue, Blue) sensor or an infrared sensor, while the depth sensor uses a binocular infrared sensor or a Time off Flight (TOF) sensor. They may be separate, or the image acquisition module may be integrated so as to realize the functions of the image sensor and the depth sensor by using an RGBD (Red, Red; Green, Green; Blue, Blue; Deep, depth) sensor.

일례로서, 이미지 센서는 RGB 센서이다. 이미지 센서가 RGB 센서인 경우, 이미지 센서에 의해 취득된 이미지는 RGB 이미지이다.As an example, the image sensor is an RGB sensor. When the image sensor is an RGB sensor, the image acquired by the image sensor is an RGB image.

다른 일례로서, 이미지 센서는 적외선 센서이다. 이미지 센서가 적외선 센서인 경우, 이미지 센서에 의해 취득된 이미지는 적외선 이미지이다. 적외선 이미지는 스팟이 있는 이미지여도 되고, 스팟이 없는 이미지여도 된다.As another example, the image sensor is an infrared sensor. When the image sensor is an infrared sensor, the image acquired by the image sensor is an infrared image. The infrared image may be an image with spots or an image without spots.

다른 예에서는 이미지 센서는 다른 종별의 센서여도 되지만, 본 발명의 실시예는 이를 한정하지 않는다.In another example, the image sensor may be a different type of sensor, but the embodiment of the present invention is not limited thereto.

선택 가능적으로, 차량의 도어 잠금 해제 장치는 다양한 방법으로 제1 이미지를 취득할 수 있다. 예를 들면, 일부 실시예에서는 차량의 도어 잠금 해제 장치에 카메라가 설치되어 있고, 차량의 도어 잠금 해제 장치는 카메라에 의해 정적 이미지 또는 비디오 스트림을 취득하여 제1 이미지를 얻는다. 본 발명의 실시예는 이를 한정하지 않는다.Optionally, the door unlocking device of the vehicle may acquire the first image in various ways. For example, in some embodiments, a camera is installed in a door unlocking device of a vehicle, and the vehicle door unlocking device acquires a static image or a video stream by means of the camera to obtain a first image. Embodiments of the present invention do not limit this.

일례로서, 심도 센서는 3차원 센서이다. 예를 들면, 심도 센서는 2개의 적외선 카메라를 포함하는 양안 적외선 센서, 비행 시간 TOF 센서 또는 구조화 광 센서이다. 구조화 광 센서는 코드화 구조화 광 센서 또는 스펙클 구조화 광 센서여도 된다. 심도 센서에 의해 목표 대상물의 심도맵을 취득함으로써, 고정밀도의 심도맵을 취득할 수 있다. 본 발명의 실시예는 목표 대상물을 포함하는 심도맵을 사용하여 생체 검출을 행함으로써, 목표 대상물의 심도 정보를 충분히 알아낼 수 있고, 생체 검출의 정확성을 높일 수 있다. 본 발명의 실시예에서는 예를 들면, 목표 대상물이 얼굴인 경우, 얼굴을 포함하는 심도맵을 사용하여 생체 검출을 행함으로써, 얼굴 데이터의 심도 정보를 충분히 알아낼 수 있고, 생체 얼굴 검출의 정확성을 높일 수 있다.As an example, the depth sensor is a three-dimensional sensor. For example, the depth sensor is a binocular infrared sensor comprising two infrared cameras, a time-of-flight TOF sensor or a structured light sensor. The structured light sensor may be a coded structured light sensor or a speckle structured light sensor. By acquiring the depth map of the target object with the depth sensor, it is possible to acquire a high-precision depth map. According to the embodiment of the present invention, by performing biometric detection using a depth map including the target object, depth information of the target object can be sufficiently obtained and the accuracy of biometric detection can be increased. In the embodiment of the present invention, for example, when the target object is a face, by performing biometric detection using a depth map including the face, depth information of face data can be sufficiently found, and the accuracy of biometric face detection can be improved. can

일례에서는 TOF 센서는 적외선 파장역에 기초하는 TOF 모듈을 사용한다. 이 예에서는 적외선 파장역에 기초하는 TOF 모듈을 사용함으로써, 외부의 광선에 의한 심도맵의 촬영에 대한 영향을 저감시킬 수 있다.In one example, the TOF sensor uses a TOF module based on the infrared wavelength range. In this example, by using the TOF module based on the infrared wavelength range, it is possible to reduce the influence of external light on the imaging of the depth map.

본 발명의 실시예에서는 제1 심도맵과 제1 이미지는 대응하는 것이다. 예를 들면, 제1 심도맵 및 제1 이미지는 각각 심도 센서 및 이미지 센서에 의해 동일한 장면에 대해 취득되는 것이거나, 또는 심도 센서 및 이미지 센서에 의해 동일한 시각에 동일한 목표 영역에 대해 취득되는 것이지만, 본 발명의 실시예는 이를 한정하지 않는다.In the embodiment of the present invention, the first depth map and the first image correspond to each other. For example, the first depth map and the first image are acquired for the same scene by the depth sensor and the image sensor, respectively, or are acquired for the same target area at the same time by the depth sensor and the image sensor, Embodiments of the present invention do not limit this.

도 4a는 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 이미지 센서 및 심도 센서의 모식도를 나타낸다. 도 4a에 나타내는 예에서는 이미지 센서는 RGB 센서이고, 이미지 센서의 카메라는 RGB 카메라이고, 심도 센서는 양안 적외선 센서이고, 이미지 센서의 RGB 카메라의 양측에 설치되는 2개의 적외선(IR) 카메라를 포함한다. 2개의 적외선 카메라는 양안 시차의 원리에 기초하여 심도 정보를 취득한다.4A is a schematic diagram of an image sensor and a depth sensor in a method for unlocking a door of a vehicle according to an embodiment of the present invention. In the example shown in FIG. 4A, the image sensor is an RGB sensor, the camera of the image sensor is an RGB camera, the depth sensor is a binocular infrared sensor, and two infrared (IR) cameras installed on both sides of the RGB camera of the image sensor are included. . Two infrared cameras acquire depth information based on the principle of binocular disparity.

일례에서는 이미지 취득 모듈은 양안 적외선 센서의 적외선 카메라와 이미지 센서의 카메라 사이에 설치되고, 이미지 센서용 보광 라이트 및 심도 센서용 보광 라이트 중 하나 이상을 포함하는 하나 이상의 보광 라이트를 추가로 포함한다. 예를 들면, 이미지 센서가 RGB 센서인 경우, 이미지 센서용 보광 라이트는 화이트 라이트이고, 이미지 센서가 적외선 센서인 경우, 이미지 센서용 보광 라이트는 적외선 라이트이고, 심도 센서가 양안 적외선 센서인 경우, 심도 센서용 보광 라이트는 적외선 라이트이도록 해도 된다. 도 4a에 나타내는 예에서는 양안 적외선 센서의 적외선 카메라와 이미지 센서의 카메라 사이에 적외선 라이트가 설치되어 있다. 예를 들면, 적외선 라이트는 940㎚의 적외선을 사용하도록 해도 된다.In one example, the image acquisition module is installed between the infrared camera of the binocular infrared sensor and the camera of the image sensor, and further includes one or more beaming lights including at least one of a beaming light for an image sensor and a beaming light for a depth sensor. For example, when the image sensor is an RGB sensor, the beam light for the image sensor is a white light, when the image sensor is an infrared sensor, the beam light for the image sensor is an infrared light, and when the depth sensor is a binocular infrared sensor, the depth of field The light beam for sensors may be an infrared light. In the example shown in FIG. 4A, an infrared light is provided between the infrared camera of a binocular infrared sensor and the camera of an image sensor. For example, you may make it use infrared rays of 940 nm as an infrared light.

일례에서는 보광 라이트는 노멀 오픈 모드로 해도 된다. 이 예에서는 이미지 취득 모듈의 카메라가 동작 상태에 있는 경우, 보광 라이트는 온 상태에 있다.In one example, the light beam light may be in the normally open mode. In this example, when the camera of the image acquisition module is in the operating state, the beam light is in the on state.

다른 일례에서는, 광선이 부족한 경우에 보광 라이트를 온으로 해도 된다. 예를 들면, 환경광 센서에 의해 환경광 강도를 취득하고, 환경광 강도가 광 강도 임계치보다 낮은 경우에 광선이 부족하다고 판정하고, 보광 라이트를 온으로 해도 된다.In another example, when the light beam is insufficient, the light beam light may be turned on. For example, the ambient light intensity may be acquired by the ambient light sensor, and when the ambient light intensity is lower than the light intensity threshold, it may be determined that the light beam is insufficient, and the auxiliary light may be turned on.

도 4b는 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 이미지 센서 및 심도 센서의 다른 모식도를 나타낸다. 도 4b에 나타내는 예에서는 이미지 센서는 RGB 센서이고, 이미지 센서의 카메라는 RGB 카메라이고, 심도 센서는 TOF 센서이다.4B is another schematic diagram of an image sensor and a depth sensor in a method for unlocking a door of a vehicle according to an embodiment of the present invention. In the example shown in FIG. 4B , the image sensor is an RGB sensor, the camera of the image sensor is an RGB camera, and the depth sensor is a TOF sensor.

일례에서는 이미지 취득 모듈은 심도 센서의 카메라와 이미지 센서의 카메라 사이에 설치되는 레이저를 추가로 포함한다. 예를 들면, 레이저가 TOF 센서의 카메라와 RGB 센서의 카메라 사이에 설치된다. 예를 들면, 레이저는 VCSEL(Vertical Cavity Surface Emitting Laser, 수직 공진기면 발광 레이저)이고, TOF 센서는 VCSEL에서 발한 레이저 광에 의해 심도맵을 취득하도록 해도 된다.In one example, the image acquisition module further includes a laser installed between the camera of the depth sensor and the camera of the image sensor. For example, a laser is installed between the camera of the TOF sensor and the camera of the RGB sensor. For example, the laser may be a VCSEL (Vertical Cavity Surface Emitting Laser), and the TOF sensor may acquire a depth map by laser light emitted from the VCSEL.

본 발명의 실시예에서는 심도 센서는 심도맵을 취득하기 위한 것이고, 이미지 센서는 2차원 이미지를 취득하기 위한 것이다. RGB 센서 및 적외선 센서를 예로 하여 이미지 센서를 설명하고, 양안 적외선 센서, TOF 센서 및 구조화 광 센서를 예로서 심도 센서를 설명했지만, 당업자라면 본 발명의 실시예에서는 이를 한정하지 않는 것으로 이해할 수 있다. 당업자이면 실제 적용 요구에 따라 이미지 센서 및 심도 센서의 종류를 선택할 수 있고, 2차원 이미지 및 심도맵의 취득을 각각 실현할 수 있는 것이면 된다.In an embodiment of the present invention, the depth sensor is for acquiring a depth map, and the image sensor is for acquiring a two-dimensional image. Although the image sensor is described by taking the RGB sensor and the infrared sensor as examples, and the depth sensor is described by using the binocular infrared sensor, the TOF sensor, and the structured light sensor as examples, it can be understood by those skilled in the art that the embodiment of the present invention is not limited thereto. Those skilled in the art can select the types of the image sensor and depth sensor according to the actual application requirements, and it is sufficient if it can realize the acquisition of a two-dimensional image and a depth map, respectively.

단계(S15)에서, 얼굴 인식의 성공에 따라 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령이 송신된다.In step S15, a door unlock command and/or a door open command are transmitted to one or more doors of the vehicle according to the success of face recognition.

본 발명의 실시예의 도어는 출입을 위한 도어(예를 들면, 좌측 프론트 도어, 우측 프론트 도어, 좌측 리어 도어, 우측 리어 도어)를 포함해도 되고, 차량의 트렁크 도어 등을 포함해도 된다. 이에 따라, 상기 하나 이상의 도어 잠금은 좌측 프론트 도어 잠금, 우측 프론트 도어 잠금, 좌측 리어 도어 잠금, 우측 리어 도어 잠금 및 트렁크 도어 잠금 등의 하나 이상을 포함해도 된다.The door of the embodiment of the present invention may include a door for entry and exit (eg, a left front door, a right front door, a left rear door, a right rear door), or may include a trunk door of a vehicle. Accordingly, the one or more door locks may include one or more of a left front door lock, a right front door lock, a left rear door lock, a right rear door lock, and a trunk door lock.

가능한 일 실현형태에서는 얼굴 인식의 성공에 따라 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것은 얼굴 인식의 성공에 따라 상기 차량의 하나 이상의 도어의 상태 정보를 취득하는 것과, 상기 도어의 상태 정보가 잠금 미해제인 경우, 상기 도어에 도어 잠금 해제 명령 및 도어 개방 명령을 송신하는 것과, 상기 도어의 상태 정보가 잠금 해제가 완료되고, 또한 도어가 미개방인 경우, 상기 도어에 도어 개방 명령을 송신하는 것을 포함한다.In one possible realization, sending a door unlock command and/or a door open command to one or more doors of the vehicle according to the success of facial recognition comprises: obtaining status information of one or more doors of the vehicle according to the success of facial recognition; , when the status information of the door is unlocked, sending a door unlocking command and a door open command to the door; and sending a door open command to the door.

가능한 일 실현형태에서는 얼굴 인식의 성공에 따라 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것은 얼굴 인식의 성공에 따라 목표 대상물에 해정 권한이 부여되는 도어를 결정하는 것과, 목표 대상물에 해정 권한이 부여되는 도어에 따라 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것을 포함한다. 예를 들면, 목표 대상물에 해정 권한이 부여되는 도어는 모든 도어여도 되고, 트렁크 도어여도 된다.In one possible implementation, sending a door unlock command and/or a door open command to one or more doors of the vehicle upon success of face recognition comprises determining which door is authorized to unlock on a target upon success of face recognition; , sending a door unlocking command and/or a door opening command to one or more doors of the vehicle according to the door to which the target object is granted unlocking authority. For example, all doors may be sufficient as the door to which unlocking authority is given to a target object, and a trunk door may be sufficient as it.

예를 들면, 차량 소유자나 차량 소유자의 가족, 친구가 해정 권한을 갖는 도어는 모든 도어이고, 배달원이나 부동산 관리 회사의 스탭이 해정 권한을 갖는 도어는 트렁크 도어이도록 해도 된다. 여기서, 차량 소유자는 타인에게 해정 권한을 갖는 도어의 정보를 설정해도 된다. 또한, 예를 들면, 배차 서비스의 장면에서는 승객이 해정 권한을 갖는 도어는 운전석 이외의 도어 및 트렁크 도어이도록 해도 된다. 목표 대상물에 해정 권한이 부여되는 도어가 트렁크 도어인 경우, 트렁크 도어 잠금에 도어 잠금 해제 명령을 송신할 수 있다.For example, the door to which the vehicle owner or the vehicle owner's family and friends have unlocking authority may be all doors, and the door to which the delivery person or the staff of the real estate management company has unlocking authority may be a trunk door. Here, the vehicle owner may set the door information having unlocking authority to another person. In addition, for example, in the scene of a vehicle dispatch service, the doors to which the passenger has unlocking authority may be doors other than the driver's seat and trunk doors. When the door to which the target object is granted the unlocking authority is a trunk door, a door unlocking command may be transmitted to the trunk door lock.

일례에서는 목표 대상물에 해정 권한이 부여되는 도어가 트렁크 도어 밖에 포함되지 않는 경우, 트렁크 도어 잠금에 도어 잠금 해제 명령을 송신하고 나서 소정 시간 후에 도어 폐쇄 명령을 송신할 수 있다. 예를 들면, 소정 시간은 3분간으로 해도 된다. 예를 들면, 배달원이 해정 권한을 갖는 도어가 트렁크 도어밖에 포함하지 않는 경우, 트렁크 도어 잠금에 도어 잠금 해제 명령을 송신하고 나서 3분 후에 도어 폐쇄 명령을 송신함으로써, 트렁크에 짐을 넣는다는 배달원의 요구에 부응할 뿐만 아니라 차량의 보안성을 높일 수 있다.In one example, when the door to which the unlocking authority is granted to the target object is included in only the trunk door, the door closing command may be transmitted after a predetermined time after transmitting the door unlocking command to the trunk door lock. For example, the predetermined time may be 3 minutes. For example, if the door for which the delivery person has the right to unlock includes only the trunk door, the delivery person's request to put the luggage in the trunk by sending the door closing command 3 minutes after sending the door unlock command to the trunk door lock It can not only respond to this, but also increase the security of the vehicle.

가능한 일 실현형태에서는 목표 대상물에 해정 권한이 부여되는 도어를 결정하는 것 외에, 상기 목표 대상물에 해정 권한이 부여되는 시간, 상기 목표 대상물이 대응하는 해정 권한의 횟수 등을 결정해도 된다.In one possible implementation mode, in addition to determining the door to which the unlocking authority is granted to the target object, the time period for which the unlocking authority is granted to the target object, the number of times of the unlocking authority corresponding to the target object, etc. may be determined.

예를 들면, 목표 대상물에 해정 권한이 부여되는 시간은 모든 기간으로 해도 되고, 소정 기간으로 해도 된다. 예를 들면, 차량 소유자나 차량 소유자의 가족이 해정 권한을 갖는 시간은 모든 기간이도록 해도 된다. 차량 소유자는 타인에게 해정 권한을 갖는 시간을 설정해도 된다. 예를 들면, 차량 소유자는 차량을 친구에게 빌려주는 장면에서는 친구가 해정 권한을 갖는 시간을 2일간으로 설정해도 된다. 또한, 예를 들면, 차량 소유자는 배달원으로부터 연락을 받은 후, 배달원이 해정 권한을 갖는 시간을 2019년 9월 29일 13:00∼14:00로 설정해도 된다. 또한, 예를 들면, 렌터카의 장면에서는 고객이 차량을 3일간 대여하는 경우, 렌터카 스탭은 이 고객이 해정 권한을 갖는 시간을 3일간으로 설정해도 된다. 또한, 예를 들면, 배차 서비스의 장면에서는 승객이 해정 권한을 갖는 시간을 여행 주문서에 기재되는 서비스 기간으로 해도 된다.For example, the time period for which the unlocking authority is granted to the target object may be any period or a predetermined period. For example, the time period during which the vehicle owner or the vehicle owner's family has the right to release may be any period. The vehicle owner may set a time for which another person has the right to unlock. For example, in a scene in which the vehicle owner lends the vehicle to a friend, the time during which the friend has the unlocking authority may be set to 2 days. Also, for example, the vehicle owner may set the time for the delivery person to have the unlocking authority from 13:00 to 14:00 on September 29, 2019 after receiving a call from the delivery person. In addition, for example, in the case of a rental car scene, when a customer rents a vehicle for 3 days, the rental car staff may set the time for which the customer has the unlocking authority to 3 days. In addition, for example, in the scene of the dispatch service, the time for which the passenger has the unlocking authority may be the service period described in the travel order form.

예를 들면, 목표 대상물의 대응하는 해정 권한의 횟수는, 무한 횟수 또는 유한 횟수로 해도 된다. 예를 들면, 차량 소유자나 차량 소유자의 가족, 친구의 대응하는 해정 권한의 횟수는 무한 횟수로 해도 된다. 또한, 예를 들면, 배달원의 대응하는 해정 권한의 횟수는 유한 횟수, 예를 들면, 1회로 해도 된다.For example, the number of times of the unlock authority corresponding to the target object may be an infinite number of times or a finite number of times. For example, the number of corresponding unlocking rights of the vehicle owner or the vehicle owner's family and friends may be infinite. Further, for example, the number of times of the corresponding unlocking authority of the delivery person may be a finite number of times, for example, once.

일례로는 차량의 도어 잠금 해제 장치의 SoC는 도어 도메인 컨트롤러에 도어 잠금 해제 명령을 송신하여 도어를 해정하도록 제어할 수 있다.For example, the SoC of the vehicle's door unlocking device may control the door to be unlocked by sending a door unlocking command to the door domain controller.

가능한 일 실현형태에서는 제1 이미지 및 제1 심도맵에 기초하여 생체 검출을 행하는 것은 제1 이미지에 기초하여 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것과, 제1 이미지 및 제2 심도맵에 기초하여 목표 대상물의 생체 검출 결과를 결정하는 것을 포함한다.In one possible realization, performing the biometric detection based on the first image and the first depth map includes updating the first depth map based on the first image to obtain a second depth map, and the first image and the second depth map and determining a biometric detection result of the target object based on the .

구체적으로는 제1 이미지에 기초하여, 제1 심도맵에서의 하나 또는 복수의 화소의 심도값을 갱신하여 제2 심도맵을 얻는다.Specifically, the second depth map is obtained by updating the depth values of one or a plurality of pixels in the first depth map based on the first image.

일부 실시예에서는 제1 이미지에 기초하여 제1 심도맵에서의 심도 실효 화소의 심도값을 갱신하여 제2 심도맵을 얻는다.In some embodiments, a second depth map is obtained by updating a depth value of an effective depth pixel in the first depth map based on the first image.

여기서, 심도맵에 있어서의 심도 실효 화소란, 심도맵에 포함되고, 무효인 심도값을 갖는 화소, 즉 정확하지 않은 심도값 또는 현실적으로 분명하지 않은 심도값을 갖는 화소를 가리켜도 된다. 심도 무효 화소의 수는 하나 또는 복수여도 된다. 심도맵에서의 하나 이상의 심도 실효 화소의 심도값을 갱신함으로써, 심도 실효 화소의 심도값이 보다 정확해지고, 생체 검출의 정확률의 향상에 기여한다.Here, the effective depth pixel in the depth map may refer to a pixel included in the depth map and having an invalid depth value, that is, a pixel having an inaccurate depth value or a depth value that is not clear in reality. The number of depth invalid pixels may be one or plural. By updating the depth values of one or more effective depth pixels in the depth map, the depth values of the effective depth pixels become more accurate, contributing to the improvement of the accuracy of biometric detection.

일부 실시예에서는 제1 심도맵은 결손값이 있는 심도맵이고, 제1 이미지에 기초하여 제1 심도맵을 수복함으로써 제2 심도맵을 얻는다. 여기서, 선택 가능적으로, 제1 심도맵의 수복에는 결손 화소의 심도값의 결정 또는 보완을 포함하지만, 본 발명의 실시예는 이에 한정되지 않는다.In some embodiments, the first depth map is a depth map with missing values, and a second depth map is obtained by repairing the first depth map based on the first image. Here, optionally, the restoration of the first depth map includes determining or supplementing the depth value of the missing pixel, but the embodiment of the present invention is not limited thereto.

본 발명의 실시예에서는 다양한 방식으로 제1 심도맵을 갱신 또는 수복할 수 있다. 일부 실시예에서는 제1 이미지를 직접 사용하여 생체 검출을 행하고, 예를 들면, 제1 이미지를 직접 사용하여 제1 심도맵을 갱신한다. 다른 일부 실시예에서는 제1 이미지를 전처리하고, 전처리 후의 제1 이미지에 기초하여 생체 검출을 행한다. 예를 들면, 제1 이미지에서 목표 대상물의 이미지를 취득하고, 목표 대상물의 이미지에 기초하여 제1 심도맵을 갱신한다.In an embodiment of the present invention, the first depth map may be updated or restored in various ways. In some embodiments, biometric detection is performed using the first image directly, for example, the first depth map is updated using the first image directly. In some other embodiments, the first image is pre-processed, and biometric detection is performed based on the first image after the pre-processing. For example, an image of the target object is acquired from the first image, and the first depth map is updated based on the image of the target object.

다양한 방법으로 제1 이미지에서 목표 대상물의 이미지를 잘라낼 수 있다. 일례로서, 제1 이미지에 대해 목표 검출을 행하여 목표 대상물의 위치 정보, 예를 들면, 목표 대상물의 경계 박스(bouding box)의 위치 정보를 얻고, 목표 대상물의 위치 정보에 기초하여 제1 이미지에서 목표 대상물의 이미지를 잘라낸다. 예를 들면, 제1 이미지에서 목표 대상물의 경계 박스가 소재하는 영역의 이미지를 목표 대상물의 이미지로서 잘라낸다. 또한, 예를 들면, 목표 대상물의 경계 박스를 일정한 배수로 확대하고, 제1 이미지로부터 확대된 경계 박스가 소재하는 영역의 이미지를 목표 대상물의 이미지로서 잘라낸다. 다른 예로서, 제1 이미지에서의 목표 대상물의 키 포인트의 정보를 취득하고, 목표 대상물의 키 포인트의 정보에 기초하여 제1 이미지에서 목표 대상물의 이미지를 취득한다.The image of the target object may be cut out from the first image in various ways. As an example, target detection is performed on the first image to obtain position information of the target object, for example, position information of a bounding box of the target object, and based on the position information of the target object, the target in the first image Crop the image of the object. For example, an image of a region in which a bounding box of the target object is located in the first image is cut out as an image of the target object. Further, for example, the bounding box of the target object is enlarged by a constant multiple, and an image of a region in which the enlarged bounding box is located is cut out as an image of the target object from the first image. As another example, information of a key point of the target object in the first image is acquired, and an image of the target object is acquired in the first image based on the information of the key point of the target object.

선택 가능적으로, 제1 이미지에 대해 목표 검출을 행하여 목표 대상물이 소재하는 영역의 위치 정보를 얻고, 목표 대상물이 소재하는 영역의 이미지에 대해 키포인트 검출을 행하여 제1 이미지에서의 목표 대상물의 키포인트의 정보를 얻는다.Optionally, target detection is performed on the first image to obtain position information of an area in which the target object is located, and keypoint detection is performed on the image of the area in which the target object is located so that the keypoint of the target object in the first image is obtained. get information

선택 가능적으로, 목표 대상물의 키포인트의 정보는 목표 대상물의 복수의 키 포인트의 위치 정보를 포함해도 된다. 목표 대상물이 얼굴인 경우, 목표 대상물의 키포인트는 눈의 키포인트, 눈썹의 키포인트, 코의 키포인트, 입의 키포인트 및 얼굴 윤곽의 키포인트 등의 하나 이상을 포함해도 된다. 여기서, 눈의 키 포인트는 눈 윤곽의 키 포인트, 눈꼬리의 키 포인트 및 눈동자의 키 포인트 등의 하나 이상을 포함해도 된다.Optionally, the information of the key points of the target object may include position information of a plurality of key points of the target object. When the target object is a face, the key points of the target object may include one or more of a key point of an eye, a key point of an eyebrow, a key point of a nose, a key point of a mouth, a key point of a face outline, and the like. Here, the key point of the eye may include one or more of a key point of an eye outline, a key point of an eye tail, and a key point of a pupil.

일례에서는, 목표 대상물의 키포인트의 정보에 기초하여 목표 대상물의 윤곽을 결정하고, 목표 대상물의 윤곽에 기초하여 제1 이미지에서 목표 대상물의 이미지를 잘라낸다. 목표 검출에 의해 얻어진 목표 대상물의 위치 정보와 비교하면, 키포인트의 정보에 의해 얻어진 목표 대상물의 위치가 보다 정확하고, 후속의 생체 검출의 정확률의 향상에 기여한다.In one example, an outline of the target object is determined based on information of key points of the target object, and an image of the target object is cut out from the first image based on the outline of the target object. Compared with the positional information of the target obtained by target detection, the position of the target obtained by the keypoint information is more accurate, contributing to the improvement of the accuracy of subsequent biometric detection.

선택 가능적으로, 제1 이미지에서의 목표 대상물의 키포인트에 기초하여 제1 이미지에서의 목표 대상물의 윤곽을 결정하고, 제1 이미지에서의 목표 대상물의 윤곽이 소재하는 영역의 이미지 또는 목표 대상물의 윤곽이 소재하는 영역이 일정 배수로 확대된 영역의 이미지를 목표 대상물의 이미지로서 결정하도록 해도 된다. 예를 들면, 제1 이미지에서 목표 대상물의 키포인트에 기초하여 결정된 타원형 영역을 목표 대상물의 이미지로 결정하거나, 또는 제1 이미지에서 목표 대상물의 키포인트에 기초하여 결정된 타원형 영역의 최소 외접 직사각형 영역을 목표 대상물의 이미지로서 결정하도록 해도 되지만, 본 발명의 실시예는 이를 한정하지 않는다.Optionally, determine a contour of the target object in the first image based on a keypoint of the target object in the first image, and an image of a region in which the contour of the target object in the first image is located or the contour of the target object An image of a region in which the region to be located is enlarged by a predetermined multiple may be determined as the image of the target object. For example, an elliptical area determined based on the keypoint of the target object in the first image is determined as the image of the target object, or the smallest circumscribed rectangular area of the elliptical area determined based on the keypoint of the target object in the first image is the target object may be determined as an image of , but the embodiment of the present invention is not limited thereto.

이와 같이, 제1 이미지에서 목표 대상물의 이미지를 취득하고, 목표 대상물의 이미지에 기초하여 생체 검출을 행함으로써, 제1 이미지에 있어서의 배경 정보에 의한 생체 검출에 대한 간섭을 저감시킬 수 있다.In this way, by acquiring the image of the target object from the first image and performing biometric detection based on the image of the target object, it is possible to reduce interference with the biometric detection by the background information in the first image.

본 발명의 실시예에서는 취득된 원래의 심도맵에 대해 갱신 처리를 행하도록 해도 된다. 혹은, 일부 실시예에서는 제1 심도맵에서 목표 대상물의 심도맵을 취득하고, 제1 이미지에 기초하여 목표 대상물의 심도맵을 갱신하여 제2 심도맵을 얻는다.In the embodiment of the present invention, update processing may be performed on the acquired original depth map. Alternatively, in some embodiments, a depth map of the target object is obtained from the first depth map, and the depth map of the target object is updated based on the first image to obtain a second depth map.

일례로서, 제1 이미지에 있어서의 목표 대상물의 위치 정보를 취득하고, 목표 대상물의 위치 정보에 기초하여 제1 심도맵에서 목표 대상물의 심도맵을 취득한다. 선택 가능적으로, 제1 심도맵 및 제1 이미지에 대해 등록 또는 위치 맞춤 처리를 미리 행해도 된다. 본 발명의 실시예는 이를 한정하지 않는다.As an example, position information of the target object in the first image is acquired, and a depth map of the target object is acquired from the first depth map based on the position information of the target object. Optionally, registration or positioning processing may be performed in advance for the first depth map and the first image. Embodiments of the present invention do not limit this.

이와 같이, 제1 심도맵에서 목표 대상물의 심도맵을 취득하고, 제1 이미지에 기초하여 목표 대상물의 심도맵을 갱신하여 제2 심도맵을 얻음으로써, 제1 심도맵에서의 배경 정보에 의한 생체 검출에 대한 간섭을 저감시킬 수 있다.In this way, by acquiring the depth map of the target object from the first depth map, updating the depth map of the target object based on the first image to obtain the second depth map, the living body based on the background information in the first depth map Interference with detection can be reduced.

일부 실시예에서는 제1 이미지 및 제1 이미지에 대응하는 제1 심도맵이 취득된 후, 이미지 센서의 파라미터 및 심도 센서 파라미터에 기초하여 제1 이미지 및 제1 심도맵의 위치 맞춤을 한다.In some embodiments, after the first image and the first depth map corresponding to the first image are acquired, the first image and the first depth map are aligned based on the parameters of the image sensor and the depth sensor parameters.

일례로서, 제1 심도맵에 대해 변환 처리를 행함으로써, 변환 처리 후의 제1 심도맵과 제1 이미지의 위치 맞춤을 해도 된다. 예를 들면, 심도 센서의 파라미터 및 이미지 센서의 파라미터에 기초하여 제1 변환 행렬을 결정하고, 제1 변환 행렬에 기초하여 제1 심도맵에 대해 변환 처리를 행하도록 해도 된다. 이에 따라, 제1 이미지의 적어도 일부에 기초하여, 변환 처리 후의 제1 심도맵의 적어도 일부를 갱신하여 제2 심도맵을 취득하도록 해도 된다. 예를 들면, 제1 이미지에 기초하여 변환 처리 후의 제1 심도맵을 갱신하여 제2 심도맵을 얻도록 해도 된다. 또한, 예를 들면, 제1 이미지에서 잘라낸 목표 대상물의 이미지에 기초하여, 제1 심도맵에서 잘라낸 목표 대상물의 심도맵을 갱신하여 제2 심도맵을 얻도록 하는 등 해도 된다.As an example, by performing the conversion process on the first depth map, the first depth map after the conversion process and the first image may be aligned. For example, the first transformation matrix may be determined based on the parameters of the depth sensor and the parameters of the image sensor, and the transformation processing may be performed on the first depth map based on the first transformation matrix. Accordingly, based on at least a part of the first image, at least a part of the first depth map after the conversion process may be updated to obtain the second depth map. For example, based on the first image, the first depth map after the conversion process may be updated to obtain the second depth map. Also, for example, based on the image of the target object cut out from the first image, the depth map of the target object cut out from the first depth map may be updated to obtain a second depth map.

다른 일례로서, 제1 이미지에 대해 변환 처리를 행함으로써, 변환 처리 후의 제1 이미지와 제1 심도맵의 위치 맞춤을 하도록 해도 된다. 예를 들면, 심도 센서의 파라미터 및 이미지 센서의 파라미터에 기초하여 제2 변환 행렬을 결정하고, 제2 변환 행렬에 기초하여 제1 이미지에 대해 변환 처리를 행하도록 해도 된다. 이에 따라, 변환 처리 후의 제1 이미지의 적어도 일부에 기초하여, 제1 심도맵의 적어도 일부를 갱신하여 제2 심도맵을 얻도록 해도 된다.As another example, by performing the conversion process on the first image, the first image after the conversion process and the first depth map may be aligned. For example, the second transformation matrix may be determined based on the parameters of the depth sensor and the parameters of the image sensor, and the transformation processing may be performed on the first image based on the second transformation matrix. Accordingly, based on at least a part of the first image after the conversion process, at least a part of the first depth map may be updated to obtain the second depth map.

선택 가능적으로, 심도 센서의 파라미터는 심도 센서의 내부 파라미터 및/또는 외부 파라미터를 포함해도 되고, 이미지 센서의 파라미터는 이미지 센서의 내부 파라미터 및/또는 외부 파라미터를 포함해도 된다. 제1 심도맵과 제1 이미지의 위치 맞춤을 함으로써, 제1 심도맵과 제1 이미지의 대응 부분의, 제1 심도맵과 제1 이미지에서의 위치가 동일하도록 할 수 있다.Optionally, the parameters of the depth sensor may include internal parameters and/or external parameters of the depth sensor, and the parameters of the image sensor may include internal parameters and/or external parameters of the image sensor. By aligning the positions of the first depth map and the first image, the positions of the corresponding portions of the first depth map and the first image in the first depth map and the first image may be the same.

상술한 예에서는 제1 이미지는 원래의 이미지(예를 들면, RGB 또는 적외선 이미지)이지만, 다른 일부 실시예에서는 제1 이미지는 원래의 이미지에서 잘라낸 목표 대상물의 이미지여도 된다. 유사하게, 제1 심도맵은 원래의 심도맵에서 잘라낸 목표 대상물의 심도맵이어도 된다. 본 발명의 실시예는 이들을 한정하지 않는다.In the above examples, the first image is an original image (eg, an RGB or infrared image), but in some other embodiments, the first image may be an image of a target object cut out from the original image. Similarly, the first depth map may be a depth map of the target object cut out from the original depth map. Examples of the present invention do not limit these.

도 5는 본 발명의 실시예에 따른 생체 검출 방법의 일례의 모식도를 나타낸다. 도 5에 나타내는 예에서는 제1 이미지가 RGB 이미지이고, 또한 목표 대상물이 얼굴이고, RGB 이미지와 제1 심도맵에 대해 위치 맞춤·보정 처리를 행하고, 처리 후의 이미지를 얼굴 키포인트 모델에 입력하여 처리하고, RGB 얼굴 이미지(목표 대상물의 이미지) 및 심도 얼굴 이미지(목표 대상물의 심도맵)를 얻고, RGB 얼굴 이미지에 기초하여 심도 얼굴 이미지를 갱신 또는 수복한다. 이에 의해, 후속 데이터 처리량을 저감시키고, 생체 검출 효율 및 정확률을 높일 수 있다.5 is a schematic diagram illustrating an example of a biometric detection method according to an embodiment of the present invention. In the example shown in Fig. 5, the first image is an RGB image, and the target object is a face, and alignment/correction processing is performed on the RGB image and the first depth map, and the processed image is input to the face keypoint model and processed. , obtain an RGB face image (image of the target object) and a depth face image (depth map of the target object), and update or repair the depth face image based on the RGB face image. Thereby, the amount of subsequent data processing can be reduced, and biometric detection efficiency and accuracy can be increased.

본 발명의 실시예에서는 목표 대상물의 생체 검출 결과는 목표 대상물이 생체임을 나타내거나, 또는 목표 대상물이 비생체임을 나타내도록 해도 된다.In an embodiment of the present invention, the biodetection result of the target object may indicate that the target object is a living body or that the target object is a non-living object.

일부 실시예에서는 제1 이미지 및 제2 심도맵을 생체 검출 뉴럴 네트워크에 입력하여 처리하고, 제1 이미지에서의 목표 대상물의 생체 검출 결과를 얻는다. 또는, 다른 생체 검출 알고리즘에 의해 제1 이미지 및 제2 심도맵을 처리하여 생체 검출 결과를 얻는다.In some embodiments, the first image and the second depth map are input to the biodetection neural network and processed, and a biometric detection result of the target object in the first image is obtained. Alternatively, the biometric detection result is obtained by processing the first image and the second depth map by another biometric detection algorithm.

일부 실시예에서는 제1 이미지에 대해 특징 추출 처리를 행하여 제1 특징 정보를 얻고, 제2 심도맵에 대해 특징 추출 처리를 행하여 제2 특징 정보를 얻고, 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 이미지에서 목표 대상물의 생체 검출 결과를 결정한다.In some embodiments, feature extraction processing is performed on the first image to obtain first feature information, and feature extraction processing is performed on the second depth map to obtain second feature information, based on the first feature information and the second feature information to determine the biodetection result of the target object in the first image.

여기서, 선택 가능적으로 특징 추출 처리는 뉴럴 네트워크 또는 다른 기계 학습 알고리즘에 의해 실현할 수 있고, 추출된 특징 정보의 종별은 선택 가능적으로 샘플을 사용한 학습에 의해 얻을 수 있지만, 본 발명의 실시예는 이들을 한정하지 않는다.Here, the feature extraction process selectively can be realized by a neural network or other machine learning algorithm, and the type of the extracted feature information can be selectively obtained by learning using a sample, but the embodiment of the present invention is do not limit them

일부 특정 장면(예를 들면, 실외의 광이 강한 장면)에서는 취득되는 심도맵(예를 들면, 심도 센서에 의해 취득되는 심도맵)은 일부 면적이 실효가 되는 경우가 있다. 또한, 정상적인 광의 조사에서도 안경에 의한 반사, 검은 머리카락 또는 검은 안경 프레임 등의 요인에 의해 심도맵의 부분적인 실효를 랜덤으로 일으키게 된다. 일부 특별한 종이도 유사하게 인쇄된 얼굴 사진의 심도맵에 넓은 면적의 실효 또는 부분적 실효를 일으킨다. 또한, 심도 센서의 액티브 광원이 차폐되는 경우, 심도맵의 일부가 실효되지만, 비생체의 이미지 센서에서의 결상이 정상이다. 이와 같이, 심도맵의 일부 또는 전부가 실효가 되는 경우에, 심도맵에 기초하는 생체와 비생체의 식별에 오차가 발생한다. 따라서, 본 발명의 실시예에서는 제1 심도맵을 수복 또는 갱신하고, 수리 또는 갱신 후의 심도맵을 사용하여 생체 검출을 행함으로써, 생체 검출의 정확률의 향상에 기여한다.In some specific scenes (eg, a scene with strong outdoor light), a partial area of an acquired depth map (eg, a depth map acquired by a depth sensor) may become effective. In addition, even in normal light irradiation, partial ineffectiveness of the depth map is randomly caused by factors such as reflection by glasses, dark hair, or black glasses frame. Some special papers also cause large area or partial ineffectiveness in depth maps of similarly printed face photos. In addition, when the active light source of the depth sensor is blocked, a part of the depth map is invalid, but the image formation in the non-living image sensor is normal. In this way, when a part or all of the depth map becomes invalid, an error occurs in the identification of a living body and a non-living body based on the depth map. Accordingly, in the embodiment of the present invention, by repairing or updating the first depth map and performing biometric detection using the repaired or updated depth map, it contributes to the improvement of accuracy of biometric detection.

도 6은 본 발명의 실시예에 따른 생체 검출 방법에 의해 제1 이미지 및 제2 심도맵에 기초하여 제1 이미지에서의 목표 대상물의 생체 검출 결과를 결정하는 일례의 모식도를 나타낸다.6 is a schematic diagram illustrating an example of determining a biometric detection result of a target object in a first image based on a first image and a second depth map by the biometric detection method according to an embodiment of the present invention.

이 예에서는, 제1 이미지 및 제2 심도맵을 생체 검출 네트워크에 입력하여 생체 검출 처리를 행하여 생체 검출 결과를 얻는다.In this example, the first image and the second depth map are input to the biometric detection network, and biometric detection processing is performed to obtain a biometric detection result.

도 6에 나타내는 바와 같이, 이 생체 검출 네트워크는 제1 이미지에 대해 특징 추출 처리를 행하여 제1 특징 정보를 얻기 위한 제1 서브 네트워크와, 제2 심도맵에 대해 특징 추출 처리를 행하여 제2 특징 정보를 얻기 위한 제2 서브 네트워크의 2개의 브랜치를 포함한다As shown in Fig. 6, this biometric detection network performs feature extraction processing on a first image to obtain first characteristic information, and a first subnetwork performs feature extraction processing on a second depth map to obtain second characteristic information. It includes two branches of the second subnetwork to obtain

선택 가능적인 일례에서는 제1 서브 네트워크는 합성곱층, 다운 샘플링층 및 전체 결합층을 포함해도 된다.In an optional example, the first subnetwork may include a convolutional layer, a downsampling layer and a full coupling layer.

예를 들면, 제1 서브 네트워크는 1층의 합성곱층, 1층의 다운 샘플링층 및 1층의 전체 결합층을 포함해도 된다. 여기서, 이 1층의 합성곱층은 하나 또는 복수의 합성곱층을 포함해도 되고, 이 1층의 다운 샘플링층은 하나 또는 복수의 다운 샘플링층을 포함해도 되고, 이 1층의 전체 결합층은 하나 또는 복수의 전체 결합층을 포함해도 된다.For example, the first subnetwork may include a convolutional layer of one layer, a downsampling layer of one layer, and an entire coupling layer of the first layer. Here, the convolutional layer of this first layer may include one or a plurality of convolutional layers, the downsampling layer of this first layer may include one or a plurality of downsampling layers, and the entire coupling layer of the first layer may include one or a plurality of downsampling layers. A plurality of total bonding layers may be included.

또한, 예를 들면, 제1 서브 네트워크는 다층의 합성곱층, 다층의 다운 샘플링층 및 1층의 전체 결합층을 포함해도 된다. 여기서, 각 층의 합성곱층은 하나 또는 복수의 합성곱층을 포함해도 되고, 각 층의 다운 샘플링층은 하나 또는 복수의 다운 샘플링층을 포함해도 되고, 이 1층의 전체 결합층은 하나 또는 복수의 전체 결합층을 포함해도 된다. 여기서, 제i 층의 합성곱층 후에 제i 층의 다운 샘플링층이 캐스케이드 접속되고, 제i 층의 다운 샘플링층 후에 제i+1 층의 합성곱층이 캐스케이드 접속되고, 제n 층의 다운 샘플링층 후의 전체 결합층이 캐스케이드 접속된다. 여기서, i 및 n은 전부 양의 정수이고, 1≤i≤n이고, n은 심도 추정 뉴럴 네트워크에서의 합성곱층 및 다운 샘플링층의 층수이다.Further, for example, the first subnetwork may include a multi-layered convolutional layer, a multi-layered downsampling layer, and a single-layered total coupling layer. Here, the convolutional layer of each layer may include one or a plurality of convolutional layers, and the downsampling layer of each layer may include one or a plurality of downsampling layers, and the total coupling layer of this first layer may include one or a plurality of downsampling layers. The entire bonding layer may be included. where the downsampling layer of the ith layer is cascaded after the convolutional layer of the ith layer, the convolutional layer of the i+1th layer is cascaded after the downsampling layer of the ith layer, and the total coupling after the downsampling layer of the nth layer is The layers are cascaded. Here, i and n are both positive integers, 1≤i≤n, and n is the number of convolutional and downsampling layers in the depth estimation neural network.

또는, 제1 서브 네트워크는 합성곱층, 다운 샘플링층, 정규화층 및 전체 결합층을 포함해도 된다.Alternatively, the first subnetwork may include a convolutional layer, a downsampling layer, a normalization layer, and an overall combining layer.

예를 들면, 제1 서브 네트워크는 1층의 합성곱층, 하나의 정규화층, 1층의 다운 샘플링층 및 1층의 전체 결합층을 포함해도 된다. 여 , 이 1층의 합성곱층은 하나 또는 복수의 합성곱층을 포함해도 되고, 이 1층의 다운 샘플링층은 하나 또는 복수의 다운 샘플링층을 포함해도 되고, 이 1층의 전체 결합층은 하나 또는 복수의 전체 결합층을 포함해도 된다.For example, the first subnetwork may include one convolutional layer, one normalization layer, one downsampling layer, and one full coupling layer. F, the convolutional layer of this first layer may include one or a plurality of convolutional layers, the downsampling layer of this first layer may include one or a plurality of downsampling layers, and the total coupling layer of this first layer is one or A plurality of total bonding layers may be included.

또한, 예를 들면, 제1 서브 네트워크는 다층의 합성곱층, 복수의 정규화층, 다층의 다운 샘플링층 및 1층의 전체 결합층을 포함해도 된다. 여기서, 각 층의 합성곱층은 하나 또는 복수의 합성곱층을 포함해도 되고, 각 층의 다운 샘플링층은 하나 또는 복수의 다운 샘플링층을 포함해도 되고, 이 1층의 전체 결합층은 하나 또는 복수의 전체 결합층을 포함해도 된다. 여기서, 제i 층의 합성곱층 후에 제i 정규화층이 캐스케이드 접속되고, 제i 정규화층 후에 제i 층의 다운 샘플링층이 캐스케이드 접속되고, 제i 층의 다운 샘플링층 후에 제i+1 층의 합성곱층이 캐스케이드 접속되고, 제n 층의 다운 샘플링층 후에 전체 결합층이 캐스케이드 접속된다. 여기서, i 및 n은 전부 양의 정수이고, 1≤i≤n이고, n은 제1 서브 네트워크에서의 합성곱층, 다운 샘플링층의 층수 및 정규화층의 개수를 나타낸다.Also, for example, the first subnetwork may include a multi-layered convolutional layer, a plurality of normalization layers, a multi-layered downsampling layer, and one entire coupling layer. Here, the convolutional layer of each layer may include one or a plurality of convolutional layers, and the downsampling layer of each layer may include one or a plurality of downsampling layers, and the total coupling layer of this first layer may include one or a plurality of downsampling layers. The entire bonding layer may be included. Here, the i-th normalization layer is cascaded after the convolutional layer of the i-th layer, the down-sampling layer of the i-th layer is cascaded after the i-th normalization layer, and the convolutional layer of the i+1th layer is after the down-sampling layer of the i-th layer. are cascaded, and the entire coupling layer is cascaded after the downsampling layer of the nth layer. Here, i and n are both positive integers, 1≤i≤n, and n represents the number of convolutional layers, downsampling layers and the number of normalization layers in the first subnetwork.

일례로서, 제1 이미지에 대해 합성곱 처리를 행하여 제1 합성곱 결과를 얻고, 제1 합성곱 결과에 대해 다운 샘플링 처리를 행하여 제1 다운 샘플링 결과를 얻고, 제1 다운 샘플링 결과에 기초하여 제1 특징 정보를 취득한다.As an example, convolution processing is performed on the first image to obtain a first convolution result, down-sampling processing is performed on the first convolution result to obtain a first down-sampling result, and a first down-sampling result is obtained based on the first down-sampling result. 1 Acquire feature information.

예를 들면, 1층의 합성곱층 및 1층의 다운 샘플링층에 의해 제1 이미지에 대해 합성곱 처리 및 다운 샘플링 처리를 행하도록 해도 된다. 이 1층의 합성곱층은 하나 또는 복수의 합성곱층을 포함해도 되고, 이 1층의 다운 샘플링층은 하나 또는 복수의 다운 샘플링층을 포함해도 된다.For example, the convolution process and the downsampling process may be performed on the first image by the first convolutional layer and the first downsampling layer. The one-layer convolutional layer may include one or a plurality of convolutional layers, and the one-layer downsampling layer may include one or a plurality of downsampling layers.

또한, 예를 들면, 다층의 합성곱층 및 다층의 다운 샘플링층에 의해 제1 이미지에 대해 합성곱 처리 및 다운 샘플링 처리를 행하도록 해도 된다. 여기서, 각 층의 합성곱층은 하나 또는 복수의 합성곱층을 포함해도 되고, 각 층의 다운 샘플링층은 하나 또는 복수의 다운 샘플링층을 포함해도 된다.Further, for example, the convolutional processing and the downsampling processing may be performed on the first image by the multilayered convolutional layer and the multilayered downsampling layer. Here, the convolutional layer of each layer may include one or a plurality of convolutional layers, and the downsampling layer of each layer may include one or a plurality of downsampling layers.

예를 들면, 제1 합성곱 결과에 대해 다운 샘플링 처리를 행하여 제1 다운 샘플링 결과를 얻는 것은 제1 합성곱 결과에 대해 정규화 처리를 행하여 제1 정규화 결과를 얻는 것과, 제1 정규화 결과에 대해 다운 샘플링 처리를 행하여 제1 다운 샘플링 결과를 얻는 것을 포함하도록 해도 된다.For example, performing down-sampling processing on the first convolution result to obtain a first down-sampling result includes performing normalization processing on the first convolution result to obtain a first normalization result, and down-sampling the first normalization result. You may make it include performing a sampling process and obtaining a 1st down-sampling result.

예를 들면, 제1 다운 샘플링 결과를 전체 결합층에 입력하고, 전체 결합층에 의해 제1 다운 샘플링 결과에 대해 융합 처리를 행하여, 제1 특징 정보를 얻도록 해도 된다.For example, the first downsampling result may be input to all the coupling layers, and the first downsampling result may be fused by all the coupling layers to obtain the first characteristic information.

선택 가능적으로, 제2 서브 네트워크는 제1 서브 네트워크와 동일한 네트워크 구조를 갖지만 상이한 파라미터를 갖는다. 또는, 제2 서브 네트워크는 제1 서브 네트워크와 상이한 네트워크 구조를 갖는다. 본 발명의 실시예는 이를 한정하지 않는다.Optionally, the second subnetwork has the same network structure as the first subnetwork but has different parameters. Alternatively, the second sub-network has a network structure different from that of the first sub-network. Embodiments of the present invention do not limit this.

도 6에 나타내는 바와 같이, 생체 검출 네트워크는 제1 서브 네트워크에 의해 얻어진 제1 특징 정보 및 제2 서브 네트워크에 의해 얻어진 제2 특징 정보를 처리하여, 제1 이미지에서의 목표 대상물의 생체 검출 결과를 얻기 위한 제3 서브 네트워크를 추가로 포함한다. 선택 가능적으로, 제3 서브 네트워크는 전체 결합층 및 출력층을 포함해도 된다. 예를 들면, 출력층은 softmax 함수를 채용하고, 출력층의 출력이 1인 경우, 목표 대상물이 생체임을 나타내고, 출력층의 출력이 0인 경우, 목표 대상물이 비생체임을 나타내지만, 본 발명의 실시예는 제3 서브 네트워크의 구체적인 실현에 대해 한정하지 않는다.As shown in FIG. 6 , the biometric detection network processes the first characteristic information obtained by the first subnetwork and the second characteristic information obtained by the second subnetwork to obtain the biometric detection result of the target object in the first image. It further includes a third subnetwork for obtaining. Optionally, the third subnetwork may include an entire coupling layer and an output layer. For example, the output layer employs a softmax function, and when the output of the output layer is 1, it indicates that the target object is a living body, and when the output of the output layer is 0, it indicates that the target object is non-living. There is no limitation on the specific realization of the third subnetwork.

일례로서, 제1 특징 정보 및 제2 특징 정보에 대해 융합 처리를 행하여 제3 특징 정보를 얻고, 제3 특징 정보에 기초하여 제1 이미지에서의 목표 대상물의 생체 검출 결과를 결정한다.As an example, fusion processing is performed on the first characteristic information and the second characteristic information to obtain third characteristic information, and a biometric detection result of the target object in the first image is determined based on the third characteristic information.

예를 들면, 전체 결합층에 의해 제1 특징 정보 및 제2 특징 정보에 대해 융합 처리를 행하여 제3 특징 정보를 얻는다.For example, fusion processing is performed on the first characteristic information and the second characteristic information by the entire coupling layer to obtain the third characteristic information.

일부 실시예에서는 제3 특징 정보에 기초하여 제1 이미지에서의 목표 대상물이 생체인 확률을 얻고, 목표 대상물이 생체인 확률에 기초하여 목표 대상물의 생체 검출 결과를 결정한다.In some embodiments, a probability that the target object in the first image is a living body is obtained based on the third characteristic information, and a biometric detection result of the target object is determined based on the probability that the target object is a living body.

예를 들면, 목표 대상물이 생체인 확률이 제2 임계값보다 큰 경우, 목표 대상물의 생체 검출 결과로서, 목표 대상물이 생체인 것으로 결정된다. 또한, 예를 들면, 목표 대상물이 생체인 확률이 제2 임계값 이하인 경우, 목표 대상물의 생체 검출 결과로서 비생체인 것으로 결정된다.For example, when the probability that the target object is a living body is greater than the second threshold value, it is determined that the target object is a living body as a result of detecting the target object as a living body. Further, for example, when the probability that the target object is a living body is equal to or less than the second threshold value, it is determined that the target object is non-living as a result of detecting the biological body.

다른 일부 실시예에서는 제3 특징 정보에 기초하여 목표 대상물이 비생체인 확률을 얻고, 목표 대상물이 비생체인 확률에 기초하여 목표 대상물의 생체 검출 결과를 결정한다. 예를 들면, 목표 대상물이 비생체인 확률이 제3 임계값보다 큰 경우, 목표 대상물의 생체 검출 결과로서 목표 대상물이 비생체인 것으로 결정된다. 또한, 예를 들면, 목표 대상물이 비생체인 확률이 제3 임계값 이하인 경우, 목표 대상물의 생체 검출 결과로서 생체인 것으로 결정된다.In some other exemplary embodiments, a probability that the target object is non-living is obtained based on the third characteristic information, and a biometric detection result of the target object is determined based on the probability that the target object is non-living. For example, when the probability that the target object is nonliving is greater than the third threshold value, it is determined that the target object is nonliving as a result of biodetection of the target object. Also, for example, when the probability that the target object is non-living is equal to or less than the third threshold value, it is determined as a living body detection result of the target object.

일례에서는 제3 특징 정보를 Softmax층에 입력하여, Softmax층에 의해 목표 대상물이 생체 또는 비생체인 확률을 얻도록 해도 된다. 예를 들면, Softmax층의 출력에는 목표 대상물이 생체인 확률을 나타내는 뉴런과, 목표 대상물이 비생체인 확률을 나타내는 뉴런의 두 가지의 것을 포함하지만, 본 발명의 실시예는 이를 한정하지 않는다.In one example, the third characteristic information may be input to the Softmax layer so that the Softmax layer obtains the probability that the target object is living or non-living. For example, the output of the Softmax layer includes two types of neurons: a neuron indicating a probability that the target object is a living body and a neuron indicating a probability that the target object is non-living, but the embodiment of the present invention is not limited thereto.

본 발명의 실시예에서는 제1 이미지 및 제1 이미지에 대응하는 제1 심도맵을 취득하고, 제1 이미지에 기초하여 제1 심도맵을 갱신하여 제2 심도맵을 얻고, 제1 이미지 및 제2 심도맵에 기초하여 제1 이미지에서의 목표 대상물의 생체 검출 결과를 결정함으로써, 심도맵을 개선하고 생체 검출의 정확성을 높일 수 있다.In an embodiment of the present invention, a first image and a first depth map corresponding to the first image are acquired, and the first depth map is updated based on the first image to obtain a second depth map, and the first image and the second By determining the bio-detection result of the target object in the first image based on the depth map, the depth map may be improved and accuracy of bio-detection may be increased.

가능한 일 실시형태에서는 제1 이미지에 기초하여 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은 제1 이미지에 기초하여 제1 이미지에서의 복수의 화소의 심도 추정값 및 이 복수의 화소끼리의 관련도를 나타내는 관련 정보를 결정하는 것과, 이 복수의 화소의 심도 추정값 및 관련 정보에 기초하여, 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것을 포함한다.In one possible embodiment, updating the first depth map based on the first image to obtain the second depth map comprises depth estimates of a plurality of pixels in the first image based on the first image and the association of the plurality of pixels with each other. determining related information representing the figure, and updating the first depth map to obtain a second depth map based on the estimated depth values of the plurality of pixels and the related information.

구체적으로는, 제1 이미지에 기초하여 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하고, 복수의 화소의 심도 추정값에 기초하여 제1 심도맵을 수복하여 개선한다.Specifically, depth estimation values of a plurality of pixels in the first image are determined based on the first image, and the first depth map is repaired and improved based on the depth estimation values of the plurality of pixels.

구체적으로는, 제1 이미지를 처리하여 제1 이미지에서의 복수의 화소의 심도 추정값을 얻는다. 예를 들면, 제1 이미지를 심도 추정 뉴럴 네트워크에 입력하여 처리하고, 복수의 화소의 심도 추정 결과를 얻고, 예를 들면, 제1 이미지에 대응하는 추정 심도맵을 얻지만, 본 발명의 실시예는 이를 한정하지 않는다.Specifically, the first image is processed to obtain depth estimates of a plurality of pixels in the first image. For example, a first image is input to a depth estimation neural network and processed, and a depth estimation result of a plurality of pixels is obtained, for example, an estimated depth map corresponding to the first image is obtained; does not limit this.

일부 실시예에서는 제1 이미지 및 제1 심도맵에 기초하여 제1 이미지에서의 복수의 화소의 심도 추정값을 결정한다.In some embodiments, depth estimates of a plurality of pixels in the first image are determined based on the first image and the first depth map.

일례로서, 제1 이미지 및 제1 심도맵을 심도 추정 뉴럴 네트워크에 입력하여 처리하고, 제1 이미지에서의 복수의 화소의 심도 추정값을 얻는다. 또는, 다른 방법에 의해 제1 이미지 및 제1 심도맵을 처리하여 복수의 화소의 심도 추정값을 얻지만, 본 발명의 실시예는 이를 한정하지 않는다.As an example, a first image and a first depth map are input to a depth estimation neural network for processing, and depth estimates of a plurality of pixels in the first image are obtained. Alternatively, depth estimation values of a plurality of pixels are obtained by processing the first image and the first depth map by another method, but the embodiment of the present invention is not limited thereto.

도 7은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 심도 추정 뉴럴 네트워크의 모식도를 나타낸다. 도 7에 나타내는 바와 같이, 제1 이미지 및 제1 심도맵을 심도 추정 뉴럴 네트워크에 입력하여 처리하고, 초기 심도 추정 맵을 얻도록 해도 된다. 초기 심도 추정 맵에 기초하여, 제1 이미지에서의 복수의 화소의 심도 추정값을 결정할 수 있다. 예를 들면, 초기 심도 추정 맵의 화소값은 제1 이미지에서의 대응 화소의 심도 추정값이다.7 is a schematic diagram of a depth estimation neural network in a method for unlocking a door of a vehicle according to an embodiment of the present invention. As shown in FIG. 7 , the first image and the first depth map may be input to a depth estimation neural network and processed to obtain an initial depth estimation map. Based on the initial depth estimation map, depth estimation values of the plurality of pixels in the first image may be determined. For example, the pixel value of the initial depth estimation map is the depth estimate of the corresponding pixel in the first image.

심도 추정 뉴럴 네트워크는 다양한 네트워크 구조에 의해 실현할 수 있다. 일례에서는 심도 추정 뉴럴 네트워크는 코드화 부분 및 디코드 부분을 포함한다. 여기서, 선택 가능적으로, 코드화 부분은 합성곱층 및 다운 샘플링층을 포함하고, 디코드 부분은 역합성곱층 및/또는 업 샘플링층을 포함하도록 해도 된다. 또한, 코드화 부분 및/또는 디코드 부분은 정규화층을 추가로 포함해도 된다. 본 발명의 실시예는 코드화 부분 및 디코드 부분의 구체적인 실현에 대해 한정하지 않는다. 코드화 부분에서, 네트워크층수의 증가에 따라, 특징맵의 해상도가 점차 낮아지고, 특징맵의 수량이 점차 많아져, 이에 의해 풍부한 시맨틱 특징 및 이미지의 공간 특징을 얻을 수 있다. 디코드 부분에서, 특징맵의 해상도가 점차 증대되고, 디코드 부분에서 최종적으로 출력되는 특징맵의 해상도가 제1 심도맵의 해상도와 동일해진다.The depth estimation neural network can be realized by various network structures. In one example, the depth estimation neural network includes a coded part and a decode part. Here, optionally, the coding part may include a convolutional layer and a downsampling layer, and the decoding part may include a deconvolutional layer and/or an upsampling layer. In addition, the encoding part and/or the decoding part may further include a normalization layer. The embodiment of the present invention does not limit the specific realization of the coded part and the decode part. In the coding part, as the number of network layers increases, the resolution of the feature map gradually decreases, and the quantity of the feature map gradually increases, thereby obtaining rich semantic features and spatial features of the image. In the decode part, the resolution of the feature map is gradually increased, and the resolution of the feature map finally output in the decode part becomes the same as the resolution of the first depth map.

일부 실시예에서는 제1 이미지 및 제1 심도맵에 대해 융합 처리를 행하여 융합 결과를 얻고, 융합 결과에 기초하여 제1 이미지에서의 복수의 화소의 심도 추정값을 결정한다.In some embodiments, fusion processing is performed on the first image and the first depth map to obtain a fusion result, and depth estimates of a plurality of pixels in the first image are determined based on the fusion result.

일례에서는 제1 이미지 및 제1 심도맵을 결합(concat)하여, 융합 결과를 얻도록 해도 된다.In one example, the first image and the first depth map may be concatted to obtain a fusion result.

일례에서는, 융합 결과에 대해 합성곱 처리를 행하여 제2 합성곱 결과를 얻고, 제2 합성곱 결과에 기초하여 다운 샘플링 처리를 행하여 제1 코드화 결과를 얻고, 제1 코드화 결과에 기초하여 제1 이미지에서의 복수의 화소의 심도 추정값을 결정한다.In one example, convolution processing is performed on the fusion result to obtain a second convolution result, down-sampling processing is performed based on the second convolution result to obtain a first coded result, and a first image is obtained based on the first coded result. Determining depth estimates of a plurality of pixels in .

예를 들면, 합성곱층에 의해 융합 결과에 대해 합성곱 처리를 행하여 제2 합성곱 결과를 얻도록 해도 된다.For example, the convolution layer may perform convolution processing on the fusion result to obtain a second convolution result.

예를 들면, 제2 합성곱 결과에 대해 정규화 처리를 행하여 제2 정규화 결과를 얻고, 제2 정규화 결과에 대해 다운 샘플링 처리를 행하여 제1 코드화 결과를 얻는다. 여기서, 정규화층에 의해 제2 합성곱 결과에 대해 정규화 처리를 행하여 제2 정규화 결과를 얻고, 다운 샘플링층에 의해 제2 정규화 결과에 대해 다운 샘플링 처리를 행하여 제1 코드화 결과를 얻도록 해도 된다. 또는, 다운 샘플링층에 의해 제2 합성곱 결과에 대해 다운 샘플링 처리를 행하여 제1 코드화 결과를 얻도록 해도 된다.For example, normalization processing is performed on the second convolution result to obtain a second normalization result, and downsampling processing is performed on the second normalization result to obtain a first coded result. Here, the normalization layer may perform normalization processing on the second convolution result to obtain the second normalization result, and the downsampling layer may perform downsampling processing on the second normalization result to obtain the first coded result. Alternatively, the down-sampling layer may perform down-sampling processing on the second convolution result to obtain the first coded result.

예를 들면, 제1 부호화 결과에 대해 역합성곱 처리를 행하여 제1 역합성곱 결과를 얻고, 제1 역합성곱 결과에 대해 정규화 처리를 행하여 심도 추정값을 얻는다. 여기서, 역합성곱층에 의해 제1 코드화 결과에 대해 역합성곱 처리를 행하여 제1 역합성곱 결과를 얻고, 정규화층에 의해 제1 역합성곱 결과에 대해 정규화 처리를 행하여 심도 추정값을 얻도록 해도 된다. 또는, 역합성곱층에 의해 제1 코드화 결과에 대해 역합성곱 처리를 행하여 심도 추정값을 얻도록 해도 된다.For example, deconvolution processing is performed on the first encoding result to obtain a first deconvolution result, and normalization processing is performed on the first deconvolution result to obtain a depth estimation value. Here, the deconvolution layer performs deconvolution processing on the first coded result to obtain the first deconvolution result, and the normalization layer performs normalization processing on the first deconvolution result to obtain a depth estimation value. do. Alternatively, the depth estimation value may be obtained by performing deconvolution processing on the first coded result by the deconvolution layer.

예를 들면, 제1 코드화 결과에 대해 업 샘플링 처리를 행하여 제1 업 샘플링 결과를 얻고, 제1 업 샘플링 결과에 대해 정규화 처리를 행하여 심도 추정값을 얻는다. 여기서, 업 샘플링층에 의해 제1 코드화 결과에 대해 업 샘플링 처리를 행하여 제1 업 샘플링 결과를 얻고, 정규화층에 의해 제1 업 샘플링 결과에 대해 정규화 처리를 행하여 심도 추정값을 얻도록 해도 된다. 또는, 업 샘플링층에 의해 제1 코드화 결과에 대해 업 샘플링 처리를 행하여 심도 추정값을 얻도록 해도 된다.For example, an upsampling process is performed on the first coding result to obtain a first upsampling result, and a normalization process is performed on the first upsampling result to obtain a depth estimation value. Here, the up-sampling layer may perform up-sampling processing on the first coding result to obtain the first up-sampling result, and the normalization layer may perform normalization processing on the first up-sampling result to obtain a depth estimation value. Alternatively, the upsampling layer may perform an upsampling process on the first coding result to obtain a depth estimation value.

또한, 제1 이미지를 처리하여 제1 이미지에서의 복수의 화소의 관련 정보를 얻는다. 여기서, 제1 이미지에서의 복수의 화소의 관련 정보는 제1 이미지의 복수의 화소의 각각과 그 주변 화소의 관련도를 포함하도록 해도 된다. 여기서, 화소의 주변 화소는 화소에 인접하는 하나 이상의 인접 화소를 포함해도 되고, 또는 이 화소와의 간격이 일정한 수치를 초과하지 않는 복수의 화소를 포함해도 된다. 예를 들면, 도 10에 나타내는 바와 같이, 화소(5)의 주변 화소는 이에 인접하는 화소(1), 화소(2), 화소(3), 화소(4), 화소(6), 화소(7), 화소(8) 및 화소(9)를 포함하고, 이에 따라, 제1 이미지에서의 복수의 화소의 관련 정보는 화소(1), 화소(2), 화소(3), 화소(4), 화소(6), 화소(7), 화소(8) 및 화소(9)와, 화소(5)의 관련도를 포함한다. 일례로서, 제1 화소와 제2 화소의 관련도는 제1 화소와 제2 화소의 상관성에 의해 측정 가능하다. 본 발명의 실시예는 관련 기술을 사용하여 화소끼리의 상관성을 결정할 수 있고, 여기서 상세한 설명은 생략한다.Further, the first image is processed to obtain related information of a plurality of pixels in the first image. Here, the related information of the plurality of pixels in the first image may include a degree of relation between each of the plurality of pixels of the first image and its surrounding pixels. Here, the neighboring pixels of a pixel may include one or more adjacent pixels adjacent to the pixel, or may include a plurality of pixels whose distance from the pixel does not exceed a certain numerical value. For example, as shown in FIG. 10 , the peripheral pixels of the pixel 5 are adjacent thereto: the pixel 1 , the pixel 2 , the pixel 3 , the pixel 4 , the pixel 6 , and the pixel 7 . ), a pixel (8) and a pixel (9), so that the relevant information of a plurality of pixels in the first image is: a pixel (1), a pixel (2), a pixel (3), a pixel (4); The relationship between the pixel 6 , the pixel 7 , the pixel 8 , and the pixel 9 and the pixel 5 is included. As an example, the degree of correlation between the first pixel and the second pixel may be measured by the correlation between the first pixel and the second pixel. An embodiment of the present invention may determine the correlation between pixels by using a related technique, and a detailed description thereof will be omitted.

본 발명의 실시예에서는 다양한 방법에 의해 복수의 화소의 관련 정보를 결정할 수 있다. 일부 실시예에서는 제1 이미지를 관련도 검출 뉴럴 네트워크에 입력하여 처리하고, 제1 이미지에서의 복수의 화소의 관련 정보를 얻도록 해도 된다. 예를 들면, 제1 이미지에 대응하는 관련 특징맵을 얻는다. 또는, 다른 알고리즘에 의해 복수의 화소의 관련 정보를 얻도록 해도 된다. 본 발명의 실시예는 이를 한정하지 않는다.In an embodiment of the present invention, related information of a plurality of pixels may be determined by various methods. In some embodiments, the first image may be input to the relevance detection neural network to be processed, and related information of a plurality of pixels in the first image may be obtained. For example, a related feature map corresponding to the first image is obtained. Alternatively, the related information of a plurality of pixels may be obtained by another algorithm. Embodiments of the present invention do not limit this.

도 8은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 관련도 검출 뉴럴 네트워크의 모식도를 나타낸다. 도 8에 나타내는 바와 같이, 제1 이미지를 관련도 검출 뉴럴 네트워크에 입력하여 처리하고, 복수장의 관련 특징맵을 얻는다. 복수장의 관련 특징맵에 기초하여, 제1 이미지에서의 복수의 화소의 관련 정보를 결정할 수 있다. 예를 들면, 어느 화소의 주변 화소란, 이 화소와의 거리가 0인 화소를 가리키고, 즉 이 화소의 주변 화소란, 이 화소에 인접한 화소를 가리킨다. 이 경우, 관련도 검출 뉴럴 네트워크는 8장의 관련 특징맵을 출력할 수 있다. 예를 들면, 제1 관련 특징맵에서, 화소(Pi, j)의 화소값=제1 이미지의 화소(Pi-1, j-1)와 화소(Pi, j)의 관련도이고, 단 (Pi, j)는 제i 행 제j 열의 화소를 나타내고, 제2 관련 특징맵에서, 화소(Pi, j)의 화소값=제1 이미지의 화소(Pi-1, j)와 화소(Pi, j)의 관련도이고, 제3 관련 특징맵에서, 화소(Pi, j)의 화소값=제1 이미지의 화소(Pi-1, j+1)와 화소(Pi, j)의 관련도이고, 제4 관련 특징맵에서, 화소(Pi, j)의 화소값=제1 이미지의 화소(Pi, j-1)와 화소(Pi, j)의 관련도이고, 제5 관련 특징맵에서, 화소(Pi, j)의 화소값=제1 이미지의 화소(Pi, j+1)와 화소(Pi, j)의 관련도이고, 제6 관련 특징맵에서, 화소(Pi, j)의 화소값=제1 이미지의 화소(Pi+1, j-1)와 화소(Pi, j)의 관련도이고, 관련 특징맵에서, 화소(Pi, j)의 화소값=제1 이미지의 화소(Pi+1, j)와 화소(Pi, j)의 관련도이고, 제8 관련 특징맵에서, 화소(Pi, j)의 화소값=제1 이미지의 화소(Pi+1, j+1)와 화소(Pi, j)의 관련도이다.8 is a schematic diagram of a relevance detection neural network in a method for unlocking a vehicle door according to an embodiment of the present invention. As shown in Fig. 8, the first image is input to the relevance detection neural network and processed to obtain a plurality of related feature maps. Based on the plurality of related feature maps, related information of a plurality of pixels in the first image may be determined. For example, a peripheral pixel of a certain pixel indicates a pixel whose distance to this pixel is 0, that is, a peripheral pixel of this pixel indicates a pixel adjacent to this pixel. In this case, the relevance detection neural network may output 8 related feature maps. For example, in the first related feature map, the pixel value of the pixel (P i , j ) = the degree of relevance between the pixel (P i-1 , j-1 ) and the pixel (P i , j ) of the first image, where (P i , j ) represents the pixel in the i-th row and the j-th column, and in the second related feature map, the pixel value of the pixel (P i , j ) = the pixel (P i-1 , j ) of the first image and It is the degree of relevance of the pixel (P i , j ), and in the third related feature map, the pixel value of the pixel (P i , j ) = the pixel (P i-1 , j+1 ) and the pixel (P i , j ) of the first image ), and in the fourth related feature map, the pixel value of the pixel (P i , j ) = the relation between the pixel (P i , j-1 ) and the pixel (P i , j ) of the first image, In the fifth related feature map, the pixel value of the pixel (P i , j ) = the pixel value of the first image (P i , j+1 ) and the pixel (P i , j ), and in the sixth related feature map, the pixel value The pixel value of (P i , j ) = the pixel of the first image (P i+1 , j-1 ) and the pixel (P i , j ) are related, and in the related feature map, the pixel of the pixel (P i , j ) Value = the relation between the pixel (P i+1 , j ) of the first image and the pixel (P i , j ), and in the eighth related feature map, the pixel value of the pixel (P i , j ) = the pixel of the first image ( P i+1 , j+1 ) and the pixel (P i , j ) are related.

관련도 검출 뉴럴 네트워크는 다양한 네트워크 구조에 의해 실현할 수 있다. 일례로서, 관련도 검출 뉴럴 네트워크는 코드화 부분 및 디코드 부분을 포함하도록 해도 된다. 여기서, 코드화 부분은 합성곱층 및 다운 샘플링층을 포함하고, 디코드 부분은 역합성곱층 및/또는 업 샘플링층을 포함하도록 해도 된다. 코드화 부분은 정규화층을 추가로 포함해도 되고, 디코드 부분은 정규화층을 포함해도 된다. 코드화 부분에서 특징맵의 해상도가 점차 낮아지고, 특징맵의 수량이 점차 많아지고, 이에 의해 풍부한 시맨틱 특징 및 이미지의 공간 특징이 얻어지고, 디코드 부분에서 특징맵의 해상도가 점차 증대되고, 디코드 부분에서 최종적으로 출력되는 특징맵의 해상도가 제1 이미지의 해상도와 동일해진다. 본 발명의 실시예에서는 관련 정보는 이미지여도 되고, 다른 데이터 형식, 예를 들면, 행렬 등이어도 된다.The relevance detection neural network can be realized by various network structures. As an example, the relevance detection neural network may include a coded portion and a decoded portion. Here, the coding part may include a convolutional layer and a downsampling layer, and the decoding part may include a deconvolutional layer and/or an upsampling layer. The encoding portion may further include a normalization layer, and the decoding portion may include a normalization layer. In the coding part, the resolution of the feature map gradually decreases, and the number of feature maps gradually increases, thereby obtaining rich semantic features and spatial features of the image. The resolution of the feature map gradually increases in the decode part, and in the decode part. The resolution of the finally output feature map becomes the same as the resolution of the first image. In an embodiment of the present invention, the related information may be an image or other data format, for example, a matrix or the like.

일례로서, 제1 이미지를 관련도 검출 뉴럴 네트워크에 입력하여 처리하고, 제1 이미지에서의 복수의 화소의 관련 정보를 얻는 것은 제1 이미지에 대해 합성곱 처리를 행하여 제3 합성곱 결과를 얻는 것과, 제3 합성곱 결과에 기초하여 다운 샘플링 처리를 행하여, 제2 코드화 결과를 얻는 것과, 제2 코드화 결과에 기초하여, 제1 이미지에서의 복수의 화소의 관련 정보를 얻는 것을 포함하도록 해도 된다.As an example, inputting and processing a first image into a relevance detection neural network, and obtaining relevant information of a plurality of pixels in the first image, is equivalent to performing convolution processing on the first image to obtain a third convolution result. , performing downsampling processing based on the third convolution result to obtain a second coding result, and obtaining related information of a plurality of pixels in the first image based on the second coding result.

일례에서는 합성곱층에 의해 제1 이미지에 대해 합성곱 처리를 행하여, 제3 합성곱 결과를 얻도록 해도 된다.In one example, the convolution layer may perform convolution processing on the first image to obtain a third convolution result.

일례에서는 제3 합성곱 결과에 기초하여 다운 샘플링 처리를 행하여, 제2 코드화 결과를 얻는 것은 제3 합성곱 결과에 대해 정규화 처리를 행하여, 제3 정규화 결과를 얻는 것과, 제3 정규화 결과에 대해 다운 샘플링 처리를 행하여, 제2 코드화 결과를 얻는 것을 포함하도록 해도 된다. 이 예에서는, 정규화층에 의해 제3 합성곱 결과에 대해 정규화 처리를 행하여 제3 정규화 결과를 얻고, 다운 샘플링층에 의해 제3 정규화 결과에 대해 다운 샘플링 처리를 행하여 제2 코드화 결과를 얻도록 해도 된다. 또는, 다운 샘플링층에 의해 제3 합성곱 결과에 대해 다운 샘플링 처리를 행하여 제2 코드화 결과를 얻도록 해도 된다.In one example, performing down-sampling processing based on the third convolution result to obtain a second coded result is performing normalization processing on the third convolution result to obtain a third normalization result, and obtaining a third normalization result is down-sampling. The sampling process may be performed to obtain a second encoding result. In this example, the normalization layer performs normalization processing on the third convolution result to obtain the third normalization result, and the downsampling layer performs downsampling processing on the third normalization result to obtain the second coding result. do. Alternatively, the down-sampling layer may perform down-sampling processing on the third convolution result to obtain the second coded result.

일례에서는 제2 코드화 결과에 기초하여 관련 정보를 결정하는 것은 제2 코드화 결과에 대해 역합성곱 처리를 행하여 제2 역합성곱 결과를 얻는 것과, 제2 역합성곱 결과에 대해 정규화 처리를 행하여 관련 정보를 얻는 것을 포함하도록 해도 된다. 이 예에서는, 역합성곱층에 의해 제2 코드화 결과에 대해 역합성곱 처리를 행하여 제2 역합성곱 결과를 얻고, 정규화층에 의해 제2 역합성곱 결과에 대해 정규화 처리를 행하여 관련 정보를 얻도록 해도 된다. 또는, 역합성곱층에 의해 제2 코드화 결과에 대해 역합성곱 처리를 행하여 관련 정보를 얻도록 해도 된다.In one example, determining the relevant information based on the second encoding result includes performing deconvolution processing on the second encoding result to obtain a second deconvolution result, and performing normalization processing on the second deconvolution result to be related It may include obtaining information. In this example, the deconvolution layer performs deconvolution processing on the second coded result to obtain a second deconvolution result, and the normalization layer performs normalization processing on the second deconvolution result to obtain related information. you can make it Alternatively, the deconvolution layer may perform deconvolution processing on the second coded result to obtain related information.

일례에서는 제2 코드화 결과에 기초하여 관련 정보를 결정하는 것은 제2 코드화 결과에 대해 업 샘플링 처리를 행하여 제2 업 샘플링 결과를 얻는 것과, 제2 업 샘플링 결과에 대해 정규화 처리를 행하여 관련 정보를 얻는 것을 포함하도록 해도 된다. 이 예에서는 업 샘플링층에 의해 제2 코드화 결과에 대해 업 샘플링 처리를 행하여 제2 업 샘플링 결과를 얻고, 정규화층에 의해 제2 업 샘플링 결과에 대해 정규화 처리를 행하여 관련 정보를 얻도록 해도 된다. 또는, 업 샘플링층에 의해 제2 코드화 결과에 대해 업 샘플링 처리를 행하여 관련 정보를 얻도록 해도 된다.In one example, determining the related information based on the second encoding result is performing upsampling processing on the second encoding result to obtain a second upsampling result, and performing normalization processing on the second upsampling result to obtain related information may be included. In this example, the up-sampling layer may perform up-sampling processing on the second coding result to obtain the second up-sampling result, and the normalization layer may perform normalization processing on the second up-sampling result to obtain related information. Alternatively, the upsampling layer may perform upsampling processing on the second coding result to obtain related information.

현재의 TOF, 구조화광 등의 3D 센서는 실외에 있는 경우, 태양광에 영향을 받기 쉽기 때문에, 심도맵에 넓은 면적의 홀·결손이 발생하여, 3D 생체 검출 알고리즘의 성능에 영향을 미친다. 본 발명의 실시예에서는 심도맵의 자기 개선에 기초하는 3D 생체 검출 알고리즘은 3D 센서에 의해 검출된 심도맵을 개선하여 수복함으로써 3D 생체 검출 알고리즘의 성능이 높아진다.Current 3D sensors such as TOF and structured light are easily affected by sunlight when outdoors, so large areas of holes/deletions occur in the depth map, affecting the performance of 3D biometric detection algorithms. In the embodiment of the present invention, the 3D biometric detection algorithm based on the self-improvement of the depth map improves the depth map detected by the 3D sensor and repairs it, thereby increasing the performance of the 3D biometric detection algorithm.

일부 실시예에서는 복수의 화소의 심도 추정값 및 관련 정보가 얻어진 후, 복수의 화소의 심도 추정값 및 관련 정보에 기초하여 제1 심도맵을 갱신 처리하여 제2 심도맵을 얻는다. 도 9는 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 심도맵 갱신의 예시적인 모식도를 나타낸다. 도 9에 나타내는 예에서는 제1 심도맵은 결손값이 있는 심도맵이고, 얻어진 복수의 화소의 심도 추정값 및 관련 정보는 각각 초기 심도 추정맵 및 관련 특징맵이다. 이 경우, 결손값이 있는 심도맵, 초기 심도 추정 맵 및 관련 특징맵을 심도맵 갱신 모듈(예를 들면, 심도 갱신 뉴럴 네트워크)에 입력하여 처리하고, 최종적인 심도맵, 즉 제2 심도맵을 얻는다.In some embodiments, after depth estimation values and related information of the plurality of pixels are obtained, the first depth map is updated based on the depth estimation values and related information of the plurality of pixels to obtain a second depth map. 9 is a schematic diagram illustrating an example of updating a depth map in a method for unlocking a door of a vehicle according to an embodiment of the present invention. In the example shown in FIG. 9 , the first depth map is a depth map with missing values, and the obtained depth estimation values and related information of a plurality of pixels are initial depth estimation maps and related feature maps, respectively. In this case, the depth map with the missing value, the initial depth estimation map, and the related feature map are input to the depth map update module (for example, the depth update neural network) and processed, and the final depth map, that is, the second depth map get

일부 실시예에서는 이 복수의 화소의 심도 추정값에서 심도 실효 화소의 심도 추정값 및 심도 실효 화소의 복수의 주변 화소의 심도 추정값을 취득하고, 이 복수의 화소의 관련 정보로부터 심도 실효 화소와 심도 실효 화소의 복수의 주변 화소의 관련도를 취득하고, 심도 실효 화소의 심도 추정값, 심도 실효 화소의 복수의 주변 화소의 심도 추정값, 및 심도 실효 화소와 심도 실효 화소의 주변 화소의 관련도에 기초하여, 심도 실효 화소의 갱신 후의 심도값을 결정한다.In some embodiments, the depth estimation value of the depth effective pixel and the depth estimation value of a plurality of neighboring pixels of the depth effective pixel are obtained from the depth estimation value of the plurality of pixels, and the depth effective pixel and the depth effective pixel are obtained from the related information of the plurality of pixels. Acquire the degree of relevance of a plurality of peripheral pixels, and based on the depth estimate value of the depth effective pixel, the depth estimate value of the plurality of peripheral pixels of the depth effective pixel, and the degree of relevance between the depth effective pixel and the peripheral pixel of the depth effective pixel, the depth effective pixel Determines the depth value after updating the pixel.

본 발명의 실시예에서는 다양한 방법에 의해 심도맵에서 심도 실효 화소를 결정할 수 있다. 일례로서, 제1 심도맵에서의 심도값이 0인 화소를 심도 실효 화소로 하거나, 또는 제1 심도맵에서의 심도값을 갖지 않는 화소를 심도 실효 화소로 한다.In an embodiment of the present invention, the effective depth pixel may be determined from the depth map by various methods. As an example, a pixel having a depth value of 0 in the first depth map is set as an effective depth pixel, or a pixel having no depth value in the first depth map is set as an effective depth pixel.

이 예에서는 결손값이 있는 제1 심도맵에서의, 값이 있는(즉, 심도값이 0이 아닌) 부분에 대해, 그 심도값은 정확하고 신뢰할 수 있다고 간주하고, 이 부분이 갱신되지 않고 원래의 심도값을 그대로 하지만, 제1 심도맵에서의 심도값이 0이 되는 화소에 대해 심도값이 갱신된다.In this example, for a portion with a value (that is, a depth value not equal to 0) in the first depth map with a missing value, the depth value is considered accurate and reliable, and this portion is not updated and the original Although the depth value of is maintained, the depth value is updated for a pixel whose depth value becomes 0 in the first depth map.

다른 예로서, 심도 센서는 심도 실효 화소의 심도값에 대해 하나 또는 복수의 소정의 수치나, 수치 또는 소정의 범위를 설정해도 된다. 이 예에서는 제1 심도맵에서의, 심도값이 소정의 수치와 동일하거나, 또는 소정의 범위에 있는 화소를 심도 실효 화소로서 결정할 수 있다.As another example, the depth sensor may set one or more predetermined numerical values, numerical values, or predetermined ranges for the depth values of the effective depth pixels. In this example, in the first depth map, a pixel having a depth value equal to or within a predetermined range may be determined as an effective depth pixel.

본 발명의 실시예에서는 다른 통계 방법에 의해 제1 심도맵에서의 심도 실효 화소를 결정해도 되지만, 이를 한정하지 않는다.In an embodiment of the present invention, the effective depth pixel in the first depth map may be determined by another statistical method, but the present invention is not limited thereto.

이 실현형태에서는 제1 이미지에서의 심도 실효 화소와 동일한 위치의 화소의 심도값을 심도 실효 화소의 심도 추정값으로서 결정해도 되고, 유사하게 제1 이미지에서의 심도 실효 화소의 주변 화소와 동일한 위치의 화소의 심도값을 심도 실효 화소의 주변 화소의 심도 추정값으로서 결정해도 된다.In this realization embodiment, the depth value of the pixel at the same position as the depth effective pixel in the first image may be determined as the depth estimate value of the depth effective pixel, and similarly, pixels at the same position as the peripheral pixels of the depth effective pixel in the first image The depth value of may be determined as the depth estimation value of pixels surrounding the depth effective pixel.

일례로서, 심도 실효 화소의 주변 화소와 심도 실효 화소 사이의 거리는 제1 임계치 이하이다.As an example, the distance between the peripheral pixel of the depth effective pixel and the depth effective pixel is less than or equal to the first threshold.

도 10은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 주변 화소의 모식도를 나타낸다. 예를 들면, 제1 임계값이 0인 경우, 인접 화소만을 주변 화소로 한다. 예를 들면, 화소(5)의 인접 화소가 화소(1), 화소(2), 화소(3), 화소(4), 화소(6), 화소(7), 화소(8) 및 화소(9)를 포함하는 경우, 화소(1), 화소(2), 화소(3), 화소(4), 화소(6) 화소(7), 화소(8) 및 화소(9)를 화소(5)의 주변 화소로 한다.10 is a schematic diagram of peripheral pixels in a method for unlocking a door of a vehicle according to an embodiment of the present invention. For example, when the first threshold value is 0, only adjacent pixels are set as peripheral pixels. For example, the adjacent pixels of pixel 5 are pixel 1 , pixel 2 , pixel 3 , pixel 4 , pixel 6 , pixel 7 , pixel 8 , and pixel 9 . ), pixel (1), pixel (2), pixel (3), pixel (4), pixel (6), pixel (7), pixel (8), and pixel (9) of pixel (5)  with surrounding pixels.

도 11은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법에서의 주변 화소의 다른 모식도를 나타낸다. 예를 들면, 제1 임계치가 1인 경우, 인접 화소 이외에, 인접 화소의 주변의 화소도 주변 화소로 한다. 즉, 화소(1), 화소(2), 화소(3), 화소(4), 화소(6), 화소(7), 화소(8) 및 화소(9) 외에, 화소(10)∼화소(25)도 화소(5)의 주변 화소로 한다.11 is another schematic diagram of peripheral pixels in a method for unlocking a door of a vehicle according to an embodiment of the present invention. For example, when the first threshold value is 1, in addition to the adjacent pixel, pixels adjacent to the adjacent pixel are also regarded as adjacent pixels. That is, in addition to the pixel (1), the pixel (2), the pixel (3), the pixel (4), the pixel (6), the pixel (7), the pixel (8), and the pixel (9), the pixel 10 - the pixel ( 25) is also referred to as a peripheral pixel of the pixel 5 .

일례로서, 심도 실효 화소의 주변 화소의 심도 추정값 및 심도 실효 화소와 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 심도 실효 화소의 심도 관련값을 결정하고, 심도 실효 화소의 심도 추정값 및 심도 관련값에 기초하여, 심도 실효 화소의 갱신 후의 심도값을 결정한다.As an example, based on the depth estimation value of the peripheral pixel of the depth effective pixel and the degree of relationship between the depth effective pixel and the plurality of peripheral pixels of the depth effective pixel, a depth-related value of the depth effective pixel is determined, and the depth estimated value of the depth effective pixel and Based on the depth-related value, a depth value after updating of the effective depth pixel is determined.

다른 일례로서, 심도 실효 화소의 주변 화소의 심도 추정값 및 심도 실효 화소와 이 주변 화소의 관련도에 기초하여, 심도 실효 화소에 대한 이 주변 화소의 유효 심도값을 결정하고, 심도 실효 화소에 대한 그 각 주변 화소의 유효 심도값 및 심도 실효 화소의 심도 추정값에 기초하여, 심도 실효 화소의 갱신 후의 심도값을 결정한다. 예를 들면, 심도 실효 화소의 하나의 주변 화소의 심도 추정값과 이 주변 화소에 대응하는 관련도의 곱을 심도 실효 화소에 대한 이 주변 화소의 유효 심도값으로서 결정해도 된다. 여기서, 이 주변 화소에 대응하는 관련도란, 이 주변 화소와 심도 실효 화소의 관련도를 가리킨다. 예를 들면, 심도 실효 화소에 대한 그 각 주변 화소의 유효 심도값의 합과 제1 소정 계수의 곱을 결정하여 제1 곱을 얻고, 심도 실효 화소의 심도 추정값과 제2 소정 계수의 곱을 결정하여 제2 곱을 얻고, 제1 곱과 제2 곱의 합을 심도 실효 화소의 갱신 후의 심도값으로서 결정하도록 해도 된다. 일부 실시예에서는 제1 소정 계수와 제2 소정 계수의 합은 1로 한다.As another example, based on the depth estimation value of the peripheral pixel of the depth effective pixel and the relationship between the depth effective pixel and the peripheral pixel, an effective depth value of the peripheral pixel for the depth effective pixel is determined, and the effective depth value for the depth effective pixel is determined. Based on the effective depth value of each neighboring pixel and the depth estimation value of the depth effective pixel, the updated depth value of the depth effective pixel is determined. For example, the product of the estimated depth value of one neighboring pixel of the depth effective pixel and the degree of relevance corresponding to the neighboring pixel may be determined as the effective depth value of this neighboring pixel with respect to the depth effective pixel. Here, the degree of relevance corresponding to the surrounding pixel refers to the degree of relevance between the surrounding pixel and the effective depth pixel. For example, the first product is obtained by determining the product of the first predetermined coefficient and the sum of the effective depth values of the respective neighboring pixels with respect to the depth effective pixel, and the product of the depth estimated value of the depth effective pixel and the second predetermined coefficient is determined to obtain a second product The product may be obtained, and the sum of the first product and the second product may be determined as the depth value after the depth effective pixel is updated. In some embodiments, the sum of the first predetermined coefficient and the second predetermined coefficient is 1.

일례에서는, 심도 실효 화소와 각 주변 화소의 관련도를 각 주변 화소의 가중치로 하여, 심도 실효 화소의 복수의 주변 화소의 심도 추정값의 가중 합계를 계산하여, 심도 실효 화소의 심도 관련값을 얻는다. 예를 들면, 화소(5)를 심도 실효 화소로 하는 경우, 심도 실효 화소(5)의 심도 관련값이In one example, a weighted sum of depth estimated values of a plurality of peripheral pixels of the depth effective pixel is calculated using the degree of relevance between the depth effective pixel and each peripheral pixel as the weight of each peripheral pixel to obtain a depth related value of the depth effective pixel. For example, when the pixel 5 is a depth effective pixel, the depth-related value of the depth effective pixel 5 is

Figure pct00001
Figure pct00001

이 되고, 심도 실효 화소(5)의 갱신 후의 심도값(F5')은 식 1에 의해 결정할 수 있다., and the depth value F 5 ′ after the depth effective pixel 5 is updated can be determined by Equation 1 .

Figure pct00002
Figure pct00002

단,only,

Figure pct00003
Figure pct00003

이고, wi는 화소(i)와 화소(5)의 관련도를 나타내고, Fi는 화소(i)의 심도 추정값을 나타낸다., w i represents the degree of relevance between the pixel (i) and the pixel (5), and F i represents the estimated depth of the pixel (i).

다른 일례에서는 심도 실효 화소의 복수의 주변 화소의 각각과 심도 실효 화소의 관련도 및 각 주변 화소의 심도 추정값의 곱을 결정하고, 곱의 최대값을 심도 실효 화소의 심도 관련값으로 한다.In another example, the product of each of the plurality of peripheral pixels of the depth effective pixel, the degree of relevance of the depth effective pixel, and the estimated depth of each peripheral pixel is determined, and the maximum value of the product is set as the depth related value of the depth effective pixel.

일례에서는, 심도 실효 화소의 심도 추정값과 심도 관련값의 합을 심도 실효 화소의 갱신 후의 심도값으로 한다.In one example, the sum of the estimated depth value and the depth-related value of the effective depth pixel is the depth value after updating of the effective depth pixel.

다른 일례에서는 심도 실효 화소의 심도 추정값과 제3 소정 계수의 곱을 결정하여 제3 곱을 얻고, 심도 관련값과 제4 소정 계수의 곱을 결정하여 제4 곱을 얻고, 제3 곱과 제4 곱의 합을 심도 실효 화소의 갱신 후의 심도값으로 한다. 일부 실시예에서는 제3 소정 계수와 제4 소정 계수의 합은 1이 된다.In another example, the third product is obtained by determining the product of the depth estimate value of the depth effective pixel and the third predetermined coefficient, the product of the depth-related value and the fourth predetermined coefficient is determined to obtain the fourth product, and the sum of the third product and the fourth product is obtained Depth It is set as the depth value after the effective pixel is updated. In some embodiments, the sum of the third predetermined coefficient and the fourth predetermined coefficient is one.

일부 실시예에서는 제2 심도맵에서의 비심도 실효 화소의 심도값은 제1 심도맵에서의 이 비심도 실효 화소의 심도값과 동일하다.In some embodiments, the depth value of the non-depth effective pixel in the second depth map is the same as the depth value of the non-depth effective pixel in the first depth map.

다른 일부 실시예에서는 보다 정확한 제2 심도맵을 얻기 위해, 비심도 실효 화소의 심도값을 갱신하도록 해도 된다. 이에 의해, 생체 검출의 정확성을 더욱 높일 수 있다.In some other embodiments, in order to obtain a more accurate second depth map, the depth value of the non-depth effective pixel may be updated. Thereby, the accuracy of biometric detection can be further improved.

본 발명의 실시예에서는 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하고, 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 블루투스 모듈과 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하고, 블루투스 페어링·접속의 성공에 따라, 목표 대상물의 제1 이미지를 취득하도록 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하고, 제1 이미지에 기초하여 얼굴 인식을 행하고, 얼굴 인식의 성공에 따라 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신함으로써, 소정 식별자의 블루투스 디바이스와의 블루투스 페어링·접속이 확립되어 있지 않을 때, 얼굴 인식 모듈은 저소비 전력의 가동을 유지하기 위해 슬립 상태로 할 수 있고, 얼굴 인식에 의한 해정 방법의 소비 전력을 저감시킬 수 있음과 함께, 소정 식별자의 블루투스 디바이스를 소지하고 있는 사용자가 도어에 도착하기 전에, 얼굴 인식 모듈을 가동 가능한 상태로 할 수 있고, 소정 식별자의 블루투스 디바이스를 소지하고 있는 사용자가 도어에 도착하면, 이미지 취득 모듈에 의해 제1 이미지를 취득한 후, 웨이크업된 얼굴 인식 모듈에 의해 얼굴 이미지의 처리를 신속하게 행할 수 있고, 얼굴 인식의 효율을 높이고, 사용자 체험을 개선할 수 있다. 따라서, 본 발명의 실시예는 저소비 전력으로의 가동과 신속한 해정 모두 만족시킬 수 있다. 본 발명의 실시예를 채용하면, 차량 소유자가 차량에 접근하고 있을 때, 의도적으로 동작(예를 들면, 버튼의 터치나 제스처)하지 않고, 생체 검출과 얼굴 인증 플로우를 자동적으로 트리거할 수 있고, 차량 소유자의 생체 검출과 얼굴 인증이 성공하면 도어가 자동적으로 해정된다.According to the embodiment of the present invention, a Bluetooth device of a predetermined identifier can be searched for by a Bluetooth module mounted on a vehicle and a Bluetooth device of a predetermined identifier can be searched. Establish, according to the success of Bluetooth pairing/connection, wake up and control the image acquisition module mounted on the vehicle to acquire the first image of the target object, perform face recognition based on the first image, and face recognition success By sending a door unlocking command and/or door opening command to one or more doors of the vehicle according to the above, when Bluetooth pairing/connection with a Bluetooth device of a predetermined identifier is not established, the face recognition module maintains operation with low power consumption In order to do this, it can be put into a sleep state, power consumption of the unlock method by face recognition can be reduced, and the face recognition module can be operated before a user who has a Bluetooth device with a predetermined identifier arrives at the door When a user with a Bluetooth device of a predetermined identifier arrives at the door, the first image is acquired by the image acquisition module, and then the face image is processed quickly by the wake-up face recognition module In addition, it is possible to increase the efficiency of face recognition and improve the user experience. Therefore, the embodiment of the present invention can satisfy both operation with low power consumption and quick release. Employing an embodiment of the present invention, when the vehicle owner is approaching the vehicle, it is possible to automatically trigger the biometric detection and facial authentication flow without intentional action (e.g., a touch or gesture of a button), If the vehicle owner's biometric detection and face authentication are successful, the door unlocks automatically.

가능한 일 실현형태에서는 이 방법은 제1 이미지에 기초하여 얼굴 인식을 행한 후, 얼굴 인식의 실패에 따라 차량에 탑재되는 패스워드 잠금 해제 모듈을 활성화하여, 패스워드에 의한 잠금 해제 흐름을 기동하는 것을 추가로 포함한다.In one possible implementation form, the method further includes performing face recognition based on the first image and then activating a password unlocking module mounted on the vehicle according to the failure of the face recognition to start the unlocking flow by the password. include

이 실현형태에서는 패스워드에 의한 잠금 해제는 얼굴 인식에 의한 잠금 해제의 대체 수단이다. 얼굴 인식의 실패의 원인은 목표 대상물이 비생체임을 나타내는 생체 검출 결과인 것, 얼굴 인식이 실패한 것, 이미지 취득이 실패한(예를 들면, 카메라가 고장난) 것 및 인식 횟수가 소정의 횟수를 초과한 것 중 하나 이상을 포함해도 된다. 목표 대상물의 얼굴 인식이 실패하면, 패스워드에 의한 잠금 해제 플로우를 기동한다. 예를 들면, 사용자로부터 입력된 패스워드를 B필러의 터치 스크린에 의해 취득하도록 해도 된다. 일례에서는 패스워드의 입력을 M회, 예를 들면 5회 연속하여 잘못하면, 패스워드에 의한 잠금 해제는 실효가 되도록 해도 된다.In this realization embodiment, unlocking by password is an alternative means to unlocking by face recognition. The cause of the failure of the face recognition is that the biometric detection result indicating that the target object is non-living, that the face recognition has failed, that the image acquisition has failed (for example, the camera is broken), and that the number of recognition exceeds a predetermined number of times. One or more of these may be included. When the face recognition of the target object fails, a password unlocking flow is started. For example, the password input from the user may be acquired by the touch screen of the B pillar. In one example, if the password input is erroneous M times, for example, 5 times in a row, unlocking by the password may become invalid.

가능한 일 실현형태에서는 이 방법은 이미지 취득 모듈에 의해 취득된 차량 소유자의 얼굴 이미지에 기초하여 차량 소유자의 등록을 행하는 것과, 차량 소유자의 단말 장치에 의해 취득된 차량 소유자의 얼굴 이미지에 기초하여 원격 등록을 행하고, 차량 소유자의 얼굴 이미지를 포함하는 등록 정보를 차량에 송신하는 것 중 하나 또는 두 개를 추가로 포함한다.In one possible realization, the method comprises performing registration of the vehicle owner on the basis of the facial image of the vehicle owner acquired by the image acquisition module, and remote registration based on the facial image of the vehicle owner acquired by the terminal device of the vehicle owner. and sending, to the vehicle, registration information including the facial image of the vehicle owner.

일례에서는 이미지 취득 모듈에 의해 취득된 차량 소유자의 얼굴 이미지에 기초하여 차량 소유자의 등록을 행하는 것은 터치 스크린의 등록 버튼이 클릭되었음을 검출하면, 사용자에게 패스워드 입력을 요청하고, 패스워드의 검증이 성공하면, 이미지 취득 모듈의 RGB 카메라를 온으로 하여 사용자의 얼굴 이미지를 취득하고, 취득한 얼굴 이미지에 기초하여 등록을 행하고, 후속의 얼굴 인증시에 얼굴의 조합을 행하도록 이 얼굴 이미지에서의 얼굴 특징을 미리 등록된 얼굴 특징으로 하여 추출하는 것을 포함한다.In one example, performing registration of the vehicle owner based on the vehicle owner's face image acquired by the image acquisition module, when detecting that the registration button of the touch screen is clicked, requests the user to input a password, and when verification of the password is successful, Turn on the RGB camera of the image acquisition module to acquire a face image of the user, perform registration based on the acquired face image, and register facial features in this face image in advance to perform face combination upon subsequent face authentication and extracting it as a facial feature.

일례에서는, 차량 소유자의 단말 장치에 의해 취득된 차량 소유자의 얼굴 이미지에 기초하여 원격 등록을 행하고, 차량 소유자의 얼굴 이미지를 포함하는 등록 정보를 차량에 송신한다. 이 예에서는 차량 소유자는 휴대 전화의 App(Appliation, 애플리케이션)을 통해 TSP(Telematics Service, Provider, 자동차 텔레매틱스 서비스 프로바이더) 클라우드에 차량 소유자의 얼굴 이미지를 포함할 수 있는 등록 요청을 송신하고, TSP 클라우드는 등록 요청을 도어 잠금 해제 장치의 차재용 T-Box(Telematics Box, 텔레매틱스 박스)에 송신하고, 차량용 T-Box는 등록 요청에 따라 얼굴 인식 기능을 활성화하고, 등록 요청에 포함되는 얼굴 이미지에서의 얼굴 특징은 미리 등록된 얼굴 특징으로서 후속의 얼굴 인식시에 얼굴 조합에 사용하도록 해도 된다.In one example, remote registration is performed based on the vehicle owner's face image acquired by the vehicle owner's terminal device, and registration information including the vehicle owner's face image is transmitted to the vehicle. In this example, the vehicle owner sends a registration request, which can include the vehicle owner's face image, to the TSP (Telematics Service, Provider) cloud through an App on the mobile phone, and the TSP cloud sends a registration request to the vehicle-mounted T-Box (Telematics Box) of the door unlocking device, and the vehicle T-Box activates the face recognition function according to the registration request, and the face in the face image included in the registration request The features may be pre-registered facial features and may be used for face combination in subsequent face recognition.

도 12는 본 발명의 실시예에 따른 차량의 도어 잠금 해제 방법의 다른 흐름도를 나타낸다. 이 차량의 도어 잠금 해제 방법은 차량의 도어 잠금 해제 장치에 의해 실행되어도 된다. 가능한 일 실현형태에서는 이 차량의 도어 잠금 해제 방법은 프로세서가 메모리에 기억되어 있는 컴퓨터 판독 가능 명령을 불러냄으로써 실현되도록 해도 된다. 설명을 간소화하기 위해, 상술한 바와 유사한 부분에 대해 중복 설명은 생략한다. 도 12에 나타내는 바와 같이, 이 차량의 도어 잠금 해제 방법은 단계(S21)∼단계(S24)를 포함한다.12 is another flowchart of a method for unlocking a door lock of a vehicle according to an embodiment of the present invention. This vehicle door unlocking method may be executed by a vehicle door unlocking device. In one possible implementation form, the method for unlocking the door of the vehicle may be realized by a processor calling out a computer readable instruction stored in a memory. In order to simplify the description, redundant description of parts similar to those described above will be omitted. As shown in Fig. 12, this vehicle door unlocking method includes steps S21 to S24.

단계(21)에 있어서, 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색한다.In step 21, a Bluetooth device of a predetermined identifier is searched for by a Bluetooth module mounted in the vehicle.

가능한 일 실현형태에서는 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것은 상기 차량이 점화 오프 상태 또는 점화 오프 상태이고, 또한 도어 해정 상태에 있는 경우, 상기 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것을 포함한다.In one possible implementation form, searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on a vehicle is performed to a Bluetooth module mounted on the vehicle when the vehicle is in an ignition-off state or an ignition-off state and in a door unlocked state. and searching for a Bluetooth device of a predetermined identifier by

단계(S22)에서, 상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어한다.In step S22, as the Bluetooth device of the predetermined identifier can be searched for, the image acquisition module mounted on the vehicle is woken up and controlled to acquire a first image of the target object.

가능한 일 실현형태에서는 상기 소정 식별자의 블루투스 디바이스의 수는 하나이다.In one possible implementation, the number of Bluetooth devices of the given identifier is one.

다른 가능한 일 실현형태에서는 상기 소정 식별자의 블루투스 디바이스의 수는 복수이고, 상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것은 소정 식별자의 블루투스 디바이스 중 어느 하나를 검색할 수 있음에 따라, 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것을 포함한다.In another possible implementation form, the number of Bluetooth devices of the predetermined identifier is plural, and the image acquisition module mounted on the vehicle is woken up to acquire a first image of a target object according to being able to search for a Bluetooth device of the predetermined identifier. Up-controlling includes waking up and controlling an image acquisition module mounted on the vehicle to acquire a first image of a target object in response to being able to search for any one of the Bluetooth devices of a predetermined identifier.

가능한 일 실현형태에서는 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것은 상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업하는 것과, 웨이크업된 상기 얼굴 인식 모듈에 의해 목표 대상물의 제1 이미지를 취득하도록 상기 이미지 취득 모듈을 제어하는 것을 포함한다.In one possible implementation form, waking up and controlling an image acquisition module mounted on the vehicle to acquire a first image of a target object includes waking up a face recognition module mounted on the vehicle, and the wakeup face recognition module and controlling the image acquisition module to acquire a first image of the target object by

본 발명의 실시예에서는 블루투스를 채용함으로써, 초음파나 적외선 등의 단거리 센서 기술에 비해 긴 거리의 통신에 대응할 수 있다. 실천에 의하면, 소정 식별자의 블루투스 디바이스를 소지하고 있는 사용자가 이 거리(차량의 블루투스 모듈이 사용자의 소정 식별자의 블루투스 디바이스를 검색했을 때의 사용자와 차량의 거리)를 통행하여 차량에 도착하는 시간과, 차량이 얼굴 인식 모듈을 슬립 상태에서 가동 상태로 전환하도록 웨이크업하는 시간은 대략 일치하는 것을 나타내고 있다. 이에 의해, 사용자가 도어에 도착한 후 얼굴 인식 모듈의 웨이크업을 기다리는 것이 아니라, 사용자가 도어에 도착하면 웨이크업된 얼굴 인식 모듈에 의해 얼굴 인식에 의한 해정을 즉시 행할 수 있고, 얼굴 인식의 효율을 향상시키고, 사용자 체험을 개선시킬 수 있다. 또한, 사용자가 블루투스에 의한 검색을 느끼는 경우가 없기 때문에, 사용자 체험을 더욱 향상시킬 수 있다. 따라서, 본 발명의 실시예에서는 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라 얼굴 인식 모듈을 웨이크업하는 방법에 의해, 얼굴 인식 모듈의 전력 절약, 사용자 체험 및 보안성 등의 각 측면의 균형을 잘 취할 수 있는 해결책을 제공하고 있다.In an embodiment of the present invention, by employing Bluetooth, it is possible to cope with long-distance communication compared to short-range sensor technologies such as ultrasonic waves or infrared rays. According to practice, the time taken for a user carrying a Bluetooth device of a predetermined identifier to arrive in the vehicle through this distance (the distance between the user and the vehicle when the Bluetooth module of the vehicle searches for the Bluetooth device of the predetermined identifier of the user) , shows that the time for the vehicle to wake up to switch the facial recognition module from the sleep state to the wake state approximately coincides. Accordingly, instead of waiting for the wake-up of the face recognition module after the user arrives at the door, when the user arrives at the door, unlocking by face recognition can be immediately performed by the wake-up face recognition module, improving the efficiency of face recognition and improve the user experience. In addition, since the user does not feel the search by Bluetooth, the user experience can be further improved. Therefore, in the embodiment of the present invention, the balance of each aspect such as power saving, user experience and security of the face recognition module is balanced by the method of waking up the face recognition module according to the ability to search for a Bluetooth device with a predetermined identifier. We provide solutions that can be taken well.

가능한 일 실현형태에서는 상기 방법은 상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업한 후, 미리 설정된 시간 내에 얼굴 이미지를 취득할 수 없는 경우, 상기 얼굴 인식 모듈이 슬립 상태로 되도록 제어하는 것을 추가로 포함한다.In one possible implementation form, the method further includes controlling the face recognition module to enter a sleep state when a face image cannot be acquired within a preset time after waking up the face recognition module mounted on the vehicle do.

가능한 일 실현형태에서는 상기 방법은 상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업한 후, 미리 설정된 시간 내에 얼굴 인식에 성공하지 못한 경우, 상기 얼굴 인식 모듈이 슬립 상태로 되도록 제어하는 것을 추가로 포함한다.In one possible implementation form, the method further comprises: after waking up the face recognition module mounted on the vehicle, and controlling the face recognition module to enter a sleep state when the face recognition is not successful within a preset time .

단계(S23)에서, 상기 제1 이미지에 기초하여 얼굴 인식을 행한다.In step S23, face recognition is performed based on the first image.

단계(S24)에서, 얼굴 인식의 성공에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령이 송신된다.In step S24, a door unlock command and/or a door open command is sent to one or more doors of the vehicle according to the success of face recognition.

가능한 일 실현형태에서는 얼굴 인식의 성공에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것은 얼굴 인식의 성공에 따라 상기 목표 대상물에 해정 권한이 부여되는 도어를 결정하는 것과, 상기 목표 대상물에 해정 권한이 부여되는 도어에 따라, 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것을 포함한다.In one possible implementation, sending a door unlock command and/or a door open command to one or more doors of the vehicle upon success of face recognition determines which door is authorized to unlock on the target upon success of face recognition. and sending a door unlocking command and/or a door opening command to one or more doors of the vehicle, depending on the door to which the target object is granted unlocking authority.

가능한 일 실현형태에서는 상기 얼굴 인식은 생체 검출 및 얼굴 인증을 포함하고, 상기 제1 이미지에 기초하여 얼굴 인식을 행하는 것은 상기 이미지 취득 모듈의 이미지 센서에 의해 상기 제1 이미지를 취득하고, 제1 이미지 및 미리 등록된 얼굴 특징에 기초하여 얼굴 인증을 행하는 것과, 상기 이미지 취득 모듈의 심도 센서에 의해 상기 제1 이미지에 대응하는 제1 심도맵을 취득하고, 상기 제1 이미지 및 제1 심도맵에 기초하여 생체 검출을 행하는 것을 포함한다.In one possible implementation form, the face recognition includes biometric detection and face authentication, and performing face recognition based on the first image acquires the first image by an image sensor of the image acquisition module, and the first image and performing face authentication based on pre-registered facial features, acquiring a first depth map corresponding to the first image by a depth sensor of the image acquisition module, and based on the first image and the first depth map to perform biometric detection.

가능한 일 실현형태에서는 상기 제1 이미지 및 상기 제1 심도맵에 기초하여 생체 검출을 행하는 것은 상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것과, 상기 제1 이미지 및 상기 제2 심도맵에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함한다.In one possible implementation form, performing biometric detection based on the first image and the first depth map includes: updating the first depth map based on the first image to obtain a second depth map; and determining a biometric detection result of the target object based on the second depth map.

가능한 일 실현형태에서는 상기 이미지 센서는 RGB 이미지 센서 또는 적외선 센서를 포함하고, 상기 심도 센서는 양안 적외선 센서 또는 비행 시간 TOF 센서를 포함한다.In one possible realization, the image sensor comprises an RGB image sensor or an infrared sensor and the depth sensor comprises a binocular infrared sensor or a time-of-flight TOF sensor.

가능한 일 실현형태에서는 상기 TOF 센서는 적외선 파장역에 기초하는 TOF 모듈을 사용한다.In one possible realization, the TOF sensor uses a TOF module based on the infrared wavelength range.

가능한 일 실현형태에서는 상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은 상기 제1 이미지에 기초하여 상기 제1 심도맵에서의 심도 실효 화소의 심도값을 갱신하여 상기 제2 심도맵을 얻는 것을 포함한다.In one possible implementation form, updating the first depth map based on the first image to obtain a second depth map is performed by updating a depth value of an effective depth pixel in the first depth map based on the first image. and obtaining the second depth map.

가능한 일 실현형태에서는 상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은 상기 제1 이미지에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값 및 복수의 화소끼리의 관련도를 나타내는 관련 정보를 결정하는 것과, 상기 복수의 화소의 심도 추정값 및 관련 정보에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것을 포함한다.In one possible implementation, updating the first depth map based on the first image to obtain a second depth map includes: depth estimates of a plurality of pixels in the first image and a plurality of pixels based on the first image determining related information indicating the degree of relevance between each other; and updating the first depth map based on the estimated depth values of the plurality of pixels and the related information to obtain a second depth map.

가능한 일 실현형태에서는 상기 복수의 화소의 심도 추정값 및 관련 정보에 기초하여, 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은 상기 제1 심도맵에서의 심도 실효 화소를 결정하는 것과, 상기 복수의 화소의 심도 추정값 중, 상기 심도 실효 화소의 심도 추정값 및 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값을 취득하는 것과, 상기 복수의 화소의 관련 정보로부터, 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도를 취득하는 것과, 상기 심도 실효 화소의 심도 추정값, 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값, 및 상기 심도 실효 화소와 상기 심도 실효 화소의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 단계를 포함하는 단계를 포함한다.In one possible implementation form, updating the first depth map to obtain a second depth map based on the estimated depth values and related information of the plurality of pixels comprises: determining a depth effective pixel in the first depth map; obtaining a depth estimated value of the depth effective pixel and depth estimated values of a plurality of neighboring pixels of the depth effective pixel from among the depth estimation values of a plurality of pixels; Acquiring the degree of relevance of a plurality of peripheral pixels of a pixel, a depth estimated value of the depth effective pixel, a depth estimated value of a plurality of peripheral pixels of the depth effective pixel, and a relationship between the depth effective pixel and a peripheral pixel of the depth effective pixel and determining a depth value after updating of the depth effective pixel based on the figure.

가능한 일 실현형태에서는 상기 심도 실효 화소의 심도 추정값, 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값, 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것은 상기 심도 실효 화소의 주변 화소의 심도 추정값, 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 심도 관련값을 결정하는 것과, 상기 심도 실효 화소의 심도 추정값 및 상기 심도 관련값에 기초하여 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것을 포함한다.In one possible realization, based on a depth estimate of the depth effective pixel, a depth estimate of a plurality of neighboring pixels of the depth effective pixel, and a degree of relation between the depth effective pixel and a plurality of neighboring pixels of the depth effective pixel, the depth Determining the updated depth value of the effective pixel is based on a depth estimate value of a neighboring pixel of the depth effective pixel, and a degree of relevance between the depth effective pixel and a plurality of neighboring pixels of the depth effective pixel, the depth of the depth effective pixel determining a related value; and determining a depth value after updating of the depth effective pixel based on the depth estimation value of the depth effective pixel and the depth related value.

가능한 일 실현형태에서는 상기 심도 실효 화소의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 심도 관련값을 결정하는 것은 상기 심도 실효 화소와 각 주변 화소의 관련도를 상기 각 주변 화소의 가중치로서 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값의 가중 합계를 계산하여, 상기 심도 실효 화소의 심도 관련값을 얻는 것을 포함한다.In one possible implementation form, determining the depth-related value of the depth effective pixel based on a depth estimate value of a neighboring pixel of the depth effective pixel and a degree of relevance between the depth effective pixel and a plurality of neighboring pixels of the depth effective pixel may include: calculating a weighted sum of depth estimation values of a plurality of peripheral pixels of the depth effective pixel by using the degree of relevance between the depth effective pixel and each surrounding pixel as the weight of each of the surrounding pixels to obtain a depth related value of the depth effective pixel .

가능한 일 실현형태에서는 상기 제1 이미지에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것은 상기 제1 이미지 및 상기 제1 심도맵에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것을 포함한다.In one possible implementation, determining a depth estimate of a plurality of pixels in the first image based on the first image comprises: determining a depth estimate of a plurality of pixels in the first image based on the first image and the first depth map. Determining a depth estimate of

가능한 일 실현형태에서는 상기 제1 이미지 및 상기 제1 심도맵에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것은 상기 제1 이미지 및 상기 제1 심도맵을 심도 추정 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 얻는 것을 포함한다.In one possible implementation, determining the depth estimate values of a plurality of pixels in the first image based on the first image and the first depth map comprises the first image and the first depth map to a depth estimation neural network. input, processing, and obtaining depth estimates of a plurality of pixels in the first image.

가능한 일 실현형태에서는 상기 제1 이미지 및 상기 제1 심도맵에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것은 상기 제1 이미지 및 상기 제1 심도맵에 대해 융합 처리를 행하여 융합 결과를 얻는 것과, 상기 융합 결과에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것을 포함한다.In one possible realization, determining the depth estimate values of a plurality of pixels in the first image based on the first image and the first depth map is performed by performing a fusion process on the first image and the first depth map. obtaining a fusion result, and determining depth estimates of a plurality of pixels in the first image based on the fusion result.

가능한 일 실현형태에서는 상기 제1 이미지에 기초하여 상기 제1 이미지에서의 복수의 화소의 관련 정보를 결정하는 것은 상기 제1 이미지를 관련도 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서의 복수의 화소의 관련 정보를 얻는 것을 포함한다.In one possible realization, determining the relevant information of a plurality of pixels in the first image based on the first image is processed by inputting the first image into a relevance detection neural network, and and obtaining related information of the plurality of pixels.

가능한 일 실현형태에서는 상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하는 것은 상기 제1 이미지에서 목표 대상물의 이미지를 취득하는 것과, 상기 목표 대상물의 이미지에 기초하여, 상기 제1 심도맵을 갱신하는 것을 포함한다.In one possible implementation form, updating the first depth map based on the first image includes acquiring an image of a target object from the first image, and generating the first depth map based on the image of the target object. including updating.

가능한 일 실현형태에서는 상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것은 상기 제1 이미지에서의 상기 목표 대상물의 키포인트의 정보를 취득하는 것과, 상기 목표 대상물의 키 포인트의 정보에 기초하여, 상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것을 포함한다.In one possible implementation form, acquiring the image of the target object in the first image includes acquiring information of key points of the target object in the first image, and based on the information of key points of the target object, the and acquiring an image of the target object in a first image.

가능한 일 실현형태에서는 제1 이미지에서의 상기 목표 대상물의 키포인트 정보를 취득하는 것은 상기 제1 이미지에 대해 목표 검출을 행하여, 상기 목표 대상물의 위치 영역을 얻는 것과, 상기 목표 대상물의 소재 영역의 이미지에 대해 키포인트 검출을 행하여, 상기 제1 이미지에서의 상기 목표 대상물의 키포인트의 정보를 얻는 것을 포함한다.In one possible implementation form, obtaining keypoint information of the target object in the first image includes performing target detection on the first image to obtain a location area of the target object, and obtaining the target object's material area image and performing keypoint detection for the target object to obtain information of keypoints of the target object in the first image.

가능한 일 실현형태에서는 상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은 상기 제1 심도맵에서 상기 목표 대상물의 심도맵을 취득하는 것과, 상기 제1 이미지에 기초하여 상기 목표 대상물의 심도맵을 갱신하여 상기 제2 심도맵을 얻는 것을 포함한다.In one possible implementation form, updating the first depth map based on the first image to obtain a second depth map includes acquiring a depth map of the target object from the first depth map, and based on the first image and updating the depth map of the target object to obtain the second depth map.

가능한 일 실현형태에서는 상기 제1 이미지 및 상기 제2 심도맵에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것은 상기 제1 이미지 및 상기 제2 심도맵을 생체 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 목표 대상물의 생체 검출 결과를 얻는 것을 포함한다.In one possible implementation form, determining the biometric detection result of the target object based on the first image and the second depth map includes inputting the first image and the second depth map into a biometric detection neural network and processing; and obtaining a biometric detection result of the target object.

가능한 일 실현형태에서는 상기 제1 이미지 및 상기 제2 심도맵에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것은 상기 제1 이미지에 대해 특징 추출 처리를 행하여, 제1 특징 정보를 얻는 것과, 상기 제2 심도맵에 대해 특징 추출 처리를 행하여, 제2 특징 정보를 얻는 것과, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함한다.In one possible implementation form, determining the biometric detection result of the target object based on the first image and the second depth map includes performing feature extraction processing on the first image to obtain first feature information; performing feature extraction processing on the second depth map to obtain second feature information; and determining a biometric detection result of the target object based on the first feature information and the second feature information.

가능한 일 실현형태에서는 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것은 상기 제1 특징 정보 및 상기 제2 특징 정보에 대해 융합 처리를 행하여, 제3 특징 정보를 얻는 것과, 상기 제3 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함한다.In one possible implementation form, determining the biometric detection result of the target object based on the first characteristic information and the second characteristic information performs a fusion process on the first characteristic information and the second characteristic information, obtaining characteristic information; and determining a biometric detection result of the target object based on the third characteristic information.

가능한 일 실현형태에서는 상기 제3 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것은 상기 제3 특징 정보에 기초하여 상기 목표 대상물이 생체인 확률을 얻는 것과, 상기 목표 대상물이 생체인 확률에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함한다.In one possible implementation form, determining the biometric detection result of the target object based on the third characteristic information includes obtaining a probability that the target object is a living body based on the third characteristic information, and a probability that the target object is a living body and determining a biometric detection result of the target object based on the .

가능한 일 실현형태에서는 상기 방법은 상기 제1 이미지에 기초하여 얼굴 인식을 행한 후, 얼굴 인식의 실패에 따라 패스워드에 의한 잠금 해제의 흐름을 기동하도록 상기 차량에 탑재되는 패스워드 잠금 해제 모듈을 활성화하는 것을 추가로 포함한다.In one possible implementation form, the method includes, after performing face recognition based on the first image, activating a password unlocking module mounted on the vehicle to initiate a flow of unlocking by a password according to a failure of face recognition. additionally include

가능한 일 실시형태에서는 상기 방법은 상기 이미지 취득 모듈에 의해 취득된 차량 소유자의 얼굴 이미지에 기초하여 차량 소유자의 등록을 행하는 것과, 상기 차량 소유자의 단말 장치에 의해 취득된 상기 차량 소유자의 얼굴 이미지에 기초하여 원격 등록을 행하고, 상기 차량 소유자의 얼굴 이미지를 포함하는 등록 정보를 상기 차량에 송신하는 것 중 하나 또는 2개를 추가로 포함한다.In one possible embodiment, the method comprises performing registration of a vehicle owner based on a facial image of the vehicle owner acquired by the image acquisition module, and based on the facial image of the vehicle owner acquired by the terminal device of the vehicle owner. to perform remote registration, and to transmit registration information including a face image of the vehicle owner to the vehicle.

본 발명물에서 언급되는 상기 각 방법의 실시예는 원리와 논리를 위반하지 않는 한, 서로 조합하여 실시예를 형성할 수 있음을 이해해야 하고, 분량에 한계가 있기 때문에, 본 발명에서는 그 설명을 생략한다.It should be understood that the embodiments of each method mentioned in the present invention can be combined with each other to form embodiments as long as the principles and logic are not violated. do.

당업자라면 구체적인 실시형태의 상기 방법에 기재된 각 단계의 순서는 실시 순서를 엄밀하게 당해 순서에 한정하는 것은 아니다. 각 단계의 구체적인 실행 순서는 각 단계의 기능과 가능한 내재적 논리에 따라 결정되는 것을 이해해야 한다.For those skilled in the art, the order of each step described in the method of the specific embodiment does not strictly limit the order of implementation. It should be understood that the specific execution sequence of each step is determined by the function of each step and the possible implicit logic.

또한, 본 발명은 차량의 도어 잠금 해제 장치, 전자 기기, 컴퓨터 판독 가능 기억 매체, 프로그램을 추가로 제공하고, 이들 전부 본 발명에서 제공되는 차량의 도어 잠금 해제 방법 중 어느 하나를 실현하기 위해 이용 가능하고, 대응하는 기술적 수단 및 설명에 대해서는 방법이 대응하는 기재를 참조하면 되고, 여기서 생략한다. In addition, the present invention further provides a vehicle door unlocking device, an electronic device, a computer readable storage medium, and a program, all of which can be used to realize any one of the vehicle door unlocking methods provided in the present invention And, for the corresponding technical means and description, reference may be made to the description corresponding to the method, and it is omitted here.

도 13은 본 발명의 실시예에 따른 차량의 도어 잠금 해제 장치의 블록도를 나타낸다. 도 13에 나타내는 바와 같이, 상기 차량의 도어 잠금 해제 장치는 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하기 위한 검색 모듈(31)과, 상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 상기 블루투스 모듈과 상기 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하고, 상기 블루투스 페어링·접속의 성공에 따라 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하거나, 또는 상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하기 위한 웨이크업 모듈(32)과, 상기 제1 이미지에 기초하여 얼굴 인식을 행하기 위한 얼굴 인식 모듈(33)과, 얼굴 인식의 성공에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하기 위한 잠금 해제 모듈(34)을 구비한다.13 is a block diagram of a door unlocking device for a vehicle according to an embodiment of the present invention. As shown in FIG. 13 , the vehicle door unlocking device can search for a Bluetooth device of a predetermined identifier and a search module 31 for searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on the vehicle. to establish a Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier, and wake up an image acquisition module mounted on the vehicle to acquire a first image of a target object according to the success of the Bluetooth pairing/connection. A wakeup module 32 for waking up and controlling an image acquisition module mounted on the vehicle to acquire a first image of a target object according to being able to control it up or search for a Bluetooth device of the predetermined identifier and a face recognition module 33 for performing face recognition based on the first image, and for sending a door unlock command and/or a door open command to one or more doors of the vehicle upon success of face recognition and an unlocking module (34).

본 발명의 실시예에서는 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 블루투스 모듈과 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하고, 블루투스 페어링·접속의 성공에 따라 얼굴 인식 모듈을 웨이크업하여, 목표 대상물의 제1 이미지를 취득하도록 이미지 취득 모듈을 제어함으로써, 블루투스 페어링·접속에 성공하고 나서 얼굴 인식 모듈을 웨이크업하는 방법에 의해, 얼굴 인식 모듈의 웨이크업 오류 확률을 효과적으로 낮출 수 있고, 사용자 체험을 향상시키고, 얼굴 인식 모듈의 소비 전력을 효과적으로 저감시킬 수 있다.In an embodiment of the present invention, as a Bluetooth device of a predetermined identifier can be searched for, Bluetooth pairing/connection is established between the Bluetooth module and a Bluetooth device of a predetermined identifier, and the face recognition module wakes up according to the success of Bluetooth pairing/connection. Thus, by controlling the image acquisition module to acquire the first image of the target object, the wakeup error probability of the facial recognition module can be effectively lowered by the method of waking up the face recognition module after successful Bluetooth pairing/connection, , it is possible to improve the user experience and effectively reduce the power consumption of the face recognition module.

가능한 일 실현형태에서는 상기 검색 모듈(31)은 상기 차량이 점화 오프 상태 또는 점화 오프이고, 또한 도어 잠금 상태에 있는 경우, 상기 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색한다. 이 실시형태에서는 차량의 점화 오프 전에 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색할 필요는 없고, 또는 차량의 점화 오프 전에 및 차량이 점화 오프 상태에 있지만 도어가 잠긴 상태는 아닐 때, 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색할 필요는 없기 때문에, 소비 전력을 더욱 저감시킬 수 있다.In one possible realization, the search module 31 searches for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on the vehicle when the vehicle is in an ignition-off state or an ignition-off state and in a door lock state. In this embodiment, it is not necessary to search for the Bluetooth device of a predetermined identifier by the Bluetooth module before the vehicle's ignition is off, or before the vehicle's ignition off and when the vehicle is in the ignition off state but the door is not locked, the Bluetooth module Since there is no need to search for a Bluetooth device with a predetermined identifier, power consumption can be further reduced.

가능한 일 실현형태에서는 상기 소정 식별자의 블루투스 디바이스의 수는 하나이다.In one possible implementation, the number of Bluetooth devices of the given identifier is one.

가능한 일 실시형태에서는 상기 소정 식별자의 블루투스 디바이스의 수는 복수이다.In one possible embodiment, the number of Bluetooth devices of the given identifier is plural.

상기 웨이크업 모듈(32)은 소정 식별자의 블루투스 디바이스 중 어느 하나를 검색할 수 있음에 따라, 상기 블루투스 모듈과 당해 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하거나, 또는 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것에 사용된다.When the wakeup module 32 can search for any one of the Bluetooth devices of the predetermined identifier, it establishes Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier, or a first image of the target object. It is used to wake up and control the image acquisition module mounted on the vehicle to acquire .

가능한 일 실현형태에서는 상기 웨이크업 모듈(32)은 상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업하기 위한 웨이크업 서브 모듈과, 웨이크업된 상기 얼굴 인식 모듈에 의해 목표 대상물의 제1 이미지를 취득하도록 상기 이미지 취득 모듈을 제어하기 위한 제어 서브 모듈을 갖는다.In one possible implementation form, the wake-up module 32 includes a wake-up sub-module for waking up a face recognition module mounted on the vehicle, and a first image of a target object by the wake-up face recognition module. and a control sub-module for controlling the image acquisition module.

본 발명의 실시예에서는 소정 식별자의 블루투스 디바이스를 검색할 수 있는 경우, 소정 식별자의 블루투스 디바이스를 소지하고 있는 사용자(예를 들면, 차량 소유자)가 블루투스 모듈의 검색 범위 내에 들어갈 가능성이 높은 것이 개시되어 있다. 이 때, 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 블루투스 모듈과 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하고, 블루투스 페어링·접속의 성공에 따라 얼굴 인식 모듈을 웨이크업하여 목표 대상물의 제1 이미지를 취득하도록 이미지 취득 모듈을 제어함으로써, 블루투스 페어링·접속에 성공하고 나서 얼굴 인식 모듈을 웨이크업하는 방법에 의해, 얼굴 인식 모듈의 웨이크업 오류 확률을 효과적으로 낮출 수 있고, 사용자 체험을 향상시키고, 얼굴 인식 모듈의 소비 전력을 효과적으로 저감시킬 수 있다. 또한, 블루투스의 페어링·접속 방법은 초음파나 적외선 등의 단거리 센서 기술에 비해, 보안성이 높고, 긴 거리의 통신에 대응한다는 이점이 있다. 실천에 의하면, 소정 식별자의 블루투스 디바이스를 소지하고 있는 사용자가 이 거리(블루투스 페어링·접속에 성공했을 때의 사용자와 차량의 거리)를 통행하여 차량에 도착하는 시간과, 차량이 얼굴 인식 모듈을 슬립 상태에서 가동 상태로 전환하도록 웨이크업하는 시간은 대략 일치하는 것을 나타내고 있다. 이에 의해, 사용자가 도어에 도착한 후, 얼굴 인식 모듈의 웨이크업을 기다리는 것이 아니라, 사용자가 도어에 도착하면 웨이크업된 얼굴 인식 모듈에 의해 얼굴 인식에 의한 해정을 즉시 행할 수 있고, 얼굴 인식 효율을 향상시키고, 사용자 체험을 개선할 수 있다. 또한, 사용자가 블루투스 페어링·접속을 느끼는 경우는 없기 때문에, 사용자 체험을 더욱 향상시킬 수 있다. 따라서, 본 발명의 실시예에서는 블루투스 페어링·접속에 성공하고 나서 얼굴 인식 모듈을 웨이크업하는 방법에 의해, 얼굴 인식 모듈의 전력 절약, 사용자 체험 및 보안성 등의 각 측면의 균형을 잘 취할 수 있는 해결책을 제공하고 있다.In an embodiment of the present invention, when a Bluetooth device of a predetermined identifier can be searched for, it is disclosed that a user (eg, a vehicle owner) possessing a Bluetooth device of a predetermined identifier is highly likely to enter the search range of the Bluetooth module. have. At this time, as the Bluetooth device of the predetermined identifier can be searched, Bluetooth pairing/connection is established between the Bluetooth module and the Bluetooth device of the predetermined identifier, and the face recognition module is woken up according to the success of the Bluetooth pairing/connection to the target object. By controlling the image acquisition module to acquire the first image of improved, and the power consumption of the face recognition module can be effectively reduced. In addition, the Bluetooth pairing/connection method has advantages in that it has high security and supports long-distance communication compared to short-range sensor technologies such as ultrasonic waves and infrared rays. According to practice, the time it takes for a user who has a Bluetooth device with a predetermined identifier to arrive at the vehicle through this distance (the distance between the user and the vehicle when Bluetooth pairing/connection is successful), and the vehicle sleeps the face recognition module The time to wake up to transition from state to active state is shown to be approximately coincident. Accordingly, instead of waiting for the wake-up of the face recognition module after the user arrives at the door, when the user arrives at the door, unlocking by face recognition can be immediately performed by the wake-up face recognition module, and face recognition efficiency is improved. and improve the user experience. In addition, since the user does not feel Bluetooth pairing/connection, the user experience can be further improved. Therefore, in the embodiment of the present invention, by the method of waking up the face recognition module after Bluetooth pairing/connection is successful, it is possible to achieve a good balance in each aspect such as power saving, user experience and security of the face recognition module. providing a solution.

가능한 일 실현형태에서는 상기 장치는 미리 설정된 시간 내에 얼굴 이미지를 취득할 수 없는 경우, 상기 얼굴 인식 모듈이 슬립 상태가 되도록 제어하기 위한 제1 제어 모듈을 추가로 구비한다. 이 실시형태는 얼굴 인식 모듈을 웨이크업하고 나서 미리 설정된 시간 내에 얼굴 이미지를 취득할 수 없을 때, 얼굴 인식 모듈이 슬립 상태가 되도록 제어함으로써 소비 전력을 저감시킬 수 있다.In one possible realization, the device further comprises a first control module for controlling the face recognition module to go to sleep when the face image cannot be acquired within a preset time. This embodiment can reduce power consumption by controlling the face recognition module to enter a sleep state when a face image cannot be acquired within a preset time after waking up the face recognition module.

가능한 일 실현형태에서는 상기 장치는 미리 설정된 시간 내에 얼굴 인식에 성공하지 못한 경우, 상기 얼굴 인식 모듈이 슬립 상태가 되도록 제어하기 위한 제2 제어 모듈을 추가로 구비한다. 이 실현형태는 얼굴 인식 모듈을 웨이크업하고 나서 미리 설정된 시간 내에 얼굴 인식에 성공하지 못한 경우, 얼굴 인식 모듈이 슬립 상태가 되도록 제어함으로써 소비 전력을 저감시킬 수 있다.In one possible realization, the device further includes a second control module for controlling the face recognition module to enter a sleep state when the face recognition is not successful within a preset time. This realization mode can reduce power consumption by controlling the face recognition module to enter a sleep state when face recognition is not successful within a preset time after waking up the face recognition module.

가능한 일 실현형태에서는 상기 잠금 해제 모듈(34)은 얼굴 인식의 성공에 따라 상기 목표 대상물에 해정 권한이 부여되는 도어를 결정하는 것과, 상기 목표 대상물에 해정 권한이 부여되는 도어에 따라, 상기 차량의 하나 이상의 도어에 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것에 사용된다.In one possible realization, the unlocking module 34 determines a door to which unlocking authority is granted to the target object according to success of face recognition, and according to a door to which unlocking authority is granted to the target object, Used to send an unlock command and/or a door open command to one or more doors.

가능한 일 실현형태에서는 상기 얼굴 인식은 생체 검출 및 얼굴 인증을 포함하고, 상기 얼굴 인식 모듈(33)은 상기 이미지 취득 모듈의 이미지 센서에 의해 상기 제1 이미지를 취득하고, 상기 제1 이미지 및 미리 등록된 얼굴 특징에 기초하여 얼굴 인증을 행하기 위한 얼굴 인증 모듈과, 상기 이미지 취득 모듈의 심도 센서에 의해 상기 제1 이미지에 대응하는 제1 심도맵을 취득하고, 상기 제1 이미지 및 상기 제1 심도맵에 기초하여 생체 검출을 행하기 위한 생체 검출 모듈을 갖는다.In one possible realization, the face recognition includes biometric detection and face authentication, and the face recognition module 33 acquires the first image by means of an image sensor of the image acquisition module, and registers the first image and the face in advance. a face authentication module for performing face authentication based on the obtained facial features; and a first depth map corresponding to the first image is acquired by a depth sensor of the image acquisition module, the first image and the first depth It has a biometric detection module for performing biometric detection based on the map.

이 실현형태에서는 생체 검출은 목표 대상물이 생체인지 여부를 검증하기 위한 것이고, 예를 들면, 목표 대상물이 인체인지 여부를 검증할 수 있다. 얼굴 인증은 취득된 이미지에서의 얼굴 특징을 추출하고, 취득된 이미지에서의 얼굴 특징을 미리 등록된 얼굴 특징과 조합하여, 동일한 사람의 얼굴 특징인지 여부를 판단하기 위한 것이고, 예를 들면, 취득된 이미지에서의 얼굴 특징이 차량 소유자의 얼굴 특징인지 여부를 판단할 수 있다.In this embodiment, the biometric detection is for verifying whether the target object is a living body, for example, it can verify whether the target object is a human body. Facial authentication is for extracting facial features from an acquired image and combining the facial features from the acquired image with pre-registered facial features to determine whether they are facial features of the same person, for example, It may be determined whether the facial feature in the image is the facial feature of the vehicle owner.

가능한 일 실현형태에서는 상기 생체 검출 모듈은 상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻기 위한 갱신 서브 모듈과, 상기 제1 이미지 및 상기 제2 심도맵에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하기 위한 결정 서브 모듈을 갖는다.In one possible implementation form, the biometric detection module includes an update submodule configured to update the first depth map based on the first image to obtain a second depth map, and based on the first image and the second depth map, , has a determination sub-module for determining a biometric detection result of the target object.

가능한 일 실현형태에서는 상기 이미지 센서는 RGB 이미지 센서 또는 적외선 센서를 포함하고, 상기 심도 센서는 양안 적외선 센서 또는 비행 시간 TOF 센서를 포함한다. 목표 대상물을 포함하는 심도맵에 의해 생체 검출을 행함으로써, 목표 대상물의 심도 정보를 충분히 알아낼 수 있고, 생체 검출의 정확성을 높일 수 있다. 본 발명의 실시예에서는 예를 들면, 목표 대상물이 얼굴인 경우, 얼굴을 포함하는 심도맵을 사용하여 생체 검출을 행함으로써, 얼굴 데이터의 심도 정보를 충분히 알아낼 수 있고, 생체 얼굴 검출의 정확성을 높일 수 있다.In one possible realization, the image sensor comprises an RGB image sensor or an infrared sensor and the depth sensor comprises a binocular infrared sensor or a time-of-flight TOF sensor. By performing the biometric detection using the depth map including the target object, depth information of the target object can be sufficiently obtained, and the accuracy of the biometric detection can be increased. In the embodiment of the present invention, for example, when the target object is a face, by performing biometric detection using a depth map including the face, depth information of face data can be sufficiently found, and the accuracy of biometric face detection can be improved. can

가능한 일 실현형태에서는 상기 TOF 센서는 적외선 파장역에 기초하는 TOF 모듈을 사용한다. 적외선 파장역에 기초하는 TOF 모듈을 사용함으로써, 외부의 광선에 의한 심도맵의 촬영에 대한 영향을 저감시킬 수 있다.In one possible realization, the TOF sensor uses a TOF module based on the infrared wavelength range. By using the TOF module based on the infrared wavelength range, it is possible to reduce the influence of the external light on the imaging of the depth map.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 제1 이미지에 기초하여 상기 제1 심도맵에서의 심도 실효 화소의 심도값을 갱신하여 상기 제2 심도맵을 얻는 것에 사용된다.In one possible implementation, the updating submodule is used to update the depth value of the effective depth pixel in the first depth map based on the first image to obtain the second depth map.

여기서, 심도맵에서의 심도 실효 화소란, 심도맵에 포함되고, 무효인 심도값을 갖는 화소, 즉 정확하지 않은 심도값 또는 현실적으로 분명히 맞지 않는 심도값을 갖는 화소를 가리켜도 된다. 심도 실효 화소의 수는 하나 또는 복수여도 된다. 심도맵에서의 하나 이상의 심도 실효 화소의 심도값을 갱신함으로써, 심도 실효 화소의 심도값이 보다 정확해지고, 생체 검출의 정확률의 향상에 기여한다.Here, the effective depth pixel in the depth map may refer to a pixel included in the depth map and having an invalid depth value, that is, a pixel having an incorrect depth value or a depth value that does not clearly match realistically. The number of depth effective pixels may be one or plural. By updating the depth values of one or more effective depth pixels in the depth map, the depth values of the effective depth pixels become more accurate, contributing to the improvement of the accuracy of biometric detection.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 제1 이미지에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값 및 상기 복수의 화소끼리의 관련도를 나타내는 관련 정보를 결정하고, 상기 복수의 화소의 심도 추정값 및 관련 정보에 기초하여, 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것에 사용된다.In one possible implementation form, the updating submodule determines, based on the first image, depth estimation values of a plurality of pixels in the first image and related information indicating a degree of relevance between the plurality of pixels, and the plurality of pixels is used to obtain a second depth map by updating the first depth map based on the depth estimation value and related information.

가능한 일 실시형태에서는 상기 갱신 서브 모듈은 상기 제1 심도맵에서의 심도 실효 화소를 결정하는 것과, 상기 복수의 화소의 심도 추정값 중, 상기 심도 실효 화소의 심도 추정값 및 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값을 취득하는 것과, 상기 복수의 화소의 관련 정보로부터, 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소와의 관련도를 취득하는 것과, 상기 심도 실효 화소의 심도 추정값, 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것에 사용된다.In one possible embodiment, the updating submodule is configured to determine the effective depth pixel in the first depth map, and, among the estimated depth values of the plurality of pixels, the estimated depth of the depth effective pixel and a plurality of perimeters of the depth effective pixel. obtaining a depth estimate value of a pixel; obtaining, from the related information of the plurality of pixels, a degree of relation between the depth effective pixel and a plurality of neighboring pixels of the depth effective pixel; a depth estimate value of the depth effective pixel; used to determine a depth value after updating of the depth effective pixel based on the estimated depth values of the plurality of peripheral pixels of the depth effective pixel and the degree of relation between the depth effective pixel and the peripheral pixels of the depth effective pixel.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 심도 실효 화소의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여 상기 심도 실효 화소의 심도 관련값을 결정하는 것과, 상기 심도 실효 화소의 심도 추정값 및 상기 심도 관련값에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것에 사용된다.In one possible implementation mode, the updating submodule is configured to calculate a depth-related value of the depth effective pixel based on a depth estimate value of a neighboring pixel of the depth effective pixel and a degree of relation between the depth effective pixel and a plurality of neighboring pixels of the depth effective pixel. and determining the updated depth value of the depth effective pixel based on the depth estimation value of the depth effective pixel and the depth-related value.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 심도 실효 화소와 각 주변 화소의 관련도를 상기 각 주변 화소의 가중치로 하여 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값의 가중 합계를 계산하여 상기 심도 실효 화소의 심도 관련값을 얻는 것에 사용된다.In one possible implementation mode, the update submodule calculates a weighted sum of depth estimation values of a plurality of neighboring pixels of the depth effective pixel by using the degree of relevance between the depth effective pixel and each neighboring pixel as a weight of each neighboring pixel to calculate the depth. It is used to obtain the depth-related value of the effective pixel.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 제1 이미지 및 제1 심도맵에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것에 사용된다.In one possible realization, the updating sub-module is used to determine depth estimates of a plurality of pixels in the first image based on the first image and the first depth map.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 제1 이미지 및 상기 제1 심도맵을 심도 추정 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 얻는 것에 사용된다.In one possible implementation, the update submodule is used to input the first image and the first depth map to a depth estimation neural network for processing, and to obtain depth estimates of a plurality of pixels in the first image.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 제1 이미지 및 상기 제1 심도맵에 대해 융합 처리를 행하여, 융합 결과를 얻는 것과, 상기 융합 결과에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것에 사용된다.In a possible implementation mode, the update submodule performs fusion processing on the first image and the first depth map to obtain a fusion result, and the depth of a plurality of pixels in the first image based on the fusion result It is used to determine the estimate.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 제1 이미지를 관련도 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서의 복수의 화소의 관련 정보를 얻는 것에 사용된다.In one possible realization, the update submodule is used to input the first image into a relevance detection neural network for processing, and to obtain relevant information of a plurality of pixels in the first image.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것과, 상기 목표 대상물의 이미지에 기초하여 상기 제1 심도맵을 갱신하는 것에 사용된다.In one possible realization, the update sub-module is used to acquire an image of the target object from the first image, and to update the first depth map based on the image of the target object.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 제1 이미지에서 목표 대상물의 키포인트의 정보를 취득하는 것과, 상기 목표 대상물의 키포인트의 정보에 기초하여 상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것에 사용된다.In one possible implementation form, the update submodule is configured to acquire information of keypoints of the target object in the first image, and acquire the image of the target object in the first image based on the keypoint information of the target object. used

일례에서는, 목표 대상물의 키포인트의 정보에 기초하여 목표 대상물의 윤곽을 결정하고, 목표 대상물의 윤곽에 기초하여 제1 이미지에서 목표 대상물의 이미지를 잘라낸다. 목표 검출에 의해 얻어진 목표 대상물의 위치 정보와 비교하면, 키포인트의 정보에 의해 얻어진 목표 대상물의 위치가 보다 정확하기 때문에, 후속 생체 검출의 정확률의 향상에 기여한다.In one example, an outline of the target object is determined based on information of key points of the target object, and an image of the target object is cut out from the first image based on the outline of the target object. Compared with the positional information of the target obtained by target detection, since the position of the target obtained by the information of the keypoint is more accurate, it contributes to the improvement of the accuracy of subsequent biometric detection.

이와 같이, 제1 이미지에서 목표 대상물의 이미지를 취득하고, 목표 대상물의 이미지에 기초하여 생체 검출을 행함으로써, 제1 이미지에서의 배경 정보에 의한 생체 검출에 대한 간섭을 저감시킬 수 있다.In this way, by acquiring the image of the target object from the first image and performing biometric detection based on the image of the target object, it is possible to reduce the interference with the biometric detection by the background information in the first image.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 제1 이미지에 대해 목표 검출을 행하여 상기 목표 대상물의 위치 영역을 얻는 것과, 상기 목표 대상물의 소재 영역의 이미지에 대해 키포인트 검출을 행하여, 상기 제1 이미지에서의 상기 목표 대상물의 키포인트 정보를 얻는 것에 사용된다.In one possible realization, the update submodule performs target detection on a first image to obtain a location area of the target object, and performs keypoint detection on an image of a material area of the target object, so as to It is used to obtain key point information of the target object.

가능한 일 실현형태에서는 상기 갱신 서브 모듈은 상기 제1 심도맵에서 상기 목표 대상물의 심도맵을 취득하는 것과, 상기 제1 이미지에 기초하여 상기 목표 대상물의 심도맵을 갱신하여 상기 제2 심도맵을 얻는 것에 사용된다.In one possible implementation form, the update submodule acquires the depth map of the target object from the first depth map, and updates the depth map of the target object based on the first image to obtain the second depth map used for

이와 같이, 제1 심도맵에서 목표 대상물의 심도맵을 취득하고, 제1 이미지에 기초하여 목표 대상물의 심도맵을 갱신하여 제2 심도맵을 얻음으로써, 제1 심도맵의 배경 정보에 의한 생체 검출에 대한 간섭을 저감시킬 수 있다.In this way, by obtaining a depth map of the target object from the first depth map, updating the depth map of the target object based on the first image to obtain a second depth map, biometric detection using the background information of the first depth map interference can be reduced.

일부 특정 장면(예를 들면, 실외의 광이 강한 장면)에서는 취득되는 심도맵(예를 들면, 심도 센서에 의해 취득되는 심도맵)은 일부 면적이 실효가 되는 경우가 있다. 또한, 정상적인 광의 조사에서도, 안경에 의한 반사, 검은 머리카락 또는 검은 안경 프레임 등의 요인에 의해 심도맵의 부분적인 실효를 랜덤으로 일으키게 된다. 일부 특별한 종이도 유사하게 인쇄된 얼굴 사진의 심도맵에 넓은 면적의 실효 또는 부분적 실효를 일으킨다. 또한, 심도 센서의 액티브 광원이 차폐되는 경우, 심도맵의 일부가 실효되지만, 비생체의 이미지 센서에서의 결상이 정상이 되는 경우가 있을 수 있다. 이와 같이, 심도맵의 일부 또는 전부가 실효가 되는 경우에, 심도맵에 기초하는 생체와 비생체의 식별에 오차가 발생한다. 따라서, 본 발명의 실시예에서는 제1 심도맵을 수복 또는 갱신하고, 수복 또는 갱신 후의 심도맵을 사용하여 생체 검출을 행함으로써, 생체 검출의 정확률의 향상에 기여한다.In some specific scenes (eg, a scene with strong outdoor light), a partial area of an acquired depth map (eg, a depth map acquired by a depth sensor) may become effective. In addition, even in normal light irradiation, partial ineffectiveness of the depth map is randomly caused by factors such as reflection by glasses, dark hair, or black glasses frame. Some special papers also cause large area or partial ineffectiveness in depth maps of similarly printed face photos. Also, when the active light source of the depth sensor is blocked, there may be a case in which a part of the depth map is invalid, but the image formation in the non-living image sensor becomes normal. In this way, when a part or all of the depth map becomes invalid, an error occurs in the identification of a living body and a non-living body based on the depth map. Accordingly, in the embodiment of the present invention, by restoring or updating the first depth map and performing biodetection using the repaired or updated depth map, it contributes to the improvement of the accuracy of biometric detection.

가능한 일 실현형태에서는 상기 결정 서브 모듈은 상기 제1 이미지 및 상기 제2 심도맵을 생체 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 목표 대상물의 생체 검출 결과를 얻는 것에 사용된다.In one possible implementation, the determining submodule is used to input the first image and the second depth map into a biometric detection neural network for processing, and to obtain a biometric detection result of the target object.

가능한 일 실현형태에서는 상기 결정 서브 모듈은 상기 제1 이미지에 대해 특징 추출 처리를 행하여 제1 특징 정보를 얻는 것과, 상기 제2 심도맵에 대해 특징 추출 처리를 행하여, 제2 특징 정보를 얻는 것과, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것에 사용된다.In one possible implementation mode, the determining submodule performs feature extraction processing on the first image to obtain first feature information, and performs feature extraction processing on the second depth map to obtain second feature information; It is used to determine a biometric detection result of the target object based on the first characteristic information and the second characteristic information.

여기서, 선택 가능적으로, 특징 추출 처리는 뉴럴 네트워크 또는 다른 기계 학습 알고리즘에 의해 실현할 수 있고, 추출된 특징 정보의 종별은 선택 가능적으로 샘플을 사용한 학습에 의해 얻을 수 있지만, 본 발명의 실시예는 이들을 한정하지 않는다.Here, optionally, the feature extraction processing can be realized by a neural network or other machine learning algorithm, and the type of the extracted feature information can optionally be obtained by learning using a sample, but in an embodiment of the present invention does not limit them.

가능한 일 실현형태에서는 상기 결정 서브 모듈은 상기 제1 특징 정보 및 상기 제2 특징 정보에 대해 융합 처리를 행하여, 제3 특징 정보를 얻는 것과, 상기 제3 특징 정보에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것에 사용된다.In one possible implementation mode, the determining submodule performs fusion processing on the first characteristic information and the second characteristic information to obtain third characteristic information, and based on the third characteristic information, the living body of the target object It is used to determine the detection result.

가능한 일 실현형태에서는 상기 결정 서브 모듈은 상기 제3 특징 정보에 기초하여 상기 목표 대상물이 생체인 확률을 얻는 것과, 상기 목표 대상물이 생체인 확률에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것에 사용된다.In one possible realization, the determining submodule is configured to obtain a probability that the target object is a living body based on the third characteristic information, and to determine a biometric detection result of the target object based on a probability that the target object is a living body used

가능한 일 실현형태에서는 상기 장치는 얼굴 인식 실패에 따라 패스워드에 의한 잠금 해제 흐름을 기동하도록 상기 차량에 탑재되는 패스워드 잠금 해제 모듈을 활성화하기 위한 활성화 기동 모듈을 추가로 구비한다.In one possible realization, the device further comprises an activation triggering module for activating a password unlocking module mounted on the vehicle to trigger a password unlocking flow according to a face recognition failure.

이 실현형태에서는 패스워드에 의한 잠금 해제는 얼굴 인식에 의한 잠금 해제의 대체 수단이다. 얼굴 인식 실패의 원인은 목표 대상물이 비생체임을 나타내는 생체 검출 결과인 것, 얼굴 인식이 실패한 것, 이미지 취득이 실패한(예를 들면, 카메라가 고장난) 것 및 인식 횟수가 소정의 횟수를 초과한 것 등 중 하나 이상을 포함해도 된다. 목표 대상물의 얼굴 인식이 실패하면, 패스워드에 의한 잠금 해제의 흐름을 기동한다. 예를 들면, B필러의 터치 스크린에 의해 사용자로부터 입력되는 패스워드를 취득하도록 해도 된다.In this realization embodiment, unlocking by password is an alternative means to unlocking by face recognition. Causes of face recognition failure include biometric detection results indicating that the target object is non-living, face recognition failure, image acquisition failure (e.g., camera malfunction), and recognition times exceeding a predetermined number of times. One or more of these may be included. When the face recognition of the target object fails, the flow of unlocking by the password is started. For example, you may make it acquire the password input from a user by the touch screen of a B-pillar.

가능한 일 실현형태에서는 상기 장치는 상기 이미지 취득 모듈에 의해 취득된 차량 소유자의 얼굴 이미지에 기초하여 차량 소유자를 등록을 행하는 것과, 상기 차량 소유자의 단말 장치에 의해 취득된 상기 차량 소유자의 얼굴 이미지에 기초하여 원격 등록을 행하고, 상기 차량 소유자의 얼굴 이미지를 포함하는 등록 정보를 상기 차량에 송신하는 것 중 하나 또는 2개에 사용되는 등록 모듈을 추가로 구비한다.In one possible realization, the device registers the vehicle owner based on the vehicle owner's face image acquired by the image acquisition module, and based on the vehicle owner's face image acquired by the vehicle owner's terminal device and a registration module used for one or two of performing remote registration by doing so and transmitting registration information including a face image of the vehicle owner to the vehicle.

이 실현형태에 의하면, 후속의 얼굴 인증시에, 이 미리 등록된 얼굴 특징에 기초하여 얼굴 조합을 행할 수 있다.According to this realization mode, at the time of subsequent face authentication, face combination can be performed based on this pre-registered facial feature.

일부 실시예에서는 본 발명의 실시예에서 제공된 장치에 구비되는 기능 또는 모듈은 상기 방법 실시예에 기재된 방법을 실행하기 위해 사용할 수 있고, 그 구체적인 실시에 대해서는 상기 방법 실시예의 기재를 참조하면 되고, 설명을 간소화하기 위해 여기서는 중복 설명을 생략한다.In some embodiments, functions or modules provided in the apparatus provided in the embodiments of the present invention may be used to execute the methods described in the method embodiments, and for specific implementation thereof, refer to the description of the method embodiments, and description For the sake of simplicity, redundant descriptions are omitted here.

도 14는 본 발명의 실시예에 따른 차재 얼굴 인증 잠금 해제 시스템의 블록도를 나타낸다. 도 14에 나타내는 바와 같이, 이 차재 얼굴 인증 잠금 해제 시스템은 메모리(41)와, 얼굴 인식 모듈(42)과, 이미지 취득 모듈(43)과, 블루투스 모듈(44)을 구비하고, 상기 얼굴 인식 모듈(42)은 상기 메모리(41), 상기 이미지 취득 모듈(43) 및 상기 블루투스 모듈(44)에 각각 접속되고, 상기 블루투스 모듈(44)은 소정 식별자의 블루투스 디바이스와의 블루투스 페어링·접속에 성공하는 경우, 또는 상기 소정 식별자의 블루투스 디바이스를 검색할 수 있는 경우, 상기 얼굴 인식 모듈(42)을 웨이크업하는 마이크로 프로세서(441)와, 상기 마이크로 프로세서(441)에 접속되는 블루투스 센서(442)를 갖고, 상기 얼굴 인식 모듈(42)에는 도어 도메인 컨트롤러에 접속되는 통신 인터페이스가 추가로 설치되고, 얼굴 인식에 성공하면, 상기 통신 인터페이스를 통해 상기 도어 도메인 컨트롤러에 도어 잠금 해제를 위한 제어 정보를 송신한다.14 is a block diagram of an in-vehicle face authentication unlock system according to an embodiment of the present invention. 14 , this vehicle-mounted face authentication unlocking system includes a memory 41 , a face recognition module 42 , an image acquisition module 43 , and a Bluetooth module 44 , and the face recognition module 42 is connected to the memory 41, the image acquisition module 43, and the Bluetooth module 44, respectively, and the Bluetooth module 44 succeeds in Bluetooth pairing/connection with a Bluetooth device of a predetermined identifier. When the Bluetooth device of the predetermined identifier can be searched for, or a microprocessor 441 for waking up the face recognition module 42, and a Bluetooth sensor 442 connected to the microprocessor 441, , a communication interface connected to the door domain controller is additionally installed in the face recognition module 42 , and when face recognition is successful, control information for unlocking the door is transmitted to the door domain controller through the communication interface.

일례에서는 메모리(41)는 플래시 메모리(Flash) 및 DDR3(Double Date Rate 3, 제3 세대 더블 데이터 레이트) 메모리 중 하나 이상을 포함해도 된다.In one example, the memory 41 may include one or more of a flash memory (Flash) and a DDR3 (Double Date Rate 3, Third Generation Double Data Rate) memory.

일례에서는 얼굴 인식 모듈(42)은 SoC(System on Chip, 시스템 온 칩)를 사용하여 실현되어도 된다.In one example, the face recognition module 42 may be realized using a System on Chip (SoC).

일례에서는 얼굴 인식 모듈(42)은 CAN(Controller Area Network, 컨트롤러 영역 네트워크) 버스를 통해 도어 도메인 컨트롤러에 접속된다.In one example, the face recognition module 42 is connected to the door domain controller via a CAN (Controller Area Network) bus.

일례에서는 상기 이미지 취득 모듈(43)은 이미지 센서 및 심도 센서를 포함한다.In one example, the image acquisition module 43 includes an image sensor and a depth sensor.

일례에서는 심도 센서는 양안 적외선 센서 및 비행 시간 TOF 센서 중 하나 이상을 갖는다.In one example, the depth sensor has at least one of a binocular infrared sensor and a time-of-flight TOF sensor.

가능한 일 실시형태에서는 심도 센서는 2개의 적외선 카메라가 이미지 센서의 카메라의 양측에 설치되는 양안 적외선 센서를 포함한다. 예를 들면, 도 4a에 나타내는 예에서는 이미지 센서는 RGB 센서이고, 이미지 센서의 카메라는 RGB 카메라이고, 심도 센서는 양안 적외선 센서이고, 2개의 IR(적외선) 카메라를 갖고, 양안 적외선 센서의 2개의 적외선 카메라가 이미지 센서의 RGB 카메라의 양측에 설치된다.In one possible embodiment the depth sensor comprises a binocular infrared sensor in which two infrared cameras are installed on either side of the camera of the image sensor. For example, in the example shown in Fig. 4A, the image sensor is an RGB sensor, the camera of the image sensor is an RGB camera, the depth sensor is a binocular infrared sensor, has two IR (infrared) cameras, and two Infrared cameras are installed on both sides of the RGB cameras of the image sensor.

일례에서는 이미지 취득 모듈(43)은 양안 적외선 센서의 적외선 카메라와 이미지 센서의 카메라 사이에 설치되는 것으로서, 이미지 센서용 보광 라이트 및 심도 센서용 보광 라이트 중 하나 이상을 포함하는 하나 이상의 보광 라이트를 추가로 포함한다. 예를 들면, 이미지 센서가 RGB 센서인 경우, 이미지 센서용 보광 라이트는 화이트 라이트이고, 이미지 센서가 적외선 센서인 경우, 이미지 센서용 보광 라이트는 적외선 라이트이고, 심도 센서가 양안 적외선 센서인 경우, 심도 센서용 보광 라이트는 적외선 라이트이도록 해도 된다. 도 4a에 나타내는 예에서는 양안 적외선 센서의 적외선 카메라와 이미지 센서의 카메라 사이에 적외선 라이트가 설치된다. 예를 들면, 적외선 라이트는 940㎚의 적외선을 사용하도록 해도 된다.In one example, the image acquisition module 43 is installed between the infrared camera of the binocular infrared sensor and the camera of the image sensor, and further includes one or more beam lights including at least one of a beam light for an image sensor and a beam light for a depth sensor. include For example, when the image sensor is an RGB sensor, the beam light for the image sensor is a white light, when the image sensor is an infrared sensor, the beam light for the image sensor is an infrared light, and when the depth sensor is a binocular infrared sensor, the depth of field The light beam for sensors may be an infrared light. In the example shown in FIG. 4A, an infrared light is provided between the infrared camera of a binocular infrared sensor and the camera of an image sensor. For example, you may make it use infrared rays of 940 nm as an infrared light.

일례에서는 보광 라이트는 노멀 오픈 모드로 해도 된다. 이 예에서는 이미지 취득 모듈의 카메라가 동작 상태에 있는 경우, 보광 라이트는 온 상태에 있다.In one example, the light beam light may be in the normally open mode. In this example, when the camera of the image acquisition module is in the operating state, the beam light is in the on state.

다른 일례에서는 광선이 부족한 경우에 보광 라이트를 온으로 해도 된다. 예를 들면, 환경광 센서에 의해 환경광 강도를 취득하고, 환경광 강도가 광 강도 임계치보다 낮은 경우에 광선이 부족하다고 판정하고, 보광 라이트를 온으로 해도 된다.In another example, when the light beam is insufficient, the light beam light may be turned on. For example, the ambient light intensity may be acquired by the ambient light sensor, and when the ambient light intensity is lower than the light intensity threshold, it may be determined that the light beam is insufficient, and the auxiliary light may be turned on.

가능한 일 실시형태에서는 이미지 취득 모듈(43)은 상기 심도 센서의 카메라와 상기 이미지 센서의 카메라 사이에 설치되는 레이저를 추가로 포함한다. 예를 들면, 도 4b에 나타내는 예에서는 이미지 센서는 RGB 센서이고, 이미지 센서의 카메라가 RGB 카메라이고, 심도 센서가 TOF 센서이고, 레이저가 TOF 센서의 카메라와 RGB 센서의 카메라 사이에 설치되어 있다. 예를 들면, 레이저는 VCSEL이고, TOF 센서는 VCSEL로부터 발한 레이저 광에 의해 심도맵을 취득하도록 해도 된다.In one possible embodiment, the image acquisition module 43 further comprises a laser installed between the camera of the depth sensor and the camera of the image sensor. For example, in the example shown in Fig. 4B, the image sensor is an RGB sensor, the image sensor camera is an RGB camera, the depth sensor is a TOF sensor, and a laser is provided between the TOF sensor camera and the RGB sensor camera. For example, the laser may be a VCSEL, and the TOF sensor may acquire a depth map with laser light emitted from the VCSEL.

일례에서는 심도 센서는 LVDS(Low-Voltage Differential Signaling, 저전압 차동 신호) 인터페이스를 통해 얼굴 인식 모듈(42)에 접속된다.In one example, the depth sensor is connected to the face recognition module 42 through an LVDS (Low-Voltage Differential Signaling) interface.

가능한 일 실현형태에서는 상기 차재 얼굴 인증 잠금 해제 시스템은 상기 얼굴 인식 모듈(42)에 접속되고, 도어 잠금의 해제를 행하기 위한 패스워드 잠금 해제 모듈(45)을 추가로 구비한다.In one possible realization, the vehicle-mounted face authentication unlocking system is connected to the face recognition module 42 and further includes a password unlocking module 45 for unlocking the door lock.

가능한 일 실현형태에서는 상기 패스워드 잠금 해제 모듈(45)은 터치 스크린 및 키보드 중 하나 또는 2개를 갖는다.In one possible implementation, the password unlocking module 45 has one or two of a touch screen and a keyboard.

일례에서는 터치 스크린은 FPD-Link(Flat Panel Display Link, 플랫 패널 디스플레이 링크)를 통해 얼굴 인식 모듈(42)에 접속된다.In one example, the touch screen is connected to the face recognition module 42 via a Flat Panel Display Link (FPD-Link).

가능한 일 실현형태에서는 상기 차재 얼굴 인증 잠금 해제 시스템은 상기 마이크로 프로세서(441) 및 상기 얼굴 인식 모듈(42)에 각각 접속되는 전지 모듈(46)을 추가로 구비한다.In one possible realization, the vehicle-mounted face authentication unlocking system further includes a battery module 46 respectively connected to the microprocessor 441 and the face recognition module 42 .

가능한 일 실현형태에서는 메모리(41), 얼굴 인식 모듈(42), 블루투스 모듈(44) 및 전지 모듈(46)은 ECU(Electronic Control Unit, 전자 제어 유닛)에 탑재되어도 된다.In one possible implementation form, the memory 41 , the face recognition module 42 , the Bluetooth module 44 , and the battery module 46 may be mounted on an ECU (Electronic Control Unit).

도 15는 본 발명의 실시예에 따른 차재 얼굴 인증 잠금 해제 시스템의 모식도를 나타낸다. 도 15에 나타내는 예에서는 얼굴 인식 모듈은 SoC(101)를 사용하여 실현되고, 메모리는 플래시 메모리(Flash)(102) 및 DDR3 메모리(103)를 갖고, 블루투스 모듈은 블루투스 센서(104) 및 마이크로 프로세서(MCU, Microcontroller Unit(105)를 갖고, SoC(101), 플래시 메모리(102), DDR3 메모리(103), 블루투스 센서(104), 마이크로 프로세서(105) 및 전지 모듈(106)은 ECU(100)에 탑재되어 있고, 이미지 취득 모듈은 LVDS 인터페이스를 통해 SoC(101)에 접속되는 심도 센서(200)를 갖고, 패스워드 잠금 해제 모듈은 FPD-Link를 통해 SoC(101)에 접속되는 터치 스크린(300)을 갖고, SoC(101)는 CAN 버스를 통해 도어 도메인 컨트롤러(400)에 접속된다. 도 16은 본 발명의 실시예에 따른 차량의 모식도를 나타낸다. 도 16에 나타내는 바와 같이, 차량은 차량의 도어 도메인 컨트롤러(52)에 접속되는 차재 얼굴 인증 잠금 해제 시스템(51)을 구비한다.15 is a schematic diagram of an in-vehicle face authentication unlocking system according to an embodiment of the present invention. In the example shown in Fig. 15, the face recognition module is realized using the SoC 101, the memory has a flash memory (Flash) 102 and a DDR3 memory 103, and the Bluetooth module is a Bluetooth sensor 104 and a microprocessor. (MCU, Microcontroller Unit 105, SoC 101, flash memory 102, DDR3 memory 103, Bluetooth sensor 104, microprocessor 105 and battery module 106 are ECU 100 The image acquisition module has a depth sensor 200 connected to the SoC 101 via an LVDS interface, and the password unlocking module is a touch screen 300 connected to the SoC 101 via FPD-Link. , and the SoC 101 is connected to the door domain controller 400 through a CAN bus, Fig. 16 is a schematic diagram of a vehicle according to an embodiment of the present invention. An in-vehicle face authentication unlock system 51 connected to a domain controller 52 is provided.

가능한 일 실현형태에서는 상기 이미지 취득 모듈은 상기 차량의 차실 외부에 설치된다.In one possible realization, the image acquisition module is installed outside the vehicle cabin.

가능한 일 실현형태에서는 상기 이미지 취득 모듈은 상기 차량의 B필러, 하나 이상의 도어, 하나 이상의 백미러 중 하나 이상에 설치된다.In one possible realization, the image acquisition module is installed on one or more of a B-pillar, one or more doors, and one or more rearview mirrors of the vehicle.

가능한 일 실시형태에서는 상기 얼굴 인식 모듈은 상기 차량 내에 탑재되고, CAN 버스를 통해 상기 도어 도메인 컨트롤러에 접속된다.In one possible embodiment, the face recognition module is mounted in the vehicle and is connected to the door domain controller via a CAN bus.

본 발명의 실시예는 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램으로서, 상기 컴퓨터 판독 가능 코드는 전자 기기에서 동작하면, 상기 전자 기기의 프로세서에 상기 방법을 실현하기 위한 명령을 실행시키는 컴퓨터 프로그램을 추가로 제공한다.An embodiment of the present invention is a computer program comprising computer readable code, wherein the computer readable code further includes a computer program that, when operated in an electronic device, causes a processor of the electronic device to execute instructions for realizing the method. to provide.

본 발명의 실시예는 컴퓨터 프로그램 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체로서, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 실행되면, 상기 방법을 실현시키는 컴퓨터 판독 가능 기억 매체를 추가로 제공한다. 컴퓨터 판독 가능 기억 매체는 불휘발성 컴퓨터 판독 가능 기억 매체여도 되고, 또는 휘발성 컴퓨터 판독 가능 기억 매체여도 된다.An embodiment of the present invention further provides a computer-readable storage medium having computer program instructions stored thereon, wherein when the computer program instructions are executed by a processor, the computer-readable storage medium realizes the method. A computer-readable storage medium may be a nonvolatile computer-readable storage medium, or a volatile computer-readable storage medium may be sufficient as it.

본 발명의 실시예는 프로세서와, 프로세서에 의해 실행 가능한 명령을 기억하기 위한 메모리를 포함하고, 상기 프로세서는 상기 방법을 실행하도록 구성되는 전자 기기를 추가로 제공한다.An embodiment of the present invention further provides an electronic device comprising a processor and a memory for storing instructions executable by the processor, wherein the processor is configured to execute the method.

전자 기기는 단말, 서버 또는 다른 형태의 장치로서 제공되어도 된다.The electronic device may be provided as a terminal, server, or other type of device.

도 17은 예시적인 일 실시예의 전자 기기(800)의 블록도를 나타낸다. 예를 들면, 전자 기기(800)는 휴대 전화, 컴퓨터, 디지털 방송 단말, 메시지 송수신 기기, 게임 콘솔, 태블릿형 기기, 의료 기기, 피트니스 기기, 퍼스널 디지털 어시스턴트 등의 단말이어도 된다.Fig. 17 shows a block diagram of an electronic device 800 according to an exemplary embodiment. For example, the electronic device 800 may be a mobile phone, a computer, a digital broadcasting terminal, a message transmitting/receiving device, a game console, a tablet type device, a medical device, a fitness device, a terminal such as a personal digital assistant.

도 17을 참조하면, 전자 기기(800)는 처리 컴포넌트(802), 메모리(804), 전원 컴포넌트(806), 멀티미디어 컴포넌트(808), 오디오 컴포넌트(810), 입력/출력(I/O) 인터페이스(812), 센서 컴포넌트(814) 및 통신 컴포넌트(816) 중 하나 이상을 포함해도 된다.Referring to FIG. 17 , the electronic device 800 includes a processing component 802 , a memory 804 , a power component 806 , a multimedia component 808 , an audio component 810 , and an input/output (I/O) interface. 812 , a sensor component 814 , and a communication component 816 .

처리 컴포넌트(802)는 통상 전자 기기(800)의 전체적인 동작, 예를 들면, 표시, 전화의 호출, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작을 제어한다. 처리 컴포넌트(802)는 상기 방법의 전부 또는 일부 단계를 실행하기 위해, 명령을 실행하는 하나 이상의 프로세서(820)를 포함해도 된다. 또한, 처리 컴포넌트(802)는 다른 컴포넌트와의 상호 작용을 위한 하나 이상의 모듈을 포함해도 된다. 예를 들면, 처리 컴포넌트(802)는 멀티미디어 컴포넌트(808)와의 상호 작용을 위해 멀티미디어 모듈을 포함해도 된다. The processing component 802 typically controls the overall operation of the electronic device 800 , such as operations related to display, phone call, data communication, camera operation, and recording operation. The processing component 802 may include one or more processors 820 executing instructions to carry out all or some steps of the method. Further, processing component 802 may include one or more modules for interaction with other components. For example, processing component 802 may include a multimedia module for interaction with multimedia component 808 .

메모리(804)는 전자 기기(800)에서의 동작을 서포트하기 위한 다양한 타입의 데이터를 기억하도록 구성된다. 이들 데이터는 예로서, 전자 기기(800)에서 조작하는 다양한 애플리케이션 프로그램 또는 방법의 명령, 연락처 데이터, 전화번호부 데이터, 메시지, 사진, 비디오 등을 포함한다. 메모리(804)는 예를 들면, 정적 랜덤 액세스 메모리(SRAM), 전기적 소거 가능 프로그래머블 판독 전용 메모리(EEPROM), 소거 가능한 프로그래머블 판독 전용 메모리(EPROM), 프로그래머블 판독 전용 메모리(PROM), 판독 전용 메모리(ROM), 자기 메모리, 플래시 메모리, 자기 디스크 또는 광디스크 등의 다양한 타입의 휘발성 또는 불휘발성 기억 장치 또는 이들의 조합에 의해 실현할 수 있다. The memory 804 is configured to store various types of data to support operation in the electronic device 800 . These data include, for example, commands of various application programs or methods operated by the electronic device 800 , contact data, phone book data, messages, pictures, videos, and the like. Memory 804 may include, for example, static random access memory (SRAM), electrically erasable programmable read only memory (EEPROM), erasable programmable read only memory (EPROM), programmable read only memory (PROM), read only memory ( ROM), a magnetic memory, a flash memory, a magnetic disk or an optical disk, etc., can be realized by various types of volatile or nonvolatile storage devices, or combinations thereof.

전원 컴포넌트(806)는 전자 기기(800)의 각 컴포넌트에 전력을 공급한다. 전원 컴포넌트(806)는 전원 관리 시스템, 하나 이상의 전원 및 전자 기기(800)를 위한 전력 생성, 관리 및 배분에 관련된 다른 컴포넌트를 포함해도 된다. The power component 806 supplies power to each component of the electronic device 800 . Power component 806 may include a power management system, one or more power sources, and other components related to power generation, management, and distribution for electronic device 800 .

멀티미디어 컴포넌트(808)는 상기 전자 기기(800)와 사용자 사이에서 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에서는 스크린은 액정 디스플레이(LCD) 및 터치 패널(TP)을 포함해도 된다. 스크린이 터치 패널을 포함하는 경우, 사용자로부터의 입력 신호를 수신하는 터치 스크린으로서 실현해도 된다. 터치 패널은 터치, 슬라이드 및 터치 패널에서의 제스처를 검지하도록, 하나 이상의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 슬라이드 동작의 경계를 검지할 뿐만 아니라, 상기 터치 또는 슬라이드 조작에 관련되는 지속 시간 및 압력을 검출하도록 해도 된다. 일부 실시예에서는 멀티미디어 컴포넌트(808)는 전면 카메라 및/또는 배면 카메라를 포함한다. 전자 기기(800)가 동작 모드, 예를 들면, 촬영 모드 또는 촬상 모드가 되는 경우, 전면 카메라 및/또는 배면 카메라는 외부의 멀티미디어 데이터를 수신하도록 해도 된다. 각 전면 카메라 및 배면 카메라는 고정된 광학 렌즈계 또는 초점 거리 및 광학 줌 능력을 갖는 것이어도 된다. The multimedia component 808 includes a screen that provides an output interface between the electronic device 800 and a user. In some embodiments, the screen may include a liquid crystal display (LCD) and a touch panel (TP). When the screen includes a touch panel, it may be realized as a touch screen that receives an input signal from a user. The touch panel includes one or more touch sensors to detect touches, slides and gestures on the touch panel. The touch sensor may not only detect a boundary of a touch or slide operation, but also detect a duration and pressure associated with the touch or slide operation. In some embodiments, multimedia component 808 includes a front camera and/or a rear camera. When the electronic device 800 is in an operation mode, for example, a photographing mode or an imaging mode, the front camera and/or the rear camera may receive external multimedia data. Each front camera and rear camera may have a fixed optical lens system or focal length and optical zoom capability.

오디오 컴포넌트(810)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들면, 오디오 컴포넌트(810)는 하나의 마이크(MIC)를 포함하고, 마이크(MIC)는 전자 기기(800)가 동작 모드, 예를 들면, 호출 모드, 기록 모드 및 음성 인식 모드가 되는 경우, 외부의 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 추가로 메모리(804)에 기억되거나 또는 통신 컴포넌트(816)를 통해 송신되어도 된다. 일부 실시예에서는 오디오 컴포넌트(810)는 추가로 오디오 신호를 출력하기 위한 스피커를 포함한다. The audio component 810 is configured to output and/or input an audio signal. For example, the audio component 810 includes one microphone MIC, and the microphone MIC is when the electronic device 800 is in an operation mode, for example, a call mode, a recording mode, and a voice recognition mode. , configured to receive an external audio signal. The received audio signal may be further stored in memory 804 or transmitted via communication component 816 . In some embodiments, the audio component 810 further includes a speaker for outputting an audio signal.

I/O 인터페이스(812)는 처리 컴포넌트(802)와 주변 인터페이스 모듈 사이에서 인터페이스를 제공하고, 상기 주변 인터페이스 모듈은 키보드, 클릭 휠, 버튼 등이어도 된다. 이들 버튼은 홈 버튼, 음량 버튼, 시작 버튼 및 잠금 버튼을 포함해도 되지만, 이들에 한정되지 않는다.I/O interface 812 provides an interface between processing component 802 and a peripheral interface module, which may be a keyboard, click wheel, button, or the like. These buttons may include, but are not limited to, a home button, a volume button, a start button, and a lock button.

센서 컴포넌트(814)는 전자 기기(800)의 각 측면에서의 상태 평가를 위해 하나 이상의 센서를 포함한다. 예를 들면, 센서 컴포넌트(814)는 전자 기기(800)의 온/오프 상태, 예를 들면, 전자 기기(800)의 표시 장치 및 키패드와 같은 컴포넌트의 상대적 위치 결정을 검출할 수 있고, 센서 컴포넌트(814)는 추가로 전자 기기(800) 또는 전자 기기(800)가 있는 컴포넌트의 위치 변화, 사용자와 전자 기기(800)의 접촉 유무, 전자 기기(800)의 방위 또는 가감속 및 전자 기기(800)의 온도 변화를 검출할 수 있다. 센서 컴포넌트(814)는 어떠한 물리적 접촉도 없는 경우에 근방의 물체의 존재를 검출하도록 구성되는 근접 센서를 포함해도 된다. 센서 컴포넌트(814)는 추가로 CMOS 또는 CCD 이미지 센서와 같은 이미징 애플리케이션에서 사용하기 위한 광센서를 포함해도 된다. 일부 실시예에서는 상기 센서 컴포넌트(814)는 추가로 가속도 센서, 자이로 센서, 자기 센서, 압력 센서 또는 온도 센서를 포함해도 된다. The sensor component 814 includes one or more sensors for status evaluation at each side of the electronic device 800 . For example, the sensor component 814 may detect an on/off state of the electronic device 800 , eg, a relative positioning of components such as a display device and a keypad of the electronic device 800 , the sensor component 814 further indicates a change in the position of the electronic device 800 or a component in which the electronic device 800 is located, the presence or absence of contact between the user and the electronic device 800, the orientation or acceleration/deceleration of the electronic device 800, and the electronic device 800 ) can be detected. The sensor component 814 may include a proximity sensor configured to detect the presence of a nearby object in the absence of any physical contact. The sensor component 814 may further include a photosensor for use in imaging applications, such as CMOS or CCD image sensors. In some embodiments, the sensor component 814 may further include an acceleration sensor, a gyro sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.

통신 컴포넌트(816)는 전자 기기(800)와 다른 기기의 유선 또는 무선 통신을 실현하도록 구성된다. 전자 기기(800)는 통신 규격에 기초하는 무선 네트워크, 예를 들면, WiFi, 2G, 또는 3G 또는 이들의 조합에 액세스할 수 있다. 일 예시적 실시예에서는 통신 컴포넌트(816)는 방송 채널을 통해 외부 방송 관리 시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신한다. 일 예시적 실시예에서는 상기 통신 컴포넌트(816)는 추가로 근거리 통신을 촉진시키기 위해 근거리 무선 통신(NFC) 모듈을 포함한다. 예를 들면, NFC 모듈은 무선 주파수 식별(RFID) 기술, 적외선 데이터 협회(IrDA) 기술, 초광대역(UWB) 기술, 블루투스(BT) 기술 및 다른 기술에 의해 실현할 수 있다.The communication component 816 is configured to realize wired or wireless communication between the electronic device 800 and another device. The electronic device 800 may access a wireless network based on a communication standard, for example, WiFi, 2G, or 3G, or a combination thereof. In an exemplary embodiment, the communication component 816 receives a broadcast signal or broadcast related information from an external broadcast management system through a broadcast channel. In an exemplary embodiment, the communication component 816 further includes a near field communication (NFC) module to facilitate near field communication. For example, the NFC module may be realized by radio frequency identification (RFID) technology, infrared data association (IrDA) technology, ultra-wideband (UWB) technology, Bluetooth (BT) technology and other technologies.

예시적인 실시예에서는 전자 기기(800)는 하나 이상의 특정 용도용 집적 회로(ASIC), 디지털 신호 프로세서(DSP), 디지털 시그널 프로세서(DSPD), 프로그래머블 로직 디바이스(PLD), 필드 프로그래머블 게이트 어레이(FPGA), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 다른 전자 요소에 의해 실현되고, 상기 방법을 실행하기 위해 사용될 수 있다. In an exemplary embodiment, the electronic device 800 includes one or more application-specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processors (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs). , implemented by a controller, microcontroller, microprocessor or other electronic element, and may be used to carry out the method.

예시적인 실시예에서는 추가로 불휘발성 컴퓨터 판독 가능 기억 매체, 예를 들면, 컴퓨터 프로그램 명령을 포함하는 메모리(804)가 제공되고, 상기 컴퓨터 프로그램 명령은 전자 기기(800)의 프로세서(820)에 의해 실행되면, 상기 방법을 실행시킬 수 있다.In the exemplary embodiment, there is further provided a nonvolatile computer readable storage medium, for example, a memory 804 containing computer program instructions, which are executed by the processor 820 of the electronic device 800 . Once executed, the method may be executed.

본 발명은 시스템, 방법 및/또는 컴퓨터 프로그램 제품이어도 된다. 컴퓨터 프로그램 제품은 프로세서에 본 발명의 각 측면을 실현시키기 위한 컴퓨터 판독 가능 프로그램 명령이 갖고 있는 컴퓨터 판독 가능 기억 매체를 포함해도 된다.The invention may be a system, method and/or computer program product. The computer program product may include a computer readable storage medium having computer readable program instructions for realizing each aspect of the present invention in the processor.

컴퓨터 판독 가능 기억 매체는 명령 실행 기기에 의해 사용되는 명령을 저장 및 기억 가능한 유형(有形)의 장치여도 된다. 컴퓨터 판독 가능 기억 매체는 예를 들면, 전기 기억 장치, 자기 기억 장치, 광 기억 장치, 전자 기억 장치, 반도체 기억 장치, 또는 상기의 임의의 적당한 조합이어도 되지만, 이들에 한정되지 않는다. 컴퓨터 판독 가능 기억 매체의 보다 구체적인 예(비망라적 리스트)로는 휴대형 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그래머블 판독 전용 메모리(EPROM 또는 플래시 메모리), 정적 랜덤 액세스 메모리(SRAM), 휴대형 콤팩트 디스크 판독 전용 메모리(CD-ROM), 디지털 다용도 디스크(DVD), 메모리 스틱, 플로피 디스크, 예를 들면, 명령이 기억되어 있는 천공 카드 또는 슬롯 내 돌기 구조와 같은 기계적 부호화 장치, 및 상기의 임의의 적당한 조합을 포함한다. 여기에서 사용되는 컴퓨터 판독 가능 기억 매체는 순시 신호 자체, 예를 들면, 무선 전파 또는 기타 자유롭게 전파되는 전자파, 도파로 또는 다른 전송 매체를 경유하여 전파되는 전자파(예를 들면, 광파이버 케이블을 통과하는 광펄스), 또는 전선을 경유하여 전송되는 전기 신호로 해석되는 것은 아니다. The computer-readable storage medium may be a tangible device capable of storing and storing instructions used by an instruction execution device. The computer-readable storage medium may be, for example, but not limited to, an electrical storage device, a magnetic storage device, an optical storage device, an electronic storage device, a semiconductor storage device, or any suitable combination of the above. More specific examples (non-exhaustive list) of computer-readable storage media include portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory); Static random access memory (SRAM), portable compact disk read-only memory (CD-ROM), digital versatile disk (DVD), memory stick, floppy disk, e.g., punched cards or slots in which instructions are stored; such mechanical encoding devices, and any suitable combination of the above. As used herein, a computer-readable storage medium is an instantaneous signal itself, such as radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating via waveguides or other transmission media (eg, optical pulses passing through an optical fiber cable). ), or an electrical signal transmitted via a wire.

여기서 기술한 컴퓨터 판독 가능 프로그램 명령은 컴퓨터 판독 가능 기억 매체에서 각 계산/처리 기기에 다운로드되어도 되고, 또는 네트워크, 예를 들면, 인터넷, 로컬 에어리어 네트워크, 광역 네트워크 및/또는 무선 네트워크를 통해 외부의 컴퓨터 또는 외부 기억 장치에 다운로드되어도 된다. 네트워크는 구리 전송 케이블, 광파이버 전송, 무선 전송, 라우터, 방화벽, 교환기, 게이트웨이 컴퓨터 및/또는 에지 서버를 포함해도 된다. 각 계산/처리 기기 내의 네트워크 어댑터 카드 또는 네트워크 인터페이스는 네트워크에서 컴퓨터 판독 가능 프로그램 명령을 수신하고, 상기 컴퓨터 판독 가능 프로그램 명령을 전송하고, 각 계산/처리 기기 내의 컴퓨터 판독 가능 기억 매체에 기억시킨다. The computer readable program instructions described herein may be downloaded from a computer readable storage medium to each computing/processing device, or may be downloaded to an external computer via a network, for example, the Internet, a local area network, a wide area network and/or a wireless network. Alternatively, it may be downloaded to an external storage device. The network may include copper transport cables, fiber optic transport, wireless transport, routers, firewalls, switchboards, gateway computers and/or edge servers. A network adapter card or network interface in each computing/processing device receives a computer readable program command from the network, transmits the computer readable program command, and stores the computer readable program command in a computer readable storage medium in each computing/processing device.

본 발명의 동작을 실행하기 위한 컴퓨터 프로그램 명령은 어셈블러 명령, 명령 세트 아키텍처(ISA) 명령, 기계어 명령, 기계 의존 명령, 마이크로 코드, 펌웨어 명령, 상태 설정 데이터 또는 Smalltalk, C++ 등의 오브젝트 지향 프로그래밍 언어, 및 「C」언어 또는 유사한 프로그래밍 언어 등의 일반적인 절차형 프로그래밍 언어를 포함하는 하나 이상의 프로그래밍 언어의 임의의 조합으로 작성된 소스 코드 또는 목표 코드여도 된다. 컴퓨터 판독 가능 프로그램 명령은 완전히 사용자의 컴퓨터에서 실행되어도 되고, 부분적으로 사용자의 컴퓨터에서 실행되어도 되고, 독립형 소프트웨어 패키지로서 실행되어도 되고, 부분적으로 사용자의 컴퓨터에서 또한 부분적으로 리모트 컴퓨터에서 실행되어도 되고, 또는 완전히 리모트 컴퓨터 혹은 서버에서 실행되어도 된다. 리모트 컴퓨터의 경우, 리모트 컴퓨터는 로컬 에어리어 네트워크(LAN) 또는 광역 네트워크(WAN)를 포함하는 임의의 종류의 네트워크를 경유하여 사용자의 컴퓨터에 접속되어도 되고, 또는 (예를 들면, 인터넷 서비스 프로바이더를 이용해 인터넷을 경유하여) 외부 컴퓨터에 접속되어도 된다. 일부 실시예에서는 컴퓨터 판독 가능 프로그램 명령의 상태 정보를 이용하여, 예를 들면, 프로그래머블 논리 회로, 필드 프로그래머블 게이트 어레이(FPGA) 또는 프로그래머블 논리 어레이(PLA) 등의 전자 회로를 맞춤 제조하고, 상기 전자 회로에 의해 컴퓨터 판독 가능 프로그램 명령을 실행함으로써 본 발명의 각 측면을 실현하도록 해도 된다. The computer program instructions for carrying out the operations of the present invention may include assembler instructions, instruction set architecture (ISA) instructions, machine language instructions, machine dependent instructions, microcode, firmware instructions, state setting data or an object-oriented programming language such as Smalltalk, C++, etc.; and source code or target code written in any combination of one or more programming languages including a general procedural programming language such as "C" language or a similar programming language. The computer readable program instructions may execute entirely on the user's computer, partially on the user's computer, as a standalone software package, partially on the user's computer and partly on a remote computer, or It may run entirely on a remote computer or server. In the case of a remote computer, the remote computer may be connected to the user's computer via any kind of network, including a local area network (LAN) or a wide area network (WAN), or (eg, an Internet service provider via the Internet) may be connected to an external computer. In some embodiments, state information from computer readable program instructions is used to customize electronic circuitry, such as, for example, a programmable logic circuit, a field programmable gate array (FPGA), or a programmable logic array (PLA), the electronic circuitry. Each aspect of the present invention may be realized by executing computer readable program instructions by

여기서 본 발명의 실시예에 따른 방법, 장치(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및/또는 블록도를 참조하면서 본 발명의 각 양태를 설명했지만, 흐름도 및/또는 블록도의 각 블록, 및 흐름도 및/또는 블록도의 각 블록의 조합은 전부 컴퓨터 판독 가능 프로그램 명령에 의해 실현할 수 있음을 이해해야 한다. Although each aspect of the present invention has been described herein with reference to a flowchart and/or block diagram of a method, apparatus (system) and computer program product according to an embodiment of the present invention, each block in the flowchart and/or block diagram, and the flowchart and It should be understood that all combinations of blocks in the block diagram may be realized by computer readable program instructions.

이들 컴퓨터 판독 가능 프로그램 명령은 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그래머블 데이터 처리 장치의 프로세서에 제공되고, 이들 명령이 컴퓨터 또는 기타 프로그래머블 데이터 처리 장치의 프로세서에 의해 실행되면, 흐름도 및/또는 블록도의 하나 이상의 블록에서 지정된 기능/동작을 실현시키도록 장치를 제조해도 된다. 이들 컴퓨터 판독 가능 프로그램 명령은 컴퓨터 판독 가능 기억 매체에 기억되고, 컴퓨터, 프로그래머블 데이터 처리 장치 및/또는 다른 기기를 특정 방식으로 동작시키도록 해도 된다. 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체는 흐름도 및/또는 블록도 중 하나 이상의 블록에서 지정된 기능/동작의 각 측면을 실현하는 명령을 갖는 제품을 포함한다.These computer readable program instructions are provided to a processor of a general purpose computer, special purpose computer, or other programmable data processing device, and when these instructions are executed by the processor of the computer or other programmable data processing device, one or more of the flowcharts and/or block diagrams The device may be manufactured to realize the functions/actions specified in the block. These computer readable program instructions may be stored in a computer readable storage medium, and may cause a computer, a programmable data processing apparatus, and/or other apparatus to operate in a specific manner. A computer-readable storage medium having instructions stored thereon includes a product having instructions for realizing each aspect of a function/action specified in one or more blocks of a flowchart and/or a block diagram.

컴퓨터 판독 가능 프로그램 명령은 컴퓨터, 기타 프로그래머블 데이터 처리 장치 또는 기타 기기에 로드되고, 컴퓨터, 기타 프로그래머블 데이터 처리 장치 또는 기타 기기에 일련의 동작 단계를 실행시킴으로써, 컴퓨터에 의해 실시되는 프로세스를 생성하고, 컴퓨터, 기타 프로그래머블 데이터 처리 장치 또는 기타 기기에서 실행되는 명령에 의해 흐름도 및/또는 블록도 중 하나 이상의 블록에서 지정된 기능/동작을 실현한다. The computer readable program instructions are loaded into a computer, other programmable data processing device, or other device, and cause the computer, other programmable data processing device or other device to execute a series of operational steps, thereby creating a process executed by the computer; , other programmable data processing device or other device to realize the specified functions/operations in one or more blocks of the flowchart and/or block diagram by instructions executed on the device.

도면 중 흐름도 및 블록도는 본 발명의 복수의 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 실현 가능한 시스템 아키텍처, 기능 및 동작을 나타낸다. 이 점에서는 흐름도 또는 블록도에서의 각 블록은 하나의 모듈, 프로그램 세그먼트 또는 명령의 일부분을 대표할 수 있고, 상기 모듈, 프로그램 세그먼트 또는 명령의 일부분은 지정된 논리 기능을 실현하기 위한 하나 이상의 실행 가능 명령을 포함한다. 일부 대체로서의 실현형태에서는 블록에 표기되는 기능은 도면에 붙인 순서와 상이하게 실현해도 된다. 예를 들면, 2개의 연속적인 블록은 실질적으로 동시에 실행해도 되고, 또한 관련된 기능에 따라 반대 순서로 실행해도 되는 경우가 있다. 또한, 블록도 및/또는 흐름도에서의 각 블록 및 블록도 및/또는 흐름도에서의 블록의 조합은 지정되는 기능 또는 동작을 실행하는 하드웨어에 기초하는 전용 시스템에 의해 실현해도 되며, 또는 전용 하드웨어와 컴퓨터 명령의 조합에 의해 실현해도 된다는 점에도 주의해야 한다. Flowcharts and block diagrams in the drawings represent realizable system architectures, functions, and operations of systems, methods, and computer program products according to a plurality of embodiments of the present invention. In this regard, each block in the flowchart or block diagram may represent a single module, program segment, or portion of an instruction, wherein the module, program segment or portion of the instruction includes one or more executable instructions for realizing a specified logical function. includes In some alternative implementations, the functions indicated in the blocks may be realized in a different order from the order in the drawings. For example, two consecutive blocks may be executed substantially simultaneously, or may be executed in the reverse order depending on the function involved. In addition, each block in the block diagram and/or flowchart and the combination of blocks in the block diagram and/or flowchart may be realized by a dedicated system based on hardware for executing designated functions or operations, or dedicated hardware and a computer It should also be noted that it may be realized by a combination of commands.

이상, 본 발명의 각 실시예를 기술했지만, 상기 설명은 예시적인 것에 불과하고, 망라적인 것이 아니며, 또한 개시된 각 실시예에 한정되는 것도 아니다. 당업자에게 있어서, 설명된 각 실시예의 범위 및 정신에서 벗어나지 않고, 다양한 수정 및 변경이 자명하다. 본 명세서에 선택된 용어는 각 실시예의 원리, 실제 적용 또는 기존 기술에 대한 개선을 바람직하게 해석하거나, 또는 다른 당업자에게 본 명세서에 개시된 각 실시예를 이해시키기 위한 것이다.As mentioned above, although each embodiment of this invention was described, the said description is only exemplary, and is not exhaustive, and is not limited to each disclosed embodiment, either. Various modifications and changes will be apparent to those skilled in the art without departing from the scope and spirit of each described embodiment. The terminology selected herein is intended to preferably interpret the principle, practical application, or improvement of existing techniques of each embodiment, or to enable others skilled in the art to understand each embodiment disclosed herein.

Claims (108)

차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것과,
상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 상기 블루투스 모듈과 상기 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하는 것과,
상기 블루투스 페어링·접속의 성공에 따라 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것과,
상기 제1 이미지에 기초하여 얼굴 인식을 행하는 것과,
얼굴 인식의 성공에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
Searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on a vehicle;
establishing Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier as the Bluetooth device of the predetermined identifier can be searched;
waking up and controlling the image acquisition module mounted on the vehicle to acquire a first image of the target object according to the success of the Bluetooth pairing/connection;
performing face recognition based on the first image;
and sending a door unlock command and/or a door open command to one or more doors of the vehicle according to the success of facial recognition.
제 1 항에 있어서,
차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것은,
상기 차량이 점화 오프 상태 또는 점화 오프이고, 또한 도어 잠금 상태에 있는 경우, 상기 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
The method of claim 1,
Searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on a vehicle includes:
and when the vehicle is in an ignition-off state or an ignition-off state and in a door lock state, searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted in the vehicle.
제 1 항 또는 제 2 항에 있어서,
상기 소정 식별자의 블루투스 디바이스의 수는 하나인, 차량의 도어 잠금 해제 방법.
3. The method according to claim 1 or 2,
and the number of Bluetooth devices of the predetermined identifier is one.
제 1 항 또는 제 2 항에 있어서,
상기 소정 식별자의 블루투스 디바이스의 수는 복수이고,
상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 상기 블루투스 모듈과 상기 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하는 것은,
소정 식별자의 블루투스 디바이스 중 어느 하나를 검색할 수 있음에 따라, 상기 블루투스 모듈과 당해 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
3. The method according to claim 1 or 2,
The number of Bluetooth devices of the predetermined identifier is plural,
Establishing Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier as the Bluetooth device of the predetermined identifier can be searched for,
A method for unlocking a vehicle door, comprising: establishing Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier in response to being able to search for any one of the Bluetooth devices of the predetermined identifier.
제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것은,
상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업하는 것과,
웨이크업된 상기 얼굴 인식 모듈에 의해 목표 대상물의 제1 이미지를 취득하도록 상기 이미지 취득 모듈을 제어하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
5. The method according to any one of claims 1 to 4,
Wake up and control the image acquisition module mounted on the vehicle to acquire the first image of the target object,
waking up the face recognition module mounted on the vehicle;
and controlling the image acquisition module to acquire a first image of a target object by the wake-up face recognition module.
제 5 항에 있어서,
상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업한 후,
미리 설정된 시간 내에 얼굴 이미지를 취득할 수 없는 경우, 상기 얼굴 인식 모듈이 슬립 상태가 되도록 제어하는 것을 추가로 포함하는, 차량의 도어 잠금 해제 방법.
6. The method of claim 5,
After waking up the face recognition module mounted on the vehicle,
The method of claim 1, further comprising controlling the face recognition module to enter a sleep state when a face image cannot be acquired within a preset time.
제 5 항에 있어서,
상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업한 후,
미리 설정된 시간 내에 얼굴 인식에 성공하지 못한 경우, 상기 얼굴 인식 모듈이 슬립 상태가 되도록 제어하는 것을 추가로 포함하는, 차량의 도어 잠금 해제 방법.
6. The method of claim 5,
After waking up the face recognition module mounted on the vehicle,
The method of claim 1, further comprising controlling the face recognition module to enter a sleep state when face recognition is not successful within a preset time.
제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
얼굴 인식의 성공에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것은,
얼굴 인식의 성공에 따라 상기 목표 대상물에 해정 권한이 부여되는 도어를 결정하는 것과,
상기 목표 대상물에 해정 권한이 부여되는 도어에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
8. The method according to any one of claims 1 to 7,
Sending a door unlock command and/or a door open command to one or more doors of the vehicle upon success of facial recognition comprises:
determining a door to which unlocking authority is granted to the target object according to the success of face recognition;
and sending a door unlocking command and/or a door opening command to one or more doors of the vehicle according to a door for which unlocking authority is granted to the target object.
제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
상기 얼굴 인식은 생체 검출 및 얼굴 인증을 포함하고,
상기 제1 이미지에 기초하여 얼굴 인식을 행하는 것은,
상기 이미지 취득 모듈의 이미지 센서에 의해 상기 제1 이미지를 취득하고, 상기 제1 이미지 및 미리 등록된 얼굴 특징에 기초하여 얼굴 인증을 행하는 것과,
상기 이미지 취득 모듈의 심도 센서에 의해 상기 제1 이미지에 대응하는 제1 심도맵을 취득하고, 상기 제1 이미지 및 상기 제1 심도맵에 기초하여 생체 검출을 행하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
9. The method according to any one of claims 1 to 8,
The face recognition includes biometric detection and face authentication,
Performing face recognition based on the first image comprises:
acquiring the first image by an image sensor of the image acquisition module, and performing face authentication based on the first image and pre-registered facial features;
acquiring a first depth map corresponding to the first image by a depth sensor of the image acquisition module, and performing biometric detection based on the first image and the first depth map; Way.
제 9 항에 있어서,
상기 제1 이미지 및 상기 제1 심도맵에 기초하여 생체 검출을 행하는 것은,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것과,
상기 제1 이미지 및 상기 제2 심도맵에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
10. The method of claim 9,
Performing biometric detection based on the first image and the first depth map,
updating the first depth map based on the first image to obtain a second depth map;
and determining a biometric detection result of the target object based on the first image and the second depth map.
제 9 항 또는 제 10 항에 있어서,
상기 이미지 센서는 RGB 이미지 센서 또는 적외선 센서를 포함하고,
상기 심도 센서는 양안 적외선 센서 또는 비행 시간 TOF 센서를 포함하는, 차량의 도어 잠금 해제 방법.
11. The method according to claim 9 or 10,
The image sensor includes an RGB image sensor or an infrared sensor,
The depth sensor comprises a binocular infrared sensor or a time-of-flight TOF sensor.
제 11 항에 있어서,
상기 TOF 센서는 적외선 파장역에 기초하는 TOF 모듈을 사용하는, 차량의 도어 잠금 해제 방법.
12. The method of claim 11,
The TOF sensor uses a TOF module based on an infrared wavelength region, the method of unlocking a door of a vehicle.
제 10 항 내지 제 12 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은,
상기 제1 이미지에 기초하여 상기 제1 심도맵에서의 심도 실효 화소의 심도값을 갱신하여 상기 제2 심도맵을 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
13. The method according to any one of claims 10 to 12,
To obtain a second depth map by updating the first depth map based on the first image,
and obtaining the second depth map by updating a depth value of an effective depth pixel in the first depth map based on the first image.
제 10 항 내지 제 13 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은,
상기 제1 이미지에 기초하여, 상기 제1 이미지에 있어서의 복수의 화소의 심도 추정값 및 상기 복수의 화소끼리의 관련도를 나타내는 관련 정보를 결정하는 것과,
상기 복수의 화소의 심도 추정값 및 관련 정보에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
14. The method according to any one of claims 10 to 13,
To obtain a second depth map by updating the first depth map based on the first image,
determining, based on the first image, depth estimation values of a plurality of pixels in the first image and related information indicating a degree of relevance between the plurality of pixels;
and updating the first depth map based on the depth estimation values of the plurality of pixels and related information to obtain a second depth map.
제 14 항에 있어서,
상기 복수의 화소의 심도 추정값 및 관련 정보에 기초하여, 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은,
상기 제1 심도맵에서의 심도 실효 화소를 결정하는 것과,
상기 복수의 화소의 심도 추정값 중, 상기 심도 실효 화소의 심도 추정값 및 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값을 취득하는 것과,
상기 복수의 화소의 관련 정보로부터, 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도를 취득하는 것과,
상기 심도 실효 화소의 심도 추정값, 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
15. The method of claim 14,
obtaining a second depth map by updating the first depth map based on the depth estimation values of the plurality of pixels and related information;
determining an effective depth pixel in the first depth map;
obtaining, from among the depth estimation values of the plurality of pixels, a depth estimation value of the depth effective pixel and depth estimation values of a plurality of neighboring pixels of the depth effective pixel;
acquiring a degree of relevance between the depth effective pixel and a plurality of peripheral pixels of the depth effective pixel from the related information of the plurality of pixels;
Based on the estimated depth value of the depth effective pixel, the estimated depth values of a plurality of neighboring pixels of the depth effective pixel, and the degree of relevance between the depth effective pixel and the neighboring pixels of the depth effective pixel, the updated depth value of the depth effective pixel is determined A method of unlocking a door of a vehicle, comprising determining.
제 15 항에 있어서,
상기 심도 실효 화소의 심도 추정값, 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것은,
상기 심도 실효 화소의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 심도 관련값을 결정하는 것과,
상기 심도 실효 화소의 심도 추정값 및 상기 심도 관련값에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
16. The method of claim 15,
The depth after updating of the depth effective pixel is based on the estimated depth of the depth effective pixel, the estimated depth of the plurality of peripheral pixels of the depth effective pixel, and the degree of relevance between the depth effective pixel and the plurality of peripheral pixels of the depth effective pixel Determining the value is
determining a depth-related value of the depth effective pixel based on a depth estimate value of a neighboring pixel of the depth effective pixel and a degree of relation between the depth effective pixel and a plurality of neighboring pixels of the depth effective pixel;
determining the updated depth value of the depth effective pixel based on the estimated depth value of the depth effective pixel and the depth-related value; A method of unlocking a door of a vehicle, comprising:
제 16 항에 있어서,
상기 심도 실효 화소의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 심도 관련값을 결정하는 것은,
상기 심도 실효 화소와 각 주변 화소의 관련도를 상기 각 주변 화소의 가중치로서 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값의 가중 합계를 계산하여, 상기 심도 실효 화소의 심도 관련값을 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
17. The method of claim 16,
Determining the depth-related value of the depth effective pixel based on the estimated depth value of the neighboring pixel of the depth effective pixel and the degree of relation between the depth effective pixel and the plurality of neighboring pixels of the depth effective pixel includes:
calculating a weighted sum of depth estimates of a plurality of neighboring pixels of the depth effective pixel by using the degree of relevance between the depth effective pixel and each neighboring pixel as a weight of each neighboring pixel to obtain a depth relation value of the depth effective pixel How to unlock a vehicle door.
제 14 항 내지 제 17 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것은,
상기 제1 이미지 및 상기 제1 심도맵에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 단계를 포함하는, 차량의 도어 잠금 해제 방법.
18. The method according to any one of claims 14 to 17,
determining, based on the first image, depth estimates of a plurality of pixels in the first image,
and determining depth estimates of a plurality of pixels in the first image based on the first image and the first depth map.
제 18 항에 있어서,
상기 제1 이미지 및 상기 제1 심도맵에 기초하여, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것은,
상기 제1 이미지 및 상기 제1 심도맵을 심도 추정 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
19. The method of claim 18,
Determining depth estimates of a plurality of pixels in the first image based on the first image and the first depth map comprises:
and inputting the first image and the first depth map into a depth estimation neural network for processing, and obtaining depth estimation values of a plurality of pixels in the first image.
제 18 항 또는 제 19 항에 있어서,
상기 제1 이미지 및 상기 제1 심도맵에 기초하여, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것은,
상기 제1 이미지 및 상기 제1 심도맵에 대해 융합 처리를 행하여, 융합 결과를 얻는 것과,
상기 융합 결과에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
20. The method according to claim 18 or 19,
Determining depth estimates of a plurality of pixels in the first image based on the first image and the first depth map comprises:
performing fusion processing on the first image and the first depth map to obtain a fusion result;
and determining depth estimates of a plurality of pixels in the first image based on the fusion result.
제 14 항 내지 제 20 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여, 상기 제1 이미지에서 복수의 화소의 관련 정보를 결정하는 것은,
상기 제1 이미지를 관련도 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서 복수의 화소의 관련 정보를 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
21. The method according to any one of claims 14 to 20,
Based on the first image, determining the relevant information of the plurality of pixels in the first image comprises:
The method of claim 1, comprising inputting the first image into a relevance detection neural network for processing, and obtaining related information of a plurality of pixels from the first image.
제 10 항 내지 제 21 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하는 것은,
상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것과,
상기 목표 대상물의 이미지에 기초하여 상기 제1 심도맵을 갱신하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
22. The method according to any one of claims 10-21,
Updating the first depth map based on the first image comprises:
acquiring an image of the target object from the first image;
and updating the first depth map based on the image of the target object.
제 22 항에 있어서,
상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것은,
상기 제1 이미지에 있의 상기 목표 대상물의 키포인트의 정보를 취득하는 것과,
상기 목표 대상물의 키포인트의 정보에 기초하여 상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
23. The method of claim 22,
Acquiring the image of the target object from the first image comprises:
acquiring information of key points of the target object in the first image;
and acquiring an image of the target object from the first image based on the key point information of the target object.
제 23 항에 있어서,
상기 제1 이미지에 있어서의 상기 목표 대상물의 키포인트의 정보를 취득하는 것은,
상기 제1 이미지에 대해 목표 검출을 행하여, 상기 목표 대상물의 소재 영역을 얻는 것과,
상기 목표 대상물의 소재 영역의 이미지에 대해 키포인트 검출을 행하여, 상기 제1 이미지에서의 상기 목표 대상물의 키포인트의 정보를 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
24. The method of claim 23,
Acquiring the key point information of the target object in the first image comprises:
performing target detection on the first image to obtain a material area of the target object;
and performing keypoint detection on an image of a material region of the target object to obtain keypoint information of the target object in the first image.
제 10 항 내지 제 24 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은,
상기 제1 심도맵에서 상기 목표 대상물의 심도맵을 취득하는 것과,
상기 제1 이미지에 기초하여 상기 목표 대상물의 심도맵을 갱신하여 상기 제2 심도맵을 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
25. The method according to any one of claims 10-24,
To obtain a second depth map by updating the first depth map based on the first image,
acquiring a depth map of the target object from the first depth map;
and updating a depth map of the target object based on the first image to obtain the second depth map.
제 10 항 내지 제 25 항 중 어느 한 항에 있어서,
상기 제1 이미지 및 상기 제2 심도맵에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것은,
상기 제1 이미지 및 상기 제2 심도맵을 생체 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 목표 대상물의 생체 검출 결과를 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
26. The method according to any one of claims 10 to 25,
Determining the biometric detection result of the target object based on the first image and the second depth map,
and inputting the first image and the second depth map into a bio-detection neural network and processing the first image and the second depth map, and obtaining a bio-detection result of the target object.
제 10 항 내지 제 26 항 중 어느 한 항에 있어서,
상기 제1 이미지 및 상기 제2 심도맵에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것은,
상기 제1 이미지에 대해 특징 추출 처리를 행하여, 제1 특징 정보를 얻는 것과,
상기 제2 심도맵에 대해 특징 추출 처리를 행하여, 제2 특징 정보를 얻는 것과,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
27. The method according to any one of claims 10-26,
Determining the biometric detection result of the target object based on the first image and the second depth map,
performing feature extraction processing on the first image to obtain first feature information;
performing feature extraction processing on the second depth map to obtain second feature information;
and determining a biometric detection result of the target object based on the first characteristic information and the second characteristic information.
제 27 항에 있어서,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것은,
상기 제1 특징 정보 및 상기 제2 특징 정보에 대해 융합 처리를 행하여, 제3 특징 정보를 얻는 것과,
상기 제3 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
28. The method of claim 27,
Determining the biometric detection result of the target object based on the first characteristic information and the second characteristic information includes:
performing fusion processing on the first characteristic information and the second characteristic information to obtain third characteristic information;
and determining a biometric detection result of the target object based on the third characteristic information.
제 28 항에 있어서,
상기 제3 특징 정보에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것은,
상기 제3 특징 정보에 기초하여, 상기 목표 대상물이 생체인 확률을 얻는 것과,
상기 목표 대상물이 생체인 확률에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
29. The method of claim 28,
Determining the biometric detection result of the target object based on the third characteristic information includes:
obtaining a probability that the target object is a living body based on the third characteristic information;
and determining a biometric detection result of the target object based on a probability that the target object is a living body.
제 1 항 내지 제 29 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 얼굴 인식을 행한 후,
얼굴 인식 실패에 따라 패스워드에 의한 잠금 해제의 흐름을 기동하도록 상기 차량에 탑재되는 패스워드 잠금 해제 모듈을 활성화하는 것을 추가로 포함하는, 차량의 도어 잠금 해제 방법.
30. The method according to any one of claims 1 to 29,
After face recognition is performed based on the first image,
The method of unlocking a door of a vehicle, further comprising activating a password unlocking module mounted on the vehicle to start a flow of unlocking by a password according to a face recognition failure.
제 1 항 내지 제 30 항 중 어느 한 항에 있어서,
상기 이미지 취득 모듈에 의해 취득된 차량 소유자의 얼굴 이미지에 기초하여, 차량 소유자의 등록을 행하는 것과,
상기 차량 소유자의 단말 장치에 의해 취득된 상기 차량 소유자의 얼굴 이미지에 기초하여 원격 등록을 행하고, 상기 차량 소유자의 얼굴 이미지를 포함하는 등록 정보를 상기 차량에 송신하는 것 중 하나 이상을 추가로 포함하는, 차량의 도어 잠금 해제 방법.
31. The method according to any one of claims 1 to 30,
performing registration of the vehicle owner based on the facial image of the vehicle owner acquired by the image acquisition module;
Further comprising at least one of performing remote registration based on the face image of the vehicle owner acquired by the terminal device of the vehicle owner, and transmitting registration information including the face image of the vehicle owner to the vehicle , how to unlock the door of the vehicle.
차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것과,
상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것과,
상기 제1 이미지에 기초하여 얼굴 인식을 행하는 것과,
얼굴 인식의 성공에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
Searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on a vehicle;
waking up and controlling an image acquisition module mounted on the vehicle to acquire a first image of a target object as the Bluetooth device of the predetermined identifier can be searched;
performing face recognition based on the first image;
and sending a door unlock command and/or a door open command to one or more doors of the vehicle according to the success of facial recognition.
제 32 항에 있어서,
차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것은,
상기 차량이 점화 오프 상태 또는 점화 오프이고, 또한 도어 잠금 상태에 있는 경우, 상기 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
33. The method of claim 32,
Searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on a vehicle includes:
and when the vehicle is in an ignition-off state or an ignition-off state and in a door lock state, searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted in the vehicle.
제 31 항 또는 제 32 항에 있어서,
상기 소정 식별자의 블루투스 디바이스의 수는 하나인, 차량의 도어 잠금 해제 방법.
33. The method of claim 31 or 32,
and the number of Bluetooth devices of the predetermined identifier is one.
제 31 항 또는 제 32 항에 있어서,
상기 소정 식별자의 블루투스 디바이스의 수는 복수이고,
상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것은,
소정 식별자의 블루투스 디바이스 중 어느 하나를 검색할 수 있음에 따라, 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
33. The method of claim 31 or 32,
The number of Bluetooth devices of the predetermined identifier is plural,
Wake up and control the image acquisition module mounted on the vehicle to acquire a first image of a target object as the Bluetooth device of the predetermined identifier can be searched for,
A method for unlocking a door of a vehicle, comprising: waking up and controlling an image acquisition module mounted on the vehicle to acquire a first image of a target object according to being able to search for any one of the Bluetooth devices of a predetermined identifier.
제 32 항 내지 제 35 항 중 어느 한 항에 있어서,
목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것은,
상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업하는 것과,
웨이크업된 상기 얼굴 인식 모듈에 의해 목표 대상물의 제1 이미지를 취득하도록 이미지 취득 모듈을 제어하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
36. The method according to any one of claims 32 to 35,
Wake up and control the image acquisition module mounted on the vehicle to acquire the first image of the target object,
waking up the face recognition module mounted on the vehicle;
and controlling an image acquisition module to acquire a first image of a target object by the wake-up face recognition module.
제 36 항에 있어서,
상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업한 후,
미리 설정된 시간 내에 얼굴 이미지를 취득할 수 없는 경우, 상기 얼굴 인식 모듈이 슬립 상태가 되도록 제어하는 것을 추가로 포함하는, 차량의 도어 잠금 해제 방법.
37. The method of claim 36,
After waking up the face recognition module mounted on the vehicle,
The method of claim 1, further comprising controlling the face recognition module to enter a sleep state when a face image cannot be acquired within a preset time.
제 36 항에 있어서,
상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업한 후,
미리 설정된 시간 내에 얼굴 인식에 성공하지 못한 경우, 상기 얼굴 인식 모듈이 슬립 상태가 되도록 제어하는 것을 추가로 포함하는, 차량의 도어 잠금 해제 방법.
37. The method of claim 36,
After waking up the face recognition module mounted on the vehicle,
The method of claim 1, further comprising controlling the face recognition module to enter a sleep state when face recognition is not successful within a preset time.
제 32 항 내지 제 38 항 중 어느 한 항에 있어서,
얼굴 인식의 성공에 따라, 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것은,
얼굴 인식의 성공에 따라 상기 목표 대상물에 해정 권한이 부여되는 도어를 결정하는 것과,
상기 목표 대상물에 해정 권한이 부여되는 도어에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
39. The method according to any one of claims 32 to 38,
Upon success of facial recognition, sending a door unlock command and/or a door open command to one or more doors of the vehicle comprises:
determining a door to which unlocking authority is granted to the target object according to the success of face recognition;
and sending a door unlocking command and/or a door opening command to one or more doors of the vehicle according to a door for which unlocking authority is granted to the target object.
제 32 항 내지 제 39 항 중 어느 한 항에 있어서,
상기 얼굴 인식은 생체 검출 및 얼굴 인증을 포함하고,
상기 제1 이미지에 기초하여 얼굴 인식을 행하는 것은,
상기 이미지 취득 모듈의 이미지 센서에 의해 상기 제1 이미지를 취득하고, 상기 제1 이미지 및 미리 등록된 얼굴 특징에 기초하여 얼굴 인증을 행하는 것과,
상기 이미지 취득 모듈의 심도 센서에 의해 상기 제1 이미지에 대응하는 제1 심도맵을 취득하고, 상기 제1 이미지 및 상기 제1 심도맵에 기초하여 생체 검출을 행하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
40. The method according to any one of claims 32 to 39,
The face recognition includes biometric detection and face authentication,
Performing face recognition based on the first image comprises:
acquiring the first image by an image sensor of the image acquisition module, and performing face authentication based on the first image and pre-registered facial features;
acquiring a first depth map corresponding to the first image by a depth sensor of the image acquisition module, and performing biometric detection based on the first image and the first depth map; Way.
제 40 항에 있어서,
상기 제1 이미지 및 상기 제1 심도맵에 기초하여 생체 검출을 행하는 것은,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것과,
상기 제1 이미지 및 상기 제2 심도맵에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
41. The method of claim 40,
Performing biometric detection based on the first image and the first depth map,
updating the first depth map based on the first image to obtain a second depth map;
and determining a biometric detection result of the target object based on the first image and the second depth map.
제 40 항 또는 제 41 항에 있어서,
상기 이미지 센서는 RGB 이미지 센서 또는 적외선 센서를 포함하고,
상기 심도 센서는 양안 적외선 센서 또는 비행 시간 TOF 센서를 포함하는, 차량의 도어 잠금 해제 방법.
42. The method of claim 40 or 41,
The image sensor includes an RGB image sensor or an infrared sensor,
The depth sensor comprises a binocular infrared sensor or a time-of-flight TOF sensor.
제 42 항에 있어서,
상기 TOF 센서는 적외선 파장역에 기초하는 TOF 모듈을 사용하는, 차량의 도어 잠금 해제 방법.
43. The method of claim 42,
The TOF sensor uses a TOF module based on an infrared wavelength region, the method of unlocking a door of a vehicle.
제 41 항 내지 제 43 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은,
상기 제1 이미지에 기초하여 상기 제1 심도맵에서의 심도 실효 화소의 심도값을 갱신하여 상기 제2 심도맵을 얻는 단계를 포함하는, 차량의 도어 잠금 해제 방법.
44. The method according to any one of claims 41 to 43,
To obtain a second depth map by updating the first depth map based on the first image,
and obtaining the second depth map by updating a depth value of an effective depth pixel in the first depth map based on the first image.
제 41 항 내지 제 44 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은,
상기 제1 이미지에 기초하여, 상기 제1 이미지에 있어서의 복수의 화소의 심도 추정값 및 상기 복수의 화소끼리의 관련도를 나타내는 관련 정보를 결정하는 것과,
상기 복수의 화소의 심도 추정값 및 관련 정보에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
45. The method according to any one of claims 41 to 44,
To obtain a second depth map by updating the first depth map based on the first image,
determining, based on the first image, depth estimation values of a plurality of pixels in the first image and related information indicating a degree of relevance between the plurality of pixels;
and updating the first depth map based on the depth estimation values of the plurality of pixels and related information to obtain a second depth map.
제 45 항에 있어서,
상기 복수의 화소의 심도 추정값 및 관련 정보에 기초하여, 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은,
상기 제1 심도맵에서의 심도 실효 화소를 결정하는 것과,
상기 복수의 화소의 심도 추정값 중, 상기 심도 실효 화소의 심도 추정값 및 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값을 취득하는 것과,
상기 복수의 화소의 관련 정보로부터, 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도를 취득하는 것과,
상기 심도 실효 화소의 심도 추정값, 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
46. The method of claim 45,
obtaining a second depth map by updating the first depth map based on the depth estimation values of the plurality of pixels and related information;
determining an effective depth pixel in the first depth map;
obtaining, from among the depth estimation values of the plurality of pixels, a depth estimation value of the depth effective pixel and depth estimation values of a plurality of neighboring pixels of the depth effective pixel;
acquiring a degree of relevance between the depth effective pixel and a plurality of peripheral pixels of the depth effective pixel from the related information of the plurality of pixels;
Based on the estimated depth value of the depth effective pixel, the estimated depth values of a plurality of neighboring pixels of the depth effective pixel, and the degree of relevance between the depth effective pixel and the neighboring pixels of the depth effective pixel, the updated depth value of the depth effective pixel is determined A method of unlocking a door of a vehicle, comprising determining.
제 46 항에 있어서,
상기 심도 실효 화소의 심도 추정값, 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것은,
상기 심도 실효 화소의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 심도 관련값을 결정하는 것과,
상기 심도 실효 화소의 심도 추정값 및 상기 심도 관련값에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
47. The method of claim 46,
The depth after updating of the depth effective pixel is based on the estimated depth of the depth effective pixel, the estimated depth of the plurality of peripheral pixels of the depth effective pixel, and the degree of relevance between the depth effective pixel and the plurality of peripheral pixels of the depth effective pixel Determining the value is
determining a depth-related value of the depth effective pixel based on a depth estimate value of a neighboring pixel of the depth effective pixel and a degree of relation between the depth effective pixel and a plurality of neighboring pixels of the depth effective pixel;
and determining a depth value after updating of the depth effective pixel based on the depth estimation value of the depth effective pixel and the depth-related value.
제 47 항에 있어서,
상기 심도 실효 화소의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 심도 관련값을 결정하는 것은,
상기 심도 실효 화소와 각 주변 화소의 관련도를 상기 각 주변 화소의 가중치로서 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값의 가중 합계를 계산하여, 상기 심도 실효 화소의 심도 관련값을 취하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
48. The method of claim 47,
Determining the depth-related value of the depth effective pixel based on the estimated depth value of the neighboring pixel of the depth effective pixel and the degree of relation between the depth effective pixel and the plurality of neighboring pixels of the depth effective pixel includes:
calculating the weighted sum of the depth estimation values of a plurality of neighboring pixels of the depth effective pixel using the degree of relevance between the depth effective pixel and each neighboring pixel as the weight of each neighboring pixel, and taking the depth relation value of the depth effective pixel How to unlock the vehicle door.
제 45 항 내지 제 48 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것은,
상기 제1 이미지 및 상기 제1 심도맵에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
49. The method according to any one of claims 45 to 48,
determining, based on the first image, depth estimates of a plurality of pixels in the first image,
and determining depth estimates of a plurality of pixels in the first image based on the first image and the first depth map.
제 49 항에 있어서,
상기 제1 이미지 및 상기 제1 심도맵에 기초하여, 상기 제1 이미지에서 복수의 화소의 심도 추정값을 결정하는 것은,
상기 제1 이미지 및 상기 제1 심도맵을 심도 추정 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
50. The method of claim 49,
Determining depth estimation values of a plurality of pixels in the first image based on the first image and the first depth map comprises:
and inputting the first image and the first depth map into a depth estimation neural network for processing, and obtaining depth estimation values of a plurality of pixels in the first image.
제 49 항 또는 제 50 항에 있어서,
상기 제1 이미지 및 상기 제1 심도맵에 기초하여, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것은,
상기 제1 이미지 및 상기 제1 심도맵에 대해 융합 처리를 행하여, 융합 결과를 얻는 것과,
상기 융합 결과에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
51. The method of claim 49 or 50,
Determining depth estimates of a plurality of pixels in the first image based on the first image and the first depth map comprises:
performing fusion processing on the first image and the first depth map to obtain a fusion result;
and determining depth estimates of a plurality of pixels in the first image based on the fusion result.
제 45 항 내지 제 51 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여, 상기 제1 이미지에서의 복수의 화소의 관련 정보를 결정하는 것은,
상기 제1 이미지를 관련도 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서의 복수의 화소의 관련 정보를 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
52. The method according to any one of claims 45 to 51,
Determining, based on the first image, related information of the plurality of pixels in the first image,
and inputting the first image into a relevance detection neural network for processing, and obtaining related information of a plurality of pixels in the first image.
제 41 항 내지 제 52 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하는 것은,
상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것과,
상기 목표 대상물의 이미지에 기초하여 상기 제1 심도맵을 갱신하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
53. The method according to any one of claims 41 to 52,
Updating the first depth map based on the first image comprises:
acquiring an image of the target object from the first image;
and updating the first depth map based on the image of the target object.
제 53 항에 있어서,
상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것은,
상기 제1 이미지에서의 상기 목표 대상물의 키포인트의 정보를 취득하는 것과,
상기 목표 대상물의 키포인트의 정보에 기초하여 상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
54. The method of claim 53,
Acquiring the image of the target object from the first image comprises:
acquiring information on key points of the target object in the first image;
and acquiring an image of the target object from the first image based on the key point information of the target object.
제 54 항에 있어서,
상기 제1 이미지에서의 상기 목표 대상물의 키포인트의 정보를 취득하는 것은,
상기 제1 이미지에 대해 목표 검출을 행하여, 상기 목표 대상물의 소재 영역을 얻는 것과,
상기 목표 대상물의 소재 영역의 이미지에 대해 키포인트 검출을 행하여, 상기 제1 이미지에서의 상기 목표 대상물의 키포인트의 정보를 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
55. The method of claim 54,
Acquiring the key point information of the target object in the first image comprises:
performing target detection on the first image to obtain a material area of the target object;
and performing keypoint detection on an image of a material region of the target object to obtain keypoint information of the target object in the first image.
제 41 항 내지 제 55 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것은,
상기 제1 심도맵에서 상기 목표 대상물의 심도맵을 취득하는 것과,
상기 제1 이미지에 기초하여 상기 목표 대상물의 심도맵을 갱신하여 상기 제2 심도맵을 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
56. The method according to any one of claims 41 to 55,
To obtain a second depth map by updating the first depth map based on the first image,
acquiring a depth map of the target object from the first depth map;
and updating a depth map of the target object based on the first image to obtain the second depth map.
제 41 항 내지 제 56 항 중 어느 한 항에 있어서,
상기 제1 이미지 및 상기 제2 심도맵에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것은,
상기 제1 이미지 및 상기 제2 심도맵을 생체 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 목표 대상물의 생체 검출 결과를 얻는 것을 포함하는, 차량의 도어 잠금 해제 방법.
57. The method according to any one of claims 41 to 56,
Determining the biometric detection result of the target object based on the first image and the second depth map,
and inputting the first image and the second depth map into a bio-detection neural network and processing the first image and the second depth map, and obtaining a bio-detection result of the target object.
제 41 항 내지 제 57 항 중 어느 한 항에 있어서,
상기 제1 이미지 및 상기 제2 심도맵에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것은,
상기 제1 이미지에 대해 특징 추출 처리를 행하여, 제1 특징 정보를 얻는 것과,
상기 제2 심도맵에 대해 특징 추출 처리를 행하여, 제2 특징 정보를 얻는 것과,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
58. The method according to any one of claims 41 to 57,
Determining the biometric detection result of the target object based on the first image and the second depth map,
performing feature extraction processing on the first image to obtain first feature information;
performing feature extraction processing on the second depth map to obtain second feature information;
and determining a biometric detection result of the target object based on the first characteristic information and the second characteristic information.
제 58 항에 있어서,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것은,
상기 제1 특징 정보 및 상기 제2 특징 정보에 대하여 융합 처리를 행하여, 제3 특징 정보를 얻는 것과,
상기 제3 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
59. The method of claim 58,
Determining the biometric detection result of the target object based on the first characteristic information and the second characteristic information includes:
performing fusion processing on the first characteristic information and the second characteristic information to obtain third characteristic information;
and determining a biometric detection result of the target object based on the third characteristic information.
제 59 항에 있어서,
상기 제3 특징 정보에 기초하여, 상기 목표 대상물의 생체 검출 결과를 결정하는 것은,
상기 제3 특징 정보에 기초하여, 상기 목표 대상물이 생체인 확률을 얻는 것과,
상기 목표 대상물이 생체인 확률에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것을 포함하는, 차량의 도어 잠금 해제 방법.
60. The method of claim 59,
Determining the biometric detection result of the target object based on the third characteristic information includes:
obtaining a probability that the target object is a living body based on the third characteristic information;
and determining a biometric detection result of the target object based on a probability that the target object is a living body.
제 32 항 내지 제 60 항 중 어느 한 항에 있어서,
상기 제1 이미지에 기초하여 얼굴 인식을 행한 후,
얼굴 인식 실패에 따라 패스워드에 의한 잠금 해제의 흐름을 기동하도록 상 차량에 탑재되는 패스워드 잠금 해제 모듈을 활성화하는 것을 추가로 포함하는, 차량의 도어 잠금 해제 방법.
61. The method according to any one of claims 32 to 60,
After face recognition is performed based on the first image,
The method for unlocking a door of a vehicle, further comprising activating a password unlocking module mounted on the upper vehicle to start a flow of unlocking by a password according to a face recognition failure.
제 32 항 내지 제 61 항 중 어느 한 항에 있어서,
상기 이미지 취득 모듈에 의해 취득된 차량 소유자의 얼굴 이미지에 기초하여 차량 소유자의 등록을 행하는 것과,
상기 차량 소유자의 단말 장치에 의해 취득된 상기 차량 소유자의 얼굴 이미지에 기초하여 원격 등록을 행하고, 상기 차량 소유자의 얼굴 이미지를 포함하는 등록 정보를 상기 차량에 송신하는 것 중 하나 이상을 추가로 포함하는, 차량의 도어 잠금 해제.
62. The method according to any one of claims 32 to 61,
performing registration of the vehicle owner based on the facial image of the vehicle owner acquired by the image acquisition module;
Further comprising at least one of performing remote registration based on the face image of the vehicle owner acquired by the terminal device of the vehicle owner, and transmitting registration information including the face image of the vehicle owner to the vehicle , unlocking the vehicle's door.
차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하기 위한 검색 모듈과,
상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라, 상기 블루투스 모듈과 상기 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 확립하고, 상기 블루투스 페어링·접속의 성공에 따라 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하거나, 또는 상기 소정 식별자의 블루투스 디바이스를 검색할 수 있음에 따라 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하기 위한 웨이크업 모듈과,
상기 제1 이미지에 기초하여 얼굴 인식을 행하기 위한 얼굴 인식 모듈과,
얼굴 인식의 성공에 따라, 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하기 위한 잠금 해제 모듈을 구비하는, 차량의 도어 잠금 해제 장치.
a search module for searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on a vehicle;
As the Bluetooth device of the predetermined identifier can be searched for, a Bluetooth pairing/connection is established between the Bluetooth module and the Bluetooth device of the predetermined identifier, and a first image of the target object is acquired according to the success of the Bluetooth pairing/connection. Wake up and control the image acquisition module mounted on the vehicle to wake up the image acquisition module mounted on the vehicle, or wake up the image acquisition module mounted on the vehicle to acquire the first image of the target object according to the ability to search for the Bluetooth device of the predetermined identifier a wake-up module for controlling
a face recognition module for performing face recognition based on the first image;
and an unlocking module for sending a door unlocking command and/or a door open command to one or more doors of the vehicle upon success of facial recognition.
제 63 항에 있어서,
상기 검색 모듈은,
상기 차량이 점화 오프 상태 또는 점화 오프 및 도어 잠금 상태에 있는 경우, 상기 차량에 탑재되는 블루투스 모듈에 의해 소정 식별자의 블루투스 디바이스를 검색하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
64. The method of claim 63,
The search module is
used for searching for a Bluetooth device of a predetermined identifier by a Bluetooth module mounted on the vehicle when the vehicle is in an ignition-off state or an ignition-off and door lock state.
제 63 항 또는 제 64 항에 있어서,
상기 소정 식별자의 블루투스 디바이스의 수는 하나인, 차량의 도어 잠금 해제 장치.
65. The method of claim 63 or 64,
and the number of Bluetooth devices of the predetermined identifier is one.
제 63 항 또는 제 64 항에 있어서,
소정 식별자의 블루투스 디바이스의 수는 복수이고,
상기 웨이크업 모듈은,
소정 식별자의 블루투스 디바이스 중 어느 하나를 검색할 수 있음에 따라 상기 블루투스 모듈과 당해 소정 식별자의 블루투스 디바이스의 블루투스 페어링·접속을 설정하거나, 또는 목표 대상물의 제1 이미지를 취득하도록 상기 차량에 탑재되는 이미지 취득 모듈을 웨이크업하여 제어하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
65. The method of claim 63 or 64,
The number of Bluetooth devices of a given identifier is plural,
The wake-up module is
An image mounted on the vehicle to establish Bluetooth pairing/connection between the Bluetooth module and the Bluetooth device of the predetermined identifier or to acquire a first image of a target object as any one of the Bluetooth devices of the predetermined identifier can be searched A door unlocking device for a vehicle, used for waking up and controlling the acquisition module.
제 63 항 내지 제 66 항 중 어느 한 항에 어서,
상기 웨이크업 모듈은,
상기 차량에 탑재되는 얼굴 인식 모듈을 웨이크업하기 위한 웨이크업 서브 모듈과,
웨이크업된 상기 얼굴 인식 모듈에 의해 목표 대상물의 제1 이미지를 취득하도록 상기 이미지 취득 모듈을 제어하기 위한 서브 모듈을 갖는, 차량의 도어 잠금 해제 장치.
67. The method according to any one of claims 63 to 66,
The wake-up module is
a wake-up sub-module for waking up the facial recognition module mounted on the vehicle;
and a sub-module for controlling the image acquisition module to acquire a first image of a target object by the wake-up face recognition module.
제 67 항에 있어서,
미리 설정된 시간 내에 얼굴 이미지를 취득할 수 없는 경우, 상기 얼굴 인식 모듈이 슬립 상태가 되도록 제어하기 위한 제1 제어 모듈을 추가로 구비하는, 차량의 도어 잠금 해제 장치.
68. The method of claim 67,
and a first control module for controlling the face recognition module to enter a sleep state when a face image cannot be acquired within a preset time.
제 67 항에 있어서,
미리 설정된 시간 내에 얼굴 인식에 성공하지 못한 경우, 상기 얼굴 인식 모듈이 슬립 상태가 되도록 제어하기 위한 제2 제어 모듈을 추가로 구비하는, 차량의 도어 잠금 해제 장치.
68. The method of claim 67,
A door unlocking device for a vehicle, further comprising a second control module for controlling the face recognition module to enter a sleep state when face recognition is not successful within a preset time.
제 63 항 내지 제 69 항 중 어느 한 항에 있어서,
상기 잠금 해제 모듈은,
얼굴 인식의 성공에 따라 상기 목표 대상물에 해정 권한이 부여되는 도어를 결정하는 것과,
상기 목표 대상물에 해정 권한이 부여되는 도어에 따라 상기 차량의 하나 이상의 도어에 도어 잠금 해제 명령 및/또는 도어 개방 명령을 송신하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
70. The method according to any one of claims 63 to 69,
The unlocking module is
determining a door to which unlocking authority is granted to the target object according to the success of face recognition;
and sending a door unlocking command and/or a door opening command to one or more doors of the vehicle according to a door for which unlocking authority is granted to the target object.
제 63 항 내지 제 70 항 중 어느 한 항에 있어서,
상기 얼굴 인식은 생체 검출 및 얼굴 인증을 포함하고,
상기 인식 모듈은,
상기 이미지 취득 모듈의 이미지 센서에 의해 상기 제1 이미지를 취득하고, 상기 제1 이미지 및 미리 등록된 얼굴 특징에 기초하여 얼굴 인증을 행하기 위한 얼굴 인증 모듈과,
상기 이미지 취득 모듈의 심도 센서에 의해 상기 제1 이미지에 대응하는 제1 심도맵을 취득하고, 상기 제1 이미지 및 상기 제1 심도맵에 기초하여 생체 검출을 행하기 위한 생체 검출 모듈을 갖는, 차량의 도어 잠금 해제 장치.
71. The method according to any one of claims 63 to 70,
The face recognition includes biometric detection and face authentication,
The recognition module,
a face authentication module for acquiring the first image by an image sensor of the image acquisition module, and performing face authentication based on the first image and pre-registered facial features;
a vehicle having a biometric detection module configured to acquire a first depth map corresponding to the first image by a depth sensor of the image acquisition module, and perform biometric detection based on the first image and the first depth map; door unlocking device.
제 71 항에 있어서,
상기 생체 검출 모듈은,
상기 제1 이미지에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻기 위한 갱신 서브 모듈과,
상기 제1 이미지 및 상기 제2 심도맵에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하기 위한 결정 서브 모듈을 갖는, 차량의 도어 잠금 해제 장치.
72. The method of claim 71,
The biometric detection module,
an update submodule for updating the first depth map based on the first image to obtain a second depth map;
and a determining sub-module configured to determine a biometric detection result of the target object based on the first image and the second depth map.
제 71 항 또는 제 72 항에 있어서,
상기 이미지 센서는 RGB 이미지 센서 또는 적외선 센서를 포함하고,
상기 심도 센서는 양안 적외선 센서 또는 비행 시간 TOF 센서를 포함하는, 차량의 도어 잠금 해제 장치.
73. The method of claim 71 or 72,
The image sensor includes an RGB image sensor or an infrared sensor,
The depth sensor comprises a binocular infrared sensor or a time-of-flight TOF sensor.
제 73 항에 있어서,
상기 TOF 센서는 적외선 파장역에 기초하는 TOF 모듈을 사용하는, 차량의 도어 잠금 해제 장치.
74. The method of claim 73,
and the TOF sensor uses a TOF module based on an infrared wavelength region.
제 72 항 내지 제 74 항 중 어느 한 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 이미지에 기초하여 상기 제1 심도맵에서의 심도 실효 화소의 심도값을 갱신하여 상기 제2 심도맵을 얻는 것에 사용되는, 차량의 도어 잠금 해제 장치.
75. The method according to any one of claims 72 to 74,
The update sub-module,
and updating a depth value of an effective depth pixel in the first depth map based on the first image to obtain the second depth map.
제 72 항 내지 제 75 항 중 어느 한 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 이미지에 기초하여, 상기 제1 이미지에 있어서의 복수의 화소의 심도 추정값 및 상기 복수의 화소끼리의 관련도를 나타내는 관련 정보를 결정하는 것과,
상기 복수의 화소의 심도 추정값 및 관련 정보에 기초하여 상기 제1 심도맵을 갱신하여 제2 심도맵을 얻는 것에 사용되는, 차량의 도어 잠금 해제 장치.
76. The method of any one of claims 72 to 75,
The update sub-module,
determining, based on the first image, depth estimation values of a plurality of pixels in the first image and related information indicating a degree of relevance between the plurality of pixels;
and updating the first depth map based on the depth estimation value of the plurality of pixels and related information to obtain a second depth map.
제 76 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 심도맵에서의 심도 실효 화소를 결정하는 것과,
상기 복수의 화소의 심도 추정값 중, 상기 심도 실효 화소의 심도 추정값 및 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값을 취득하는 것과,
상기 복수의 화소의 관련 정보에서 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도를 취득하는 것과,
상기 심도 실효 화소의 심도 추정값, 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
77. The method of claim 76,
The update sub-module,
determining an effective depth pixel in the first depth map;
obtaining, from among the depth estimation values of the plurality of pixels, a depth estimation value of the depth effective pixel and depth estimation values of a plurality of neighboring pixels of the depth effective pixel;
acquiring a degree of relevance between the depth effective pixel and a plurality of neighboring pixels of the depth effective pixel from the related information of the plurality of pixels;
Based on the estimated depth value of the depth effective pixel, the estimated depth values of a plurality of neighboring pixels of the depth effective pixel, and the degree of relevance between the depth effective pixel and the neighboring pixels of the depth effective pixel, the updated depth value of the depth effective pixel is determined Used to determine the vehicle's door unlocking device.
제 77 항에 있어서,
상기 갱신 서브 모듈은,
상기 심도 실효 화소의 주변 화소의 상기 심도 추정값 및 상기 심도 실효 화소와 상기 심도 실효 화소의 복수의 주변 화소의 관련도에 기초하여, 상기 심도 실효 화소의 심도 관련값을 결정하는 것과,
상기 심도 폐지 화소의 심도 추정값 및 상기 심도 관련값에 기초하여, 상기 심도 실효 화소의 갱신 후의 심도값을 결정하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
78. The method of claim 77,
The update sub-module,
determining a depth-related value of the depth effective pixel based on the estimated depth value of a neighboring pixel of the depth effective pixel and a degree of relevance between the depth effective pixel and a plurality of neighboring pixels of the depth effective pixel;
and determining a depth value after updating of the depth effective pixel based on the depth estimation value of the depth abolition pixel and the depth-related value.
제 78 항에 있어서,
상기 갱신 서브 모듈은,
상기 심도 실효 화소와 각 주변 화소의 관련도를 상기 각 주변 화소의 가중치로서, 상기 심도 실효 화소의 복수의 주변 화소의 심도 추정값의 가중 합계를 계산하여, 상기 심도 실효 화소의 심도 관련값을 얻는 것에 사용되는, 차량의 도어 잠금 해제 장치.
79. The method of claim 78,
The update sub-module,
Using the degree of relation between the depth effective pixel and each neighboring pixel as the weight of each neighboring pixel, calculating the weighted sum of the estimated depth values of a plurality of neighboring pixels of the depth effective pixel to obtain a depth related value of the depth effective pixel Used, the door unlocking device of the vehicle.
제 76 항 내지 제 79 항 중 어느 한 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 이미지 및 상기 제1 심도맵에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
80. The method according to any one of claims 76 to 79,
The update sub-module,
and determining depth estimates of a plurality of pixels in the first image based on the first image and the first depth map.
제 80 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 이미지 및 상기 제1 심도맵을 심도 추정 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 얻는 것에 사용되는, 차량의 도어 잠금 해제 장치.
81. The method of claim 80,
The update sub-module,
and inputting the first image and the first depth map into a depth estimation neural network for processing, and is used to obtain depth estimation values of a plurality of pixels in the first image.
제 80 항 또는 제 81 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 이미지 및 상기 제1 심도맵에 대해 융합 처리를 행하여, 융합 결과를 얻는 것과,
상기 융합 결과에 기초하여 상기 제1 이미지에서의 복수의 화소의 심도 추정값을 결정하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
82. The method of claim 80 or 81,
The update sub-module,
performing fusion processing on the first image and the first depth map to obtain a fusion result;
and determining a depth estimate of a plurality of pixels in the first image based on the fusion result.
제 76 항 내지 제 82 항 중 어느 한 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 이미지를 관련도 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 제1 이미지에서의 복수의 화소의 관련 정보를 얻는 것에 사용되는, 차량의 도어 잠금 해제 장치.
83. The method of any one of claims 76 to 82,
The update sub-module,
A door unlocking device for a vehicle, used for inputting the first image into a relevance detection neural network and processing it, and obtaining related information of a plurality of pixels in the first image.
제 72 항 내지 제 83 항 중 어느 한 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것과,
상기 목표 대상물의 이미지에 기초하여 상기 제1 심도맵을 갱신하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
84. The method according to any one of claims 72 to 83,
The update sub-module,
acquiring an image of the target object from the first image;
and used to update the first depth map based on the image of the target object.
제 84 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 이미지에서의 상기 목표 대상물의 키포인트의 정보를 취득하는 것과,
상기 목표 대상물의 키포인트의 정보에 기초하여 상기 제1 이미지에서 상기 목표 대상물의 이미지를 취득하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
85. The method of claim 84,
The update sub-module,
acquiring information on key points of the target object in the first image;
a door unlocking device for a vehicle, used for acquiring an image of the target object from the first image based on the keypoint information of the target object.
제 85 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 이미지에 대해 목표 검출을 행하여, 상기 목표 대상물의 소재 영역을 얻는 것과,
상기 목표 대상물의 소재 영역의 이미지에 대해 키포인트 검출을 행하여, 상기 제1 이미지에서의 상기 목표 대상물의 키포인트의 정보를 얻는 것에 사용되는, 차량의 도어 잠금 해제 장치.
86. The method of claim 85,
The update sub-module,
performing target detection on the first image to obtain a material area of the target object;
a door unlocking device for a vehicle, used for performing keypoint detection on an image of a material region of the target object to obtain information of a keypoint of the target object in the first image.
제 72 항 내지 제 86 항 중 어느 한 항에 있어서,
상기 갱신 서브 모듈은,
상기 제1 심도맵에서 상기 목표 대상물의 심도맵을 취득하는 것과,
상기 제1 이미지에 기초하여 상기 목표 대상물의 심도맵을 갱신하여 상기 제2 심도맵을 얻는 것에 사용되는, 차량의 도어 잠금 해제 장치.
87. The method of any one of claims 72 to 86,
The update sub-module,
acquiring a depth map of the target object from the first depth map;
and updating a depth map of the target object based on the first image to obtain the second depth map.
제 72 항 내지 제 87 항 중 어느 한 항에 있어서,
상기 결정 서브 모듈은,
상기 제1 이미지 및 상기 제2 심도맵을 생체 검출 뉴럴 네트워크에 입력하여 처리하고, 상기 목표 대상물의 생체 검출 결과를 얻는 것에 사용되는, 차량의 도어 잠금 해제 장치.
88. The method according to any one of claims 72 to 87,
The determining sub-module,
A door unlocking device for a vehicle, which is used to input and process the first image and the second depth map into a biometric detection neural network, and to obtain a biometric detection result of the target object.
제 72 항 내지 제 88 항 중 어느 한 항에 있어서,
상기 결정 서브 모듈은,
상기 제1 이미지에 대해 특징 추출 처리를 행하여, 제1 특징 정보를 얻는 것과,
상기 제2 심도맵에 대해 특징 추출 처리를 행하여, 제2 특징 정보를 얻는 것과,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
89. The method according to any one of claims 72 to 88,
The determining sub-module,
performing feature extraction processing on the first image to obtain first feature information;
performing feature extraction processing on the second depth map to obtain second feature information;
and used to determine a biometric detection result of the target object based on the first characteristic information and the second characteristic information.
제 89 항에 있어서,
상기 결정 서브 모듈은,
상기 제1 특징 정보 및 상기 제2 특징 정보에 대해 융합 처리를 행하여, 제3 특징 정보를 얻는 것과,
상기 제3 특징 정보에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
91. The method of claim 89,
The determining sub-module,
performing fusion processing on the first characteristic information and the second characteristic information to obtain third characteristic information;
and used to determine a biometric detection result of the target object based on the third characteristic information.
제 90 항에 있어서,
상기 결정 서브 모듈은,
상기 제3 특징 정보에 기초하여, 상기 목표 대상물이 생체인 확률을 얻는 것과,
상기 목표 대상물이 생체인 확률에 기초하여 상기 목표 대상물의 생체 검출 결과를 결정하는 것에 사용되는, 차량의 도어 잠금 해제 장치.
91. The method of claim 90,
The determining sub-module,
obtaining a probability that the target object is a living body based on the third characteristic information;
and determining a biometric detection result of the target object based on a probability that the target object is a living body.
제 63 항 내지 제 91 항 중 어느 한 항에 있어서,
얼굴 인식 실패에 따라, 패스워드에 의한 잠금 해제의 흐름을 기동하도록 상기 차량에 탑재되는 패스워드 잠금 해제 모듈을 활성화하기 위한 활성화 기동 모듈을 추가로 구비하는, 차량의 도어 잠금 해제 장치.
92. The method according to any one of claims 63 to 91,
The device for unlocking a door of a vehicle, further comprising an activation activation module for activating a password unlocking module mounted on the vehicle to start a flow of unlocking by a password according to a face recognition failure.
제 63 항 내지 제 92 항 중 어느 한 항에 있어서,
상기 이미지 취득 모듈에 의해 취득된 차량 소유자의 얼굴 이미지에 기초하여 차량 소유자의 등록을 행하는 것과,
상기 차량 소유자의 단말 장치에 의해 취득된 상기 차량 소유자의 얼굴 이미지에 기초하여 원격 등록을 행하고, 상기 차량 소유자의 얼굴 이미지를 포함하는 등록 정보를 상기 차량에 송신하는 것 중 하나 또는 2개에 사용되는 등록 모듈을 추가로 구비하는, 차량의 도어 잠금 해제 장치.
93. The method according to any one of claims 63 to 92,
performing registration of the vehicle owner based on the facial image of the vehicle owner acquired by the image acquisition module;
performing remote registration based on the face image of the vehicle owner acquired by the terminal device of the vehicle owner, and transmitting registration information including the face image of the vehicle owner to the vehicle. A door unlocking device for a vehicle, further comprising a registration module.
메모리와, 얼굴 인식 모듈과, 이미지 취득 모듈과, 블루투스 모듈을 구비하고, 상기 얼굴 인식 모듈은 상기 메모리, 상기 이미지 취득 모듈 및 상기 블루투스 모듈에 각각 접속되고, 상기 블루투스 모듈은 소정 식별자의 블루투스 디바이스와의 블루투스 페어링·접속에 성공하는 경우, 또는 상기 소정 식별자의 블루투스 디바이스를 검색할 수 있는 경우, 상기 얼굴 인식 모듈을 웨이크업하는 마이크로 프로세서와, 상기 마이크로 프로세서에 접속되는 블루투스 센서를 구비하고, 상기 얼굴 인식 모듈에는 도어 도메인 컨트롤러에 접속하기 위한 통신 인터페이스가 추가로 설치되고, 얼굴 인식이 성공하면 상기 통신 인터페이스를 통해 상기 도어 도메인 컨트롤러에 도어 잠금 해제를 위한 제어 정보를 송신하는, 차재 얼굴 인증 잠금 해제 시스템.a memory, a face recognition module, an image acquisition module, and a Bluetooth module, wherein the face recognition module is respectively connected to the memory, the image acquisition module and the Bluetooth module, the Bluetooth module comprising: a Bluetooth device of a predetermined identifier; A microprocessor for waking up the face recognition module when Bluetooth pairing/connection is successful or when a Bluetooth device of the predetermined identifier can be searched, and a Bluetooth sensor connected to the microprocessor, A communication interface for accessing the door domain controller is additionally installed in the recognition module, and when face recognition is successful, the in-vehicle face authentication unlocking system transmits control information for unlocking the door to the door domain controller through the communication interface. . 제 94 항에 있어서,
상기 이미지 취득 모듈은 이미지 센서 및 심도 센서를 포함하는, 차재 얼굴 인증 잠금 해제 시스템.
95. The method of claim 94,
wherein the image acquisition module includes an image sensor and a depth sensor.
제 95 항에 있어서,
상기 심도 센서는 2개의 적외선 카메라가 상기 이미지 센서의 카메라의 양측에 설치되는 양안 적외선 센서를 포함하는, 차재 얼굴 인증 잠금 해제 시스템.
96. The method of claim 95,
The depth sensor includes a binocular infrared sensor in which two infrared cameras are installed on both sides of a camera of the image sensor.
제 96 항에 있어서,
상기 이미지 취득 모듈은 상기 양안 적외선 센서의 적외선 카메라와 상기 이미지 센서의 카메라 사이에 설치되는 보광 라이트로서, 상기 이미지 센서용 보광 라이트와 상기 심도 센서용 보광 라이트 중 적어도 일방을 포함하는 하나 이상의 보광 라이트를 추가로 포함하는, 차재 얼굴 인증 잠금 해제 시스템.
97. The method of claim 96,
The image acquisition module is a complementary light installed between the infrared camera of the binocular infrared sensor and the camera of the image sensor, and includes at least one of the light beam for the image sensor and the light beam for the depth sensor. In addition, in-vehicle face authentication unlock system.
제 95 항에 있어서,
상기 이미지 취득 모듈은 상기 심도 센서의 카메라와 상기 이미지 센서의 카메라 사이에 설치되는 레이저를 추가로 포함하는, 차재 얼굴 인증 잠금 해제 시스템.
96. The method of claim 95,
The image acquisition module further includes a laser installed between the camera of the depth sensor and the camera of the image sensor.
제 94 항 내지 제 98 항 중 어느 한 항에 있어서,
상기 얼굴 인식 모듈에 접속되고, 도어 잠금의 해제를 행하기 위한 패스워드 잠금 해제 모듈을 추가로 포함하는, 차재 얼굴 인증 잠금 해제 시스템.
99. The method according to any one of claims 94 to 98,
The in-vehicle face authentication unlocking system, which is connected to the face recognition module and further includes a password unlocking module for unlocking the door.
제 99 항에 있어서,
상기 패스워드 잠금 해제 모듈은 터치 스크린 및 키보드 중 하나 또는 2개를 포함하는, 차재 얼굴 인증 잠금 해제 시스템.
101. The method of claim 99,
The in-vehicle face authentication unlocking system, wherein the password unlocking module includes one or two of a touch screen and a keyboard.
제 94 항 내지 제 100 항 중 어느 한 항에 있어서,
상기 마이크로 프로세서 및 상기 얼굴 인식 모듈에 각각 접속되는 전지 모듈을 추가로 구비하는, 차재 얼굴 인증 잠금 해제 시스템.
101. The method according to any one of claims 94 to 100,
The in-vehicle face authentication unlocking system further comprising battery modules respectively connected to the microprocessor and the face recognition module.
제 94 항 내지 제 101 항 중 어느 한 항의 차재 얼굴 인증 잠금 해제 시스템을 포함하고, 상기 차재 얼굴 인증 잠금 해제 시스템은 상기 차량의 도어 도메인 컨트롤러에 접속되는, 차량.102. A vehicle, comprising the in-vehicle face authentication unlock system according to any one of claims 94 to 101, wherein the vehicle-mounted face authentication unlock system is connected to a door domain controller of the vehicle. 제 102 항에 있어서,
상기 이미지 취득 모듈은 상기 차량의 차실 외부에 탑재되는, 차량.
103. The method of claim 102,
and the image acquisition module is mounted outside a vehicle cabin of the vehicle.
제 103 항에 있어서,
상기 이미지 취득 모듈은 상기 차량의 B필러, 하나 이상의 도어 및 하나 이상의 백미러 중 하나 이상에 탑재되는, 차량.
104. The method of claim 103,
and the image acquisition module is mounted on one or more of a B-pillar, one or more doors, and one or more rearview mirrors of the vehicle.
제 102 항 내지 제 104 항 중 어느 한 항에 있어서,
상기 얼굴 인식 모듈은 상기 차량 내에 탑재되고, CAN 버스를 통해 상기 도어 도메인 컨트롤러에 접속되는, 차량.
105. The method according to any one of claims 102 to 104,
and the face recognition module is mounted in the vehicle and is connected to the door domain controller via a CAN bus.
프로세서와,
프로세서에 의해 실행 가능한 명령을 기억하는 메모리를 포함하고,
상기 프로세서는 제 1 항 내지 제 62 항 중 어느 한 항의 방법을 실행하도록 구성되는, 전자 기기.
processor and
a memory for storing instructions executable by the processor;
63. The electronic device, wherein the processor is configured to execute the method of any one of claims 1 to 62.
컴퓨터 프로그램 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체로서, 상기 컴퓨터 프로그램 명령이 프로세서에 의해 실행되면, 제1 항 내지 제 62 항 중 어느 한 항의 방법을 실현시키는, 컴퓨터 판독 가능 기억 매체.63. A computer readable storage medium having stored thereon computer program instructions, wherein when the computer program instructions are executed by a processor, the method according to any one of claims 1 to 62 is realized. 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램으로서, 상기 컴퓨터 판독 가능 코드는 전자 기기에서 동작하면, 상기 전자 기기의 프로세서에 제1 항 내지 제 62 항 중 어느 한 항의 방법을 실현시키기 위한 명령을 실행시키는, 컴퓨터 프로그램. 63. A computer program comprising computer readable code, wherein the computer readable code, when operated in an electronic device, causes a processor of the electronic device to execute instructions for realizing the method of any one of claims 1 to 62. computer program.
KR1020217043021A 2019-07-01 2020-02-26 Vehicle door unlocking method and device, system, vehicle, electronic device and storage medium KR20220016184A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020227017334A KR20220070581A (en) 2019-07-01 2020-02-26 Vehicle door unlocking method and device, system, vehicle, electronic equipment and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910586845.6 2019-07-01
CN201910586845.6A CN110335389B (en) 2019-07-01 2019-07-01 Vehicle door unlocking method, vehicle door unlocking device, vehicle door unlocking system, electronic equipment and storage medium
PCT/CN2020/076713 WO2021000587A1 (en) 2019-07-01 2020-02-26 Vehicle door unlocking method and device, system, vehicle, electronic equipment and storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020227017334A Division KR20220070581A (en) 2019-07-01 2020-02-26 Vehicle door unlocking method and device, system, vehicle, electronic equipment and storage medium

Publications (1)

Publication Number Publication Date
KR20220016184A true KR20220016184A (en) 2022-02-08

Family

ID=68143972

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020217043021A KR20220016184A (en) 2019-07-01 2020-02-26 Vehicle door unlocking method and device, system, vehicle, electronic device and storage medium
KR1020227017334A KR20220070581A (en) 2019-07-01 2020-02-26 Vehicle door unlocking method and device, system, vehicle, electronic equipment and storage medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020227017334A KR20220070581A (en) 2019-07-01 2020-02-26 Vehicle door unlocking method and device, system, vehicle, electronic equipment and storage medium

Country Status (4)

Country Link
JP (2) JP2022537923A (en)
KR (2) KR20220016184A (en)
CN (1) CN110335389B (en)
WO (1) WO2021000587A1 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335389B (en) * 2019-07-01 2021-10-12 上海商汤临港智能科技有限公司 Vehicle door unlocking method, vehicle door unlocking device, vehicle door unlocking system, electronic equipment and storage medium
CN114937294A (en) * 2019-10-22 2022-08-23 上海商汤智能科技有限公司 Vehicle door control method, vehicle door control device, vehicle door control system, vehicle, electronic equipment and storage medium
CN113421358B (en) * 2020-03-03 2023-05-09 比亚迪股份有限公司 Lock control system, lock control method and vehicle
CN111540090A (en) * 2020-04-29 2020-08-14 北京市商汤科技开发有限公司 Method and device for controlling unlocking of vehicle door, vehicle, electronic equipment and storage medium
CN111932732A (en) * 2020-08-13 2020-11-13 四川巧盒物联科技有限公司 Bluetooth communication-based intelligent lock unlocking method for circulating packaging box
CN111932727A (en) * 2020-08-13 2020-11-13 四川巧盒物联科技有限公司 Packaging box intelligent lock biological identification unlocking method based on Bluetooth communication
CN111932725A (en) * 2020-08-13 2020-11-13 四川巧盒物联科技有限公司 Intelligent packing box lock unlocking method based on Bluetooth communication unlocking equipment
CN111932730A (en) * 2020-08-13 2020-11-13 四川巧盒物联科技有限公司 Bluetooth communication-based remote unlocking method for intelligent lock of circulating packing box
CN111932724A (en) * 2020-08-13 2020-11-13 四川巧盒物联科技有限公司 Induction type circulating packaging box intelligent lock unlocking method based on Bluetooth communication
CN111932723A (en) * 2020-08-13 2020-11-13 四川巧盒物联科技有限公司 Bluetooth communication-based quick unlocking method for intelligent lock of circulating packing box
CN112590706A (en) * 2020-12-18 2021-04-02 上海傲硕信息科技有限公司 Noninductive face recognition vehicle door unlocking system
CN112684722A (en) * 2020-12-18 2021-04-20 上海傲硕信息科技有限公司 Low-power consumption power supply control circuit
CN112572349A (en) * 2020-12-22 2021-03-30 广州橙行智动汽车科技有限公司 Vehicle digital key processing method and system
CN113135161A (en) * 2021-03-18 2021-07-20 江西欧迈斯微电子有限公司 Identification system and identification method
CN113160458B (en) * 2021-03-31 2024-05-31 中国地质大学(武汉) Internet of things intelligent lock based on TOF technology and RFID technology and use method thereof
CN113408344A (en) * 2021-05-13 2021-09-17 深圳市捷顺科技实业股份有限公司 Three-dimensional face recognition generation method and related device
CN114268380B (en) * 2021-10-27 2024-03-08 浙江零跑科技股份有限公司 Automobile Bluetooth non-inductive entry improvement method based on acoustic wave communication
JP2023098771A (en) * 2021-12-29 2023-07-11 Ihi運搬機械株式会社 Operation method and operation device of mechanical parking device
CN114463879A (en) * 2022-01-25 2022-05-10 杭州涂鸦信息技术有限公司 Unlocking method, intelligent terminal and computer readable storage medium
CN114872660A (en) * 2022-04-18 2022-08-09 浙江极氪智能科技有限公司 Face recognition system control method and device, vehicle and storage medium
CN115240296A (en) * 2022-05-10 2022-10-25 深圳绿米联创科技有限公司 Equipment awakening method, device, equipment and storage medium
CN115331334A (en) * 2022-07-13 2022-11-11 神通科技集团股份有限公司 Intelligent stand column based on face recognition and Bluetooth unlocking and unlocking method
JP2024011894A (en) * 2022-07-15 2024-01-25 ソニーセミコンダクタソリューションズ株式会社 Information processing device and information processing system
CN115546939A (en) * 2022-09-19 2022-12-30 国网青海省电力公司信息通信公司 Unlocking mode determination method and device and electronic equipment
CN116805430B (en) * 2022-12-12 2024-01-02 安徽国防科技职业学院 Digital image safety processing system based on big data

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040029211A (en) * 2002-09-25 2004-04-06 현대자동차주식회사 An antitheft device and the control method of automobile
CN101715139B (en) * 2009-11-16 2011-04-20 南京邮电大学 Multi-mode error code covering method based on complementary covering mode in dimensional images
CN102595024B (en) * 2011-12-16 2014-10-22 飞狐信息技术(天津)有限公司 Method and device for restoring digital video images
CN103248906B (en) * 2013-04-17 2015-02-18 清华大学深圳研究生院 Method and system for acquiring depth map of binocular stereo video sequence
CN103729919A (en) * 2013-12-10 2014-04-16 杨伟 Electronic access control system
CN105096311A (en) * 2014-07-01 2015-11-25 中国科学院科学传播研究中心 Technology for restoring depth image and combining virtual and real scenes based on GPU (Graphic Processing Unit)
CN105894503B (en) * 2016-03-30 2019-10-01 江苏大学 A kind of restorative procedure of pair of Kinect plant colour and depth detection image
CN107176060A (en) * 2017-07-27 2017-09-19 杭州力谱科技有限公司 A kind of electric automobile charging pile
CN107393046B (en) * 2017-08-03 2019-08-06 陕西尚品信息科技有限公司 A kind of method that bluetooth registers system and bluetooth is registered
CN107963057A (en) * 2017-12-23 2018-04-27 埃泰克汽车电子(芜湖)有限公司 A kind of keyless access system based on mobile phone
CN208207948U (en) * 2018-05-31 2018-12-07 上海商汤智能科技有限公司 vehicle with face unlocking function
CN108846924A (en) * 2018-05-31 2018-11-20 上海商汤智能科技有限公司 Vehicle and car door solution lock control method, device and car door system for unlocking
CN109121077B (en) * 2018-08-06 2020-09-29 刘丽 Bluetooth work system of garage and work method thereof
CN208954163U (en) * 2018-08-16 2019-06-07 深圳嗒程科技有限公司 A kind of unlocking system based on shared automobile
CN109243024A (en) * 2018-08-29 2019-01-18 上海交通大学 A kind of automobile unlocking system and method based on recognition of face
CN109895736A (en) * 2019-02-19 2019-06-18 汉腾汽车有限公司 Safe opening door device and safe opening of car door method based on face recognition technology
CN109823306A (en) * 2019-02-22 2019-05-31 广东远峰汽车电子有限公司 Car door unlocking method, device, system and readable storage medium storing program for executing
CN110335389B (en) * 2019-07-01 2021-10-12 上海商汤临港智能科技有限公司 Vehicle door unlocking method, vehicle door unlocking device, vehicle door unlocking system, electronic equipment and storage medium

Also Published As

Publication number Publication date
CN110335389A (en) 2019-10-15
WO2021000587A1 (en) 2021-01-07
JP2022537923A (en) 2022-08-31
KR20220070581A (en) 2022-05-31
JP2022118730A (en) 2022-08-15
CN110335389B (en) 2021-10-12

Similar Documents

Publication Publication Date Title
KR20220016184A (en) Vehicle door unlocking method and device, system, vehicle, electronic device and storage medium
JP7428993B2 (en) Vehicle door unlocking method and device, system, vehicle, electronic device, and storage medium
WO2021077738A1 (en) Vehicle door control method, apparatus, and system, vehicle, electronic device, and storage medium
US20210001810A1 (en) System, method, and computer program for enabling operation based on user authorization
JP7106768B2 (en) VEHICLE DOOR UNLOCK METHOD, APPARATUS, SYSTEM, ELECTRONIC DEVICE, AND STORAGE MEDIUM
CN111516640B (en) Vehicle door control method, vehicle, system, electronic device, and storage medium
KR102391792B1 (en) Biometric detection methods, devices and systems, electronic devices and storage media
KR20210113607A (en) Facial attribute recognition method and apparatus, electronic device and storage medium
KR20190127338A (en) Vehicle terminal and method for recognizing face thereof
CN112330846A (en) Vehicle control method and device, storage medium, electronic equipment and vehicle
CN111626086A (en) Living body detection method, living body detection device, living body detection system, electronic device, and storage medium
CN114407827B (en) Vehicle door control method, device, equipment, storage medium and automatic driving vehicle
CN115776957A (en) Activating a safety mode of a vehicle based on driver identification
KR101947040B1 (en) System and method for operating tail gate
KR102632212B1 (en) Electronic device for managnign vehicle information using face recognition and method for operating the same
CN114627443B (en) Target detection method, target detection device, storage medium, electronic equipment and vehicle
CN113911054A (en) Vehicle personalized configuration method and device, electronic equipment and storage medium
US20240087389A1 (en) Method of managing parking access into or exiting from a multi-residential building

Legal Events

Date Code Title Description
A201 Request for examination
A107 Divisional application of patent
WITB Written withdrawal of application