WO2019229910A1 - 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置 - Google Patents

顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置 Download PDF

Info

Publication number
WO2019229910A1
WO2019229910A1 PCT/JP2018/020856 JP2018020856W WO2019229910A1 WO 2019229910 A1 WO2019229910 A1 WO 2019229910A1 JP 2018020856 W JP2018020856 W JP 2018020856W WO 2019229910 A1 WO2019229910 A1 WO 2019229910A1
Authority
WO
WIPO (PCT)
Prior art keywords
airport
immigration
feature information
authentication
learned model
Prior art date
Application number
PCT/JP2018/020856
Other languages
English (en)
French (fr)
Inventor
繁弘 島野
将仁 谷口
Original Assignee
株式会社ウフル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ウフル filed Critical 株式会社ウフル
Priority to PCT/JP2018/020856 priority Critical patent/WO2019229910A1/ja
Publication of WO2019229910A1 publication Critical patent/WO2019229910A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services

Definitions

  • the present invention relates to technology for supporting immigration at an airport using IoT (Internet of Things).
  • IoT Internet of Things
  • Patent Document 1 the primary examination application is performed by comparing the passport information and face image information of the primary examination applicant read from the primary examination acceptance terminal with the passport information and biometric information of the passport owner registered in the passport information database. The primary identity verification process is described.
  • Patent Document 1 the primary examination applicant's biometric information or passport information is collated with the blacklist registrant's biometric information or passport information registered in the blacklist database, so that the blacklist of the primary examination applicant is obtained. It describes that the list matching confirmation process is performed.
  • the present invention aims to improve the accuracy of face authentication in immigration using IoT (Internet of Things).
  • the present invention is an immigration system for performing immigration screening by face authentication using an image captured at an airport from which a departurer leaves the country, and a camera installed at a first airport from which a plurality of departures leave the country.
  • the first control means for controlling the captured image to extract the feature information of each departure person's face and the reader installed at the first airport obtain passport data of each departure person.
  • Second control means for performing control, storage means for storing the characteristic information and the passport data in association with each other for each departure person, and one or more persons included in the plurality of departure persons entering the country
  • a third control means for controlling so as to acquire a learned model obtained by learning the facial feature information of one or more persons entering the country with respect to the authentication device installed at the second airport, and the authentication device against the acquisition
  • a fourth control unit that controls to switch to the learned model, and controls the wrinkle authentication device to collate the photographed image of the face of the immigrant using the machine-learned model after the switching.
  • An immigration system comprising a fifth control means is provided.
  • the classifying means for classifying the feature amount of each departure person according to the country where the person intends to enter, and the third control means include the classified feature information corresponding to the country in which the face authentication device is installed. Control is performed so that the learned model that has been learned is acquired.
  • the first airport includes a plurality of entry airports, and the fourth control means acquires a learned model model corresponding to the entry airport and the airport from which the immigration person left the first airport.
  • the learned model is learned by selecting feature information extracted at a time corresponding to the timing at which the aircraft destined for the second airport leaves the first airport. May be a feature.
  • the fourth control means determines the timing of switching the learned model according to the timing at which an aircraft that has departed from the first airport arrives at the second airport. Also good.
  • the third control means controls the face authentication device to further acquire the authentication data of each resident, and the fifth control means controls the wrinkle authentication device. Further, the acquired authentication data may be further used to control to perform collation.
  • the extracted feature information is determined according to at least one of a rule defined at the first airport and a rule defined at the second airport. Good.
  • the first control means requests each departure person to approve the extraction of the feature information, and executes the extraction of the feature information only for the departure person who has obtained approval. It is good also as a feature.
  • a step of controlling a reader installed at one airport to acquire passport data of each departure person; a step of storing the characteristic information and the passport data as authentication data in association with each departure person;
  • Immigration method and a step of controlling so as to match with the machine learned model and the authentication data after the switching, to provide.
  • the present invention controls one or more computers to cause a camera installed at a first airport where a plurality of departures leave the country to analyze the captured image and extract facial feature information of each departure person. And a step of controlling the passport reader installed at the first airport to acquire passport data of each departure person, and for each departure person, the feature information and the passport data are associated with each other to obtain authentication data. And learning the facial feature information of the one or more persons entering the country using the bag authentication device installed at the second airport where one or more persons included in the plurality of departures enter the country.
  • the present invention also provides an imaging means, an extraction means for analyzing the captured image and extracting facial feature information of each departure person, a passport for each departure person, installed at a first airport from which the departure person leaves the country.
  • an authentication device comprising a passport reader for acquiring data, and a transmission unit that transmits the characteristic information and the passport data as authentication data in association with each departure person.
  • an authentication apparatus comprising: means; switching means for switching to the acquired learned model; and matching means for matching the captured image of the face of the immigrant using the machine learned model after the switching.
  • FIG. 1 It is a figure which shows the structural example of the immigration system 100 by one Embodiment of this invention. It is a figure which shows an example of the hardware constitutions of the edge device 110 contained in the immigration system 100.
  • 2 is a diagram illustrating an example of a functional configuration of an edge device 120.
  • FIG. It is a figure which shows an example of the hardware constitutions of the edge device 120 contained in the immigration system 100.
  • 2 is a diagram illustrating an example of a functional configuration of an edge device 120.
  • FIG. 1 is a diagram illustrating a configuration example of an immigration system 100 according to an embodiment of the present invention.
  • the immigration system 100 includes edge devices 110 and 120, IoT devices 130-1 and 130-2, IoT devices 140-1 and 140-2, and a cloud server 180.
  • the IoT devices 130-1 and 130-2 and the edge device 110 are installed at the international airport (hereinafter referred to as the first airport) in the first country, and function as the authentication device 10 that supports the departure examination at the first airport.
  • the IoT device 130 when it is not necessary to distinguish between the IoT device 130-1 and the IoT device 130-2, they are referred to as “IoT device 130”.
  • the IoT device 130 As shown in FIG. 1, the IoT device 130 is connected to the edge device 110 via a communication line 150.
  • the communication line 150 is a wired or LAN (Local Area Network) laid in the first airport.
  • the IoT device 130-1 is a network camera installed at the immigration window of the first airport.
  • the IoT device 130-2 is a reading device (passport reader) that reads passport data such as the name, gender, nationality, and passport number of the departure person from the departure person's passport.
  • a reading device that reads passport data such as the name, gender, nationality, and passport number of the departure person from the departure person's passport.
  • an existing passport reader may be used as appropriate.
  • only one first airport and two second airports are shown, but a plurality of first airports and / or second airports may of course exist.
  • the IoT device 130-1 is an imaging unit that captures an image of the face of a person (hereinafter referred to as an “exitor”) who has come to the above-mentioned immigration office for immigration examination under the control of the edge device 110.
  • the image captured by the IoT device 130-1 may be a still image or a moving image.
  • the IoT device 130-1 analyzes the captured image to extract feature information indicating the characteristics of the departure person's face, and outputs the feature information to the edge device 110 via the communication line 150.
  • Specific examples of the feature information include information indicating the contour of the face, information indicating the position and interval between both eyes, information indicating the shape and position of the ear, and the like.
  • existing algorithms may be used as appropriate for these feature information extraction algorithms.
  • the authentication apparatus 10 has only one network camera as an imaging unit for imaging the departure person's face.
  • a plurality of network network cameras are used, and each of the plurality of network cameras has an imaging surface thereof. They may be placed in different positions with a posture toward the immigration office.
  • the IoT devices 140-1 and 140-2 and the edge device 120 are installed at an international airport (hereinafter referred to as a second airport) in a second country different from the first country and enter the second country. Functions as an authentication device 20 that supports examination of a person.
  • IoT device 140 when it is not necessary to distinguish between the IoT device 140-1 and the IoT device 140-2, they are referred to as “IoT device 140”.
  • the IoT device 140 is connected to the edge device 120 via a communication line 160 such as a wired or wireless LAN laid in the second airport.
  • the IoT device 140-1 is a network camera installed at the immigration counter of the second airport.
  • the IoT device 140-1 is an imaging unit that captures an image of the face of a person who came to the immigration office for immigration (hereinafter referred to as “immigration person”). Is output to the edge device 120 via the communication line 160.
  • the IoT device 140-2 is a reading device (passport reader) that reads passport data about an immigration person from the immigration person's passport.
  • the edge device 110 and the edge device 120 are connected to a communication line 170 including the Internet.
  • a cloud server 180 is connected to the communication line 170.
  • the edge device 110 is a relay device (for example, a gateway) that mediates data communication between a device connected to the communication line 150 and a device connected to the communication line 170.
  • the edge device 110 includes a processor 111, a memory 112, a storage 113, and a communication device 114. These devices are connected via a bus 115.
  • the processor 111 executes various processes by reading the program into the memory 112 and executing it.
  • the processor 111 may be configured by a CPU (Central Processing Unit).
  • the memory 112 stores a program executed by the processor 111.
  • the memory 112 may be configured by a ROM (Read Only Memory) or a RAM (Random Access Memory).
  • the storage 113 stores various data and programs.
  • the storage 113 may be configured by a hard disk drive or a flash memory.
  • the communication device 114 performs data communication via the communication line 150 or the communication line 170.
  • FIG. 3 is a diagram illustrating an example of a functional configuration of the edge device 110.
  • the edge device 110 includes a first control unit 211, a second control unit 212, a transmission unit 213, and a communication unit 214.
  • the communication means 214 is the communication device 114 in FIG.
  • the first control unit 211, the second control unit 212, and the transmission unit 213 in FIG. 3 are operated by the processor 111 in cooperation with the program stored in the memory 112 or the storage 113 and the processor 111 that executes the program. Or a software module realized by controlling the communication unit 214 or the transmission unit 213.
  • the first control unit 211 functions as an extraction unit that controls the IoT device 130-1 to analyze the captured image of each departure person and extract feature information.
  • the IoT device 130-1 extracts feature information, but the IoT device 130-1 outputs image data of the imaging result, and the first control unit performs analysis of the image data and extraction of the feature information. 211 may be executed.
  • What kind of feature information is to be extracted by the IoT device 130-1 may be determined in accordance with the rules established at the departure airport, the first airport, or at the departure airport, the second airport. You may decide according to regulation. Further, the feature information to be extracted by the IoT device 130-1 may be determined according to both the rules defined at the first airport and the rules defined at the second airport.
  • the second control means 212 controls the IoT device 130-2 so as to obtain passport data of each departure person.
  • the transmission means 213 associates the feature information with the passport data for each departure person, and transmits it to the cloud server 180 as authentication data.
  • the authentication data may include information indicating the departure place of the departure person (that is, the airport scheduled to enter).
  • the cloud server 180 performs machine learning using feature information included in authentication data received from the edge device 110 via the communication line 170 as learning data for face authentication, and performs an AI model for face authentication (hereinafter, a learned model). Is generated and functions as a storage unit that stores the authentication data in association with the authentication data. For machine learning, existing algorithms may be used as appropriate. The machine learning is preferably learned by selecting feature information extracted at a time corresponding to the timing at which the aircraft destined for the second airport leaves the first airport. This is because it is preferable not to learn the data of people who do not come to the second airport as much as possible.
  • the cloud server 180 when the authentication data received from the edge device 110 via the communication line 170 includes information indicating the departure destination, the cloud server 180 includes a classification unit (not illustrated) that classifies the authentication data for each departure destination. You may have. In this case, a learned model may be generated for each destination (airport scheduled to arrive or the country in which the destination is located). As described above, it is preferable not to learn as much as possible the data of people who do not come to the second airport. The cloud server 180 returns a corresponding learned model when the transmission request from the edge device 120 is received via the communication line 170.
  • the edge device 120 is a relay device (for example, a gateway) that mediates data communication between a device connected to the communication line 160 and a device connected to the communication line 170.
  • the edge device 120 includes a processor 131, a memory 122, a storage 123, and a communication device 124. These devices are connected via a bus 125. Since the processor 121, the memory 122, the storage 133, the communication device 134, and the bus 135 are the same as the processor 111, the memory 112, the storage 113, the communication device 114, and the bus 115 described above, description thereof is omitted.
  • FIG. 5 is a diagram illustrating an example of a functional configuration of the edge device 120.
  • the edge device 120 includes third control means 221, fourth control means 222, fifth control means 223, and communication means 224.
  • the communication means 224 is the communication device 124 in FIG.
  • the third control unit 221, the fourth control unit 222, and the fifth control unit 223 in FIG. 5 are configured such that the processor 121 operates in cooperation with the program stored in the memory 122 or the storage 123 and the processor 121 that executes the program. It is a software module realized by performing calculation or controlling the communication means 224.
  • the third control unit 221 is an acquisition unit that acquires, from the cloud server 180, a learned model obtained by learning the facial feature information of one or more persons entering from the second airport. More specifically, the third control unit 221 performs data communication with the cloud server 180 via the communication line 170, and acquires a learned model corresponding to the passport data read by the IoT device 140-2. At this time, if there is feature information classified for each airport scheduled to arrive or for each country to which the airport belongs, the learned model corresponding to the second airport is acquired. In the immigration system 100, there may of course be a plurality of first airports (departure airports) and / or second airports (immigration airports).
  • one authentication device 10 is provided for each first airport
  • one authentication device 20 is provided for each first airport
  • the cloud server transmits information between the plurality of authentication devices 10 and the plurality of authentication devices 20.
  • the authentication data includes information on the airport scheduled to enter
  • the cloud server 180 at the timing corresponding to the request from the edge device 120 or the flight schedule, A learned model in which feature information consisting only of a person who is scheduled to arrive at an entry airport and only who has exited from any departure airport is generated, and the corresponding learned model is provided to each entry airport.
  • the fourth control unit 222 is a switching unit that switches the machine-learned model used for collation of the face image of the immigrant to the learned model acquired by the third control unit.
  • the fourth control unit 222 determines the timing for switching the learned model in accordance with the timing at which the aircraft departing the first airport arrives at the second airport. This is because it is preferable not to learn the data of people who do not come to the second airport as much as possible.
  • the learned model may be switched for each departure airport.
  • the second airport that performs immigration and the person to be authenticated have actually left the country.
  • the switching is controlled so that the learned model corresponding to one airport is applied.
  • the fifth control unit 223 is a collation unit that collates the image of the face of the immigrant captured by the IoT device 140-1 using the learned model after switching by the fourth control unit 222.
  • the third control means 221 acquires authentication data including passport data read by the IoT device 140-2 from the cloud server 180, and the fifth control means 223 is a feature included in the acquired authentication data. You may make it collate the image of an immigrant's face using information further.
  • FIG. 6 is a sequence diagram showing the operation of each device included in the immigration system 100.
  • the authentication apparatus 10 starts the processing after step SA100 in FIG.
  • Step SA100 in FIG. 6 is a process executed by the first control unit 211.
  • the first control unit 211 causes the IoT device 130-1 to analyze the captured image of the departure person's face, and acquires the departure person's face characteristic information.
  • Step SA110 subsequent to step SA100 is a process executed by the second control means 212.
  • step SA110 the second control unit 212 acquires passport data via the IoT device 130-2.
  • Step SA120 subsequent to step SA110 is a process executed by the transmission means 213.
  • the transmission unit 213 associates the feature information acquired in step SA100 with the passport data acquired in step SA110 as authentication data, and transmits the authentication data to the cloud server 180.
  • the cloud server 180 performs machine learning for face authentication using the feature information included in the authentication data received via the communication line 170, and stores the authentication data in association with the learned model that is the learning result. (Step SA130).
  • Step SA140 in FIG. 6 is a process executed by the third control means 221.
  • the authentication apparatus 20 starts processing from step SA140.
  • the third control unit 221 acquires a learned model corresponding to the passport data read via the IoT device 140-2 from the cloud server 180.
  • Step SA150 subsequent to step SA140 is a process executed by the fourth control means 222.
  • step SA150 the other learned model already applied is switched to the latest learned model acquired in step SA140.
  • step SA160 subsequent to step SA150 is a process executed by the fifth control means 223.
  • the fifth control unit 223 uses the learned model switched in step SA150 and the feature information acquired via the IoT device 140-2 to perform matching of the faces of the immigrants (that is, immigration). Do.
  • machine learning is performed using the image data of the face of the departure from the first airport in order to enter the country where the authentication device 20 is installed as learning data. It is possible to cause the authentication device 20 to perform face authentication using the learned model obtained by performing (that is, face authentication specialized for the departure from the country), and the accuracy of face authentication at the time of immigration is higher than before. Will also improve. In addition, since it is possible to perform face recognition with high accuracy, it is expected that the entry procedure will be only face recognition and the conventional troublesome procedure will be omitted, and it will not be necessary to line up at the immigration office for entry procedures. .
  • a plurality of IoT devices 130 and the edge device 110 may be integrated to form the departure-side authentication apparatus 10, or a plurality of IoT devices 140 and the edge device 120 may be integrated to form the entry-side authentication apparatus 20. May be.
  • the first control unit 211, the second control unit 212, the third control unit 221, the fourth control unit 222, and the fifth control unit 223 in the above embodiment are software modules, but are electronic circuits such as ASICs. May be.
  • the first control unit 211 and the second control unit 212 are provided in the edge device 110, and the third control unit 221, the fourth control unit 222, and the fifth control unit 223 are provided in the edge device 120.
  • the first control unit 211 and the second control unit 212 may be provided in the cloud server 180, and the third control unit 221, the fourth control unit 222, and the fifth control unit 223 may be provided in the cloud server 180.
  • all of the first control unit 211, the second control unit 212, the third control unit 221, the fourth control unit 222, and the fifth control unit 223 may be provided in the cloud server 180.
  • the edge device 110 performs data communication between a device connected to the communication line 150 and a device connected to the communication line 170.
  • the authentication device installed at the first airport includes an imaging unit that captures an image of the face of the departure person, and analyzes each captured image to each departure from the country.
  • the edge device 120 is connected to the apparatus connected to the communication line 160 and the communication line 170. It may be a general relay device that mediates data communication with an existing device. Further, in this aspect, the authentication device installed at the second airport (that is, the entry-side authentication device) is extracted at the imaging means for capturing the face image of the immigration person and the airport where the immigration person has left the country.
  • An acquisition means for acquiring a learned model in which the characteristic information of the kite is learned, a switching means for switching to the acquired learned model, and a machine-learned model after switching the captured face image of the immigrant It is only necessary to provide a collating means for collating using.
  • a program for causing the processor 111 of the edge device 110 to function as the first control unit 211 and the second control unit 212 is installed in the edge device 110 in advance, and the processor 121 of the edge device 120 is used as the third control unit 221.
  • the programs that function as the fourth control unit 222 and the fifth control unit 223 are installed in the edge device 120 in advance.
  • one or more computers are controlled so that a camera installed at a first airport where a plurality of departures leave the country analyzes the captured images and extracts facial feature information of each departures.
  • a step of controlling a passport reader installed at the first airport to acquire passport data of each departure person, and for each departure person, the feature information and the passport data are associated with each other as authentication data.
  • a step of controlling the acquired authentication model to be acquired, a step of controlling the authentication device to switch to the acquired learned model, and the authentication device Contrast, the image of the face of the photographed immigrants may provide a program for executing and controlling so as to match with the machine learned model and the authentication data after the switching.
  • a specific mode of providing such a program includes a mode in which the program is written and distributed on a computer-readable recording medium, or a mode in which the program is distributed by downloading via a telecommunication line such as the Internet.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

出国者の顔の画像を解析して特徴情報を抽出するように出国側の顔認証機器を制御するステップSA100と、該出国者のパスポートデータを取得するように出国側の読取装置を制御するステップSA110と、特徴情報とパスポートデータとを関連付けて認証データとして出国者毎に記憶するステップSA120と、1以上の入国者の顔の特徴情報を学習させた学習済みモデルを取得するように入国側の顔認証機器を制御するステップSA140と、該取得した学習済みモデルに切り替えるよう入国側の顔認証機器を制御するステップSA150と、撮影された入国者の顔の画像を、該切り替え後の機械学習済みモデルと認証データとを用いて照合するように入国側の顔認証機器を制御するステップSA160と、を含む入国審査方法を提供する。

Description

顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置
 本発明は、IoT(Internet of Things)を利用して空港における入国審査を支援する技術に関する。
 近年、国際空港における入国審査のIT化する技術が種々提案されており、その一例としては特許文献1に開示の技術が挙げられる。特許文献1には、一次審査受付端末より読み取った一次審査申請者の旅券情報および顔画像情報を旅券情報データベースに登録された旅券所有者の旅券情報および生体情報と照合することにより、一次審査申請者の一次本人確認処理を行うことが記載されている。加えて、特許文献1には、一次審査申請者の生体情報ないし旅券情報を、ブラックリストデータベースに登録されたブラックリスト登録者の生体情報ないし旅券情報と照合することにより、一次審査申請者のブラックリスト該当確認処理を行うことが記載されている。
特開2007-179475公報
 特許文献1の技術では、認証の精度が十分でない場合があった。
 本発明は、IoT(Internet of Things)を利用して、入国審査における顔認証の精度を向上させることを目的とする。
 本発明は、出国者が出国する空港で撮像された画像を利用して、顔認証で入国の審査を行う入国審査システムであって、複数の出国者が出国する第1空港に設置されたカメラに、撮像した画像を解析させて各出国者の顔の特徴情報を抽出させるように制御する第1制御手段と、前記第1空港に設置された読取装置に、各出国者のパスポートデータを取得させるように制御する第2制御手段と、出国者ごとに、前記特徴情報と前記パスポートデータとを関連付けて認証データとして記憶する記憶手段と、前記複数の出国者に含まれる1以上の者が入国する第2空港に設置された顏認証機器に対し、該入国する1以上の者の顔の特徴情報を学習させた学習済みモデルを取得させるように制御する第3制御手段と、前記顏認証機器に対し、該取得した学習済みモデルに切り替えるよう制御する第4制御手段と、前記顏認証機器に対し、撮影された入国者の顔の画像を、該切り替え後の機械学習済みモデルを用いて照合するように制御する第5制御手段とを備える入国審査システム、を提供する。
 好ましい態様において、各出国者の前記特徴量を、入国する予定の国別に分類する分類手段と、前記第3制御手段は、顔認証機器が設置された国に対応する前記分類された特徴情報を学習させた学習済みモデルを取得させるように制御する。
 また、前記第1空港は複数の入国空港を含み、前記第4制御手段は、当該入国空港と前記第1空港のうち前記入国者が出国した空港とに対応する学習済みモデルモデルを取得させる。
 他の好ましい態様においては、学習済みモデルは、前記第2空港行きの航空機が前記第1空港を出発するタイミングに対応する時点にて抽出された特徴情報を選定して学習したものである、ことを特徴としてもよい。
 別の好ましい態様においては、前記第4制御手段は、学習済みモデルの切り替えのタイミングを、前記第1空港を出発した航空機が前記第2空港に到着するタイミングに応じて決定する、ことを特徴としてもよい。
 別の好ましい態様においては、前記第3制御手段は、前記顔認証機器に対し、各入国者の前記認証データを更に取得させるように制御し、前記第5制御手段は、前記顏認証機器に対し、該取得した認証データを更に用いて照合を行うように制御する、ことを特徴としてもよい。
 別の好ましい態様においては、該抽出される特徴情報は、前記第1空港にて定められる規定および前記第2空港にて定められる規定の少なくともいずれかに応じて決定される、ことを特徴としてもよい。
 別の好ましい態様においては、前記第1制御手段は、各出国者に対し、前記特徴情報の抽出についての承諾を要求し、承認が得られた出国者に対してのみ前記特徴情報の抽出を実行する、ことを特徴としてもよい。
 また、本発明は、複数の出国者が出国する第1空港に設置されたカメラに、撮像した画像を解析させて各出国者の顔の特徴情報を抽出させるように制御するステップと、前記第1空港に設置された読取装置に、各出国者のパスポートデータを取得させるように制御するステップと、出国者ごとに、前記特徴情報と前記パスポートデータとを関連付けて認証データとして記憶するステップと、前記複数の出国者に含まれる1以上の者が入国する第2空港に設置された顏認証機器に対し、該入国する1以上の者の顔の特徴情報を学習させた学習済みモデルを取得させるように制御するステップと、前記顏認証機器に対し、該取得した学習済みモデルに切り替えるよう制御するステップと、前記顏認証機器に対し、撮影された入国者の顔の画像を、該切り替え後の機械学習済みモデルと前記認証データとを用いて照合するように制御するステップとを有する入国審査方法、を提供する。
 また、本発明は、1以上のコンピュータに、複数の出国者が出国する第1空港に設置されたカメラに、撮像した画像を解析させて各出国者の顔の特徴情報を抽出させるように制御するステップと、前記第1空港に設置されたパスポートリーダに、各出国者のパスポートデータを取得させるように制御するステップと、出国者ごとに、前記特徴情報と前記パスポートデータとを関連付けて認証データとして記憶するステップと、前記複数の出国者に含まれる1以上の者が入国する第2空港に設置された顏認証機器に対し、該入国する1以上の者の顔の特徴情報を学習させた学習済みモデルを取得させるように制御するステップと、前記顏認証機器に対し、該取得した学習済みモデルに切り替えるよう制御するステップと、前記顏認証機器に対し、撮影された入国者の顔の画像を、該切り替え後の機械学習済みモデルと前記認証データとを用いて照合するように制御するステップと、を実行させるプログラムを提供する。
 また、本発明は、出国者が出国する第1空港に設置され、撮像手段と、撮像された画像を解析して各出国者の顔の特徴情報を抽出する抽出手段と、各出国者のパスポートデータを取得するパスポートリーダと、出国者ごとに、前記特徴情報と前記パスポートデータとを関連付けて認証データとして送信する送信手段とを有する認証装置を提供する。
 また、本発明は、入国者が入国する第2空港に設置され、撮像手段と、前記入国者が出国した空港にて抽出された顏の特徴情報を学習させた学習済みモデルを取得する取得手段と、該取得した学習済みモデルに切り替える切り替え手段と、撮像された入国者の顔の画像を、該切り替え後の機械学習済みモデルを用いて照合する照合手段とを備える認証装置を提供する。
 本発明によれば、出国者に特化した顔認証を行うことが可能になり、入国審査における顔認証の精度を向上させることができる。
本発明の一実施形態による入国審査システム100の構成例を示す図である。 入国審査システム100に含まれるエッジデバイス110のハードウェア構成の一例を示す図である。 エッジデバイス120の機能構成の一例を示す図である。 入国審査システム100に含まれるエッジデバイス120のハードウェア構成の一例を示す図である。 エッジデバイス120の機能構成の一例を示す図である。 入国審査システム100に含まれる各装置の動作を示す図である。
 以下、図面を参照しつつ本発明の実施形態を説明する。
<1.構成>
 図1は、本発明の一実施形態による入国審査システム100の構成例を示す図である。入国審査システム100は、エッジデバイス110および120と、IoTデバイス130-1および130-2と、IoTデバイス140-1および140-2と、クラウドサーバ180と、を備える。
 IoTデバイス130-1および130-2とエッジデバイス110とは、第1の国の国際空港(以下、第1空港)に設置され、第1空港における出国審査を支援する認証装置10として機能する。以下、IoTデバイス130-1とIoTデバイス130-2とを区別する必要がない場合には「IoTデバイス130」と表記する。図1に示すように、IoTデバイス130は、通信回線150を介してエッジデバイス110に接続されている。通信回線150は、第1空港内に敷設された有線またはLAN(Local Area Network)である。IoTデバイス130-1は第1空港の出国審査窓口に設置されるネットワークカメラである。一方、IoTデバイス130-2は、出国者の氏名、性別、国籍、パスポート番号などのパスポートデータを出国者のパスポートから読み取る読取装置(パスポートリーダ)である。IoTデバイス130-2については既存のパスポートリーダを適宜用いるようにすればよい。
 なお、この図では、第1空港および第2空港はそれぞれ一つののみ示しているが、第1空港および/または第2空港は複数存在しても勿論よい。
 IoTデバイス130-1は、エッジデバイス110による制御の下、出国審査のために上記出国審査窓口に来た者(以下、出国者)の顔の画像を撮像する撮像手段である。IoTデバイス130-1の撮像する画像は静止画であってもよいし、動画であってもよい。IoTデバイス130-1は、撮像画像を解析して出国者の顔の特徴を示す特徴情報を抽出し、当該特徴情報を通信回線150を介してエッジデバイス110に出力する。特徴情報の具体例としては、顔の輪郭を表す情報、両目の位置および間隔を表す情報、耳の形および位置を示す情報等が挙げられる。また、これら特徴情報の抽出アルゴリズムについても既存のアルゴリズムを適宜用いるようにすればよい。図1に示す例では、認証装置10は出国者の顔を撮像するための撮像手段としてネットワークカメラを1つだけ有している。しかし、出国者の顔を様々な方向から撮像し当該出国者についての特徴情報を精度よく抽出できるようにするために、複数のネットネットワークカメラを用い、複数のネットワークカメラの各々をその撮像面を出国審査窓口に向けた姿勢で夫々異なる位置に配置してもよい。
 IoTデバイス140-1および140-2と、エッジデバイス120とは、第1の国とは異なる第2の国の国際空港(以下、第2空港)に設置され、第2の国へ入国する入国者についての審査を支援する認証装置20として機能する。以下、IoTデバイス140-1とIoTデバイス140-2とを区別する必要がない場合には「IoTデバイス140」と表記する。図1に示すように、IoTデバイス140は、第2空港内に敷設された有線または無線LANなどの通信回線160を介してエッジデバイス120に接続されている。IoTデバイス140-1は第2空港の入国審査窓口に設置されるネットワークカメラである。IoTデバイス140-1は、IoTデバイス130-1と同様に、入国審査のために入国審査窓口に来た者(以下、入国者)の顔の画像を撮像する撮像手段であり、入国者の顔の特徴を示す特徴情報を通信回線160を介してエッジデバイス120に出力する。IoTデバイス140-2は入国者についてのパスポートデータを入国者のパスポートから読み取る読取装置(パスポートリーダ)である。
 エッジデバイス110とエッジデバイス120はインターネットを含む通信回線170に接続されている。また、通信回線170には、クラウドサーバ180が接続されている。エッジデバイス110は、通信回線150に接続されている装置と通信回線170に接続されている装置の間のデータ通信を仲介する中継装置(例えば、ゲートウェイ)である。エッジデバイス110は、図2に示すように、プロセッサ111と、メモリ112と、ストレージ113と、通信装置114と、を備える。これらの装置は、バス115を介して接続されている。プロセッサ111は、プログラムをメモリ112に読み出して実行することにより、各種の処理を実行する。例えばプロセッサ111は、CPU(Central Processing Unit)により構成されてもよい。メモリ112は、プロセッサ111により実行されるプログラムを記憶する。例えばメモリ112は、ROM(Read Only Memory)またはRAM(Random Access Memory)により構成されてもよい。ストレージ113は、各種のデータおよびプログラムを記憶する。例えばストレージ113は、ハードディスクドライブまたはフラッシュメモリにより構成されてもよい。通信装置114は、通信回線150または通信回線170を介してデータ通信を行う。
 図3は、エッジデバイス110の機能構成の一例を示す図である。エッジデバイス110は、第1制御手段211と、第2制御手段212と、送信手段213と、通信手段214と、を備える。通信手段214は、図2における通信装置114である。図3における第1制御手段211、第2制御手段212および送信手段213は、メモリ112またはストレージ113に記憶されたプログラムと、このプログラムを実行するプロセッサ111との協働により、プロセッサ111が演算を行い、または、通信手段214或いは送信手段213を制御することにより実現されるソフトウェアモジュールである。
 第1制御手段211は、各出国者の撮像画像を解析して特徴情報を抽出するようにIoTデバイス130-1を制御する抽出手段として機能する。本実施形態では、IoTデバイス130-1に特徴情報を抽出させるが、IoTデバイス130-1には撮像結果の画像データを出力させ、当該画像データの解析および特徴情報の抽出については第1制御手段211に実行させてもよい。IoTデバイス130-1にどのような特徴情報を抽出させるかについては、出国元である第1空港にて定められる規定に応じて決定してもよく、出国先である第2空港にて定められる規定に応じて決定してもよい。また、IoTデバイス130-1に抽出させる特徴情報を、第1空港にて定められる規定と第2空港にて定められる規定の両者に応じて決定してもよい。出国または入国の個人情報保護に関わる法律や制度に対応する特徴情報を抽出するためである。また、個人情報の無断取得を回避するために、各出国者に対し、特徴情報の抽出についての承諾を要求し、承認が得られた出国者に対してのみ特徴情報の抽出を実行する処理を第1制御手段211に実行させるようにしてもよい。第2制御手段212は、各出国者のパスポートデータを取得するようにIoTデバイス130-2を制御する。送信手段213は、出国者ごとに、特徴情報とパスポートデータとを関連付けて認証データとしてクラウドサーバ180へ送信する。この認証データには、出国者の出国先(すなわち、入国予定の空港)を示す情報を含めるようにしてもよい。
 クラウドサーバ180は、通信回線170を介してエッジデバイス110から受信した認証データに含まれる特徴情報を顔認証のための学習データとして機械学習を行い、顔認証用AIモデル(以下、学習済みモデル)を生成し、当該認証データと対応付けて記憶する記憶手段として機能する。なお、機械学習については既存のアルゴリズムを適宜用いるようにすればよい。上記機械学習については、第2空港行きの航空機が第1空港を出発するタイミングに対応する時点にて抽出された特徴情報を選定して学習したものであることが好ましい。第2空港に来ない人のデータはなるべく学習しないことが好ましいからである。
 また、クラウドサーバ180は、通信回線170を介してエッジデバイス110から受信した認証データに出国先を示す情報が含まれている場合、認証データを出国先毎に分類する分類手段(図示省略)を備えていてもよい。この場合、行き先(到着予定の空港や当該がある国)ごとに、学習済みモデルを生成するようにしてもよい。前述したように、第2空港に来ない人のデータはなるべく学習しないことが好ましいからである。クラウドサーバ180は、エッジデバイス120からの送信要求を通信回線170を介して受信したことを契機として、該当する学習済みモデルを返信する。
 エッジデバイス120は、通信回線160に接続されている装置と通信回線170に接続されている装置の間のデータ通信を仲介する中継装置(例えば、ゲートウェイ)である。エッジデバイス120は、図4に示すように、プロセッサ131と、メモリ122と、ストレージ123と、通信装置124と、を備える。これらの装置は、バス125を介して接続されている。プロセッサ121、メモリ122、ストレージ133、通信装置134、およびバス135は、上述したプロセッサ111、メモリ112、ストレージ113、通信装置114、およびバス115と同様であるため、その説明を省略する。
 図5は、エッジデバイス120の機能構成の一例を示す図である。エッジデバイス120は、第3制御手段221と、第4制御手段222と、第5制御手段223と、通信手段224と、を備える。通信手段224は、図4における通信装置124である。図5における第3制御手段221、第4制御手段222および第5制御手段223は、メモリ122またはストレージ123に記憶されたプログラムと、このプログラムを実行するプロセッサ121との協働により、プロセッサ121が演算を行い、または、通信手段224を制御することにより実現されるソフトウェアモジュールである。
 第3制御手段221は、第2空港から入国する1以上の者の顔の特徴情報を学習させた学習済みモデルをクラウドサーバ180から取得する取得手段である。より詳細に説明すると、第3制御手段221は、通信回線170を介してクラウドサーバ180とのデータ通信を行い、IoTデバイス140-2により読み取ったパスポートデータに対応する学習済みモデルを取得する。この際、到着予定の空港ごとにもしくは当該空港の属する国ごとに分類された特徴情報が存在する場合は、学習済みモデルのうち当該第2空港に対応するものが取得される。
 入国審査システム100において、第1空港(出国空港)および/または第2空港(入国空港)が複数存在しても勿論よい。この場合、第1空港ごとに一つの認証装置10が設けられ、第1空港ごとに一つの認証装置20が設けられ、クラウドサーバは複数の認証装置10および複数の認証装置20との間で情報の授受を行う。具体的には、認証データに入国予定の空港の情報が含まれている場合、エッジデバイス120からの要求に応じてまたはフライトスケジュールに対応するタイミングで、クラウドサーバ180にて、入国空港ごとに、入国空港に到来する予定の人物でいずれかの出国空港から出国した人物のみのからなる特徴情報を学習した学習済みモデルを生成し、該当する学習済みモデルが各入国空港に提供する。
 第4制御手段222は、入国者の顔の画像の照合に用いる機械学習済みモデルを、第3制御手段により取得した学習済みモデルに切り替える切り替え手段である。ここで、第4制御手段222は、学習済みモデルの切り替えのタイミングを、第1空港を出発した航空機が第2空港に到着するタイミングに応じて決定することが好ましい。前述したように第2空港に来ない人のデータはなるべく学習しないことが好ましいからである。
 あるいは、入国審査を出国空港ごとに区分して行う場合、その出国空港ごとに学習済みモデルを切り替えてもよい。すなわち、クラウドサーバ180が保有する、出国した空港もさまざまな入国予定の空港もさまざまである多数の人物に関する認証データのうち、入国審査を行う第2空港と認証対象の人物が実際に出国した第1空港とに対応する学習済みモデルを適用されるように、切り替えを制御する。
 第5制御手段223は、IoTデバイス140-1により撮像した入国者の顔の画像を、第4制御手段222による切り替え後の学習済みモデルを用いて照合する照合手段である。好ましい態様においては、第3制御手段221は、IoTデバイス140-2により読み取ったパスポートデータを含む認証データをクラウドサーバ180から取得し、第5制御手段223は、該取得した認証データに含まれる特徴情報を更に用いて入国者の顔の画像の照合を行うようにしてもよい。
<2.動作>
 次いで、図6を参照しつつ入国審査システム100に含まれる各装置の動作を説明する。図6は、入国審査システム100に含まれる各装置の動作を示すシーケンス図である。第1空港における出国審査窓口に出国者が到来し、IoTデバイス130-2にパスポートを翳すなどしたことを契機として、認証装置10では図6のステップSA100以降の処理が開始される。図6におけるステップSA100は、第1制御手段211により実行される処理である。ステップSA100では、第1制御手段211は、出国者の顔の撮像画像をIoTデバイス130-1に解析させ、出国者の顔の特徴情報を取得する。ステップSA100に後続するステップSA110は、第2制御手段212により実行される処理である。ステップSA110では、第2制御手段212は、IoTデバイス130-2を介してパスポートデータを取得する。ステップSA110に後続するステップSA120は、送信手段213により実行される処理である。ステップSA120では、送信手段213は、ステップSA100にて取得した特徴情報とステップSA110にて取得したパスポートデータとを関連付けて認証データとし、クラウドサーバ180に送信する。
 クラウドサーバ180は、通信回線170を介して受信した認証データに含まれる特徴情報を用いて顔認証のための機械学習を行い、その学習結果である学習済みモデルに当該認証データを対応付けて記憶する(ステップSA130)。
 図6におけるステップSA140は、第3制御手段221により実行される処理である。第2空港における入国審査窓口に到来した入国者がIoTデバイス140-2にパスポートを翳すなどしたことを契機として、認証装置20ではステップSA140以降の処理が開始される。ステップSA140では、第3制御手段221は、IoTデバイス140-2を介して読み取ったパスポートデータに対応する学習済みモデルをクラウドサーバ180から取得する。ステップSA140に後続するステップSA150は、第4制御手段222により実行される処理である。ステップSA150では、既に適用されている他の学習済みモデルから、ステップSA140にて取得した最新の学習済みモデルに切り替える。そして、ステップSA150に後続するステップSA160は、第5制御手段223により実行される処理である。ステップSA160では、第5制御手段223は、ステップSA150にて切り替えた学習済みモデルとIoTデバイス140-2を介して取得した特徴情報とを用いて入国者の顔の照合(すなわち、入国審査)を行う。
 以上説明したように本実施形態の入国審査システム100によれば、認証装置20の設置された国へ入国するために第1空港から出国した出国者の顔の画像データを学習データとして機械学習を行うことで得られた学習済みのモデルを用いた顔認証(すなわち、出国者に特化した顔認証)を認証装置20に行わせることができ、入国審査の際の顔認証の精度が従来よりも向上する。また、精度の高い顔認証を行うことが可能になるため、入国手続きを顔認証だけとして従来の煩わしい手続きを省略し、入国手続きのために入国審査窓口に並ばなくて済むようになると期待される。
<3.変形>
 以上本発明の実施形態について説明したが、この実施形態に以下の変形を加えても勿論よい。
 複数のIoTデバイス130とエッジデバイス110とを一体にして出国側の認証装置10を構成してもよく、複数のIoTデバイス140とエッジデバイス120とを一体にして入国側の認証装置20を構成してもよい。また、上記実施形態における第1制御手段211、第2制御手段212、第3制御手段221、第4制御手段222および第5制御手段223はソフトウェアモジュールであったが、ASICなどの電子回路であってもよい。
 上記実施形態では、第1制御手段211および第2制御手段212をエッジデバイス110に設け、第3制御手段221、第4制御手段222および第5制御手段223をエッジデバイス120に設けた。しかし、第1制御手段211および第2制御手段212をクラウドサーバ180に設けてもよく、第3制御手段221、第4制御手段222および第5制御手段223をクラウドサーバ180に設けてもよい。また、第1制御手段211、第2制御手段212、第3制御手段221、第4制御手段222および第5制御手段223の全てをクラウドサーバ180に設けてもよい。
 第1制御手段211および第2制御手段212をクラウドサーバ180に設ける態様においては、エッジデバイス110は通信回線150に接続されている装置と通信回線170に接続されている装置との間のデータ通信を仲介する一般的な中継装置であればよい。また、この態様においては、第1空港に設置される認証装置(すなわち、出国側の認証装置)は、出国者の顔の画像を撮像する撮像手段と、撮像された画像を解析して各出国者の顔の特徴情報を抽出する抽出手段と、各出国者のパスポートデータを取得するパスポートリーダと、出国者ごとに、特徴情報とパスポートデータとを関連付けて認証データとしてクラウドサーバ180に送信する送信手段とを備えていればよい。
 同様に、第3制御手段221、第4制御手段222および第5制御手段223をクラウドサーバ180に設ける態様においては、エッジデバイス120は通信回線160に接続されている装置と通信回線170に接続されている装置との間のデータ通信を仲介する一般的な中継装置であればよい。また、この態様においては、第2空港に設置される認証装置(すなわち、入国側の認証装置)は、入国者の顔の画像を撮像する撮像手段と、入国者が出国した空港にて抽出された顏の特徴情報を学習させた学習済みモデルを取得する取得手段と、該取得した学習済みモデルに切り替える切り替え手段と、撮像された入国者の顔の画像を、該切り替え後の機械学習済みモデルを用いて照合する照合手段と、を備えていればよい。
 上記実施形態では、エッジデバイス110のプロセッサ111を第1制御手段211および第2制御手段212として機能させるプログラムがエッジデバイス110に予めインストールされており、エッジデバイス120のプロセッサ121を第3制御手段221、第4制御手段222および第5制御手段223として機能させるプログラムがエッジデバイス120に予めインストールされていた。しかし、1以上のコンピュータ(プロセッサ)に、複数の出国者が出国する第1空港に設置されたカメラに、撮像した画像を解析させて各出国者の顔の特徴情報を抽出させるように制御するステップと、前記第1空港に設置されたパスポートリーダに、各出国者のパスポートデータを取得させるように制御するステップと、出国者ごとに、前記特徴情報と前記パスポートデータとを関連付けて認証データとして記憶するステップと、前記複数の出国者に含まれる1以上の者が入国する第2空港に設置された顏認証機器に対し、該入国する1以上の者の顔の特徴情報を学習させた学習済みモデルを取得させるように制御するステップと、前記顏認証機器に対し、該取得した学習済みモデルに切り替えるよう制御するステップと、前記顏認証機器に対し、撮影された入国者の顔の画像を、該切り替え後の機械学習済みモデルと前記認証データとを用いて照合するように制御するステップとを実行させるプログラムを提供してもよい。なお、このようなプログラムの具体的な提供態様としてはコンピュータ読み取り可能な記録媒体に該プログラムを書き込んで配布する態様、またはインターネットなどの電気通信回線経由のダウンロードにより配布する態様が挙げられる。
 100…入国審査システム、10,20…認証装置、110,120…エッジデバイス、130,130-1,130-2、140,140-1,140-2…IoTデバイス、150,160,170…通信回線、180…クラウドサーバ、111,121…プロセッサ、112,122…メモリ、113,123…ストレージ、114,124…通信装置、211…第1制御手段、212…第2制御手段、213…送信手段、214…通信手段、221…第3制御手段、222…第4制御手段、223…第5制御手段、224…通信手段。

Claims (11)

  1.  出国者が出国する空港で撮像された画像を利用して、入国の審査を顔認証で行う入国審査システムであって、
     複数の出国者が出国する第1空港に設置されたカメラに、撮像した画像を解析させて各出国者の顔の特徴情報を抽出させるように制御する第1制御手段と、
     前記第1空港に設置された読取装置に、各出国者のパスポートデータを取得させるように制御する第2制御手段と、
     出国者ごとに、前記特徴情報と前記パスポートデータとを関連付けて認証データとして記憶する記憶手段と、
     前記複数の出国者に含まれる1以上の者が入国する第2空港に設置された顏認証機器に対し、該入国する1以上の者の顔の特徴情報を学習させた学習済みモデルを取得させるように制御する第3制御手段と、
     前記顏認証機器に対し、該取得した学習済みモデルに切り替えるよう制御する第4制御手段と、
     前記顏認証機器に対し、撮影された入国者の顔の画像を、該切り替え後の機械学習済みモデルを用いて照合するように制御する第5制御手段と
     を備える入国審査システム。
  2.  各出国者の前記特徴量を、入国する予定の国別に分類する分類手段と、
     前記第3制御手段は、顔認証機器が設置された国に対応する前記分類された特徴情報を学習させた学習済みモデルを取得させるように制御する
     請求項1に記載の入国審査システム。
  3.  前記学習済みモデルは、前記第2空港行きの航空機が前記第1空港を出発するタイミングに対応する時点にて抽出された特徴情報を選定して学習したものである
     請求項1または2に記載の入国審査システム。
  4.  前記第4制御手段は、学習済みモデルの切り替えのタイミングを、前記第1空港を出発した航空機が前記第2空港に到着するタイミングに応じて決定する
     請求項1~3のいずれか一項に記載の入国審査システム。
  5.  前記第3制御手段は、前記顔認証機器に対し、各入国者の前記認証データを更に取得させるように制御し、
     前記第5制御手段は、前記顏認証機器に対し、該取得した認証データを更に用いて照合を行うように制御する、
     請求項1~4のいずれか一項に記載の入国審査システム。
  6.  該抽出される特徴情報は、前記第1空港にて定められる規定および前記第2空港にて定められる規定の少なくともいずれかに応じて決定される、
     請求項1~5のいずれか一つに記載の入国審査システム。
  7.  前記第1制御手段は、各出国者に対し、前記特徴情報の抽出についての承諾を要求し、
     承認が得られた出国者に対してのみ前記特徴情報の抽出を実行する、
     請求項1~6のいずれか一つに記載の入国審査システム。
  8.  出国者が出国する空港で撮像された画像を利用して、入国の審査を顔認証で行う入国審査方法であって、
     複数の出国者が出国する第1空港に設置されたカメラに、撮像した画像を解析させて各出国者の顔の特徴情報を抽出させるように制御するステップと、
     前記第1空港に設置された読取装置に、各出国者のパスポートデータを取得させるように制御するステップと、
     出国者ごとに、前記特徴情報と前記パスポートデータとを関連付けて認証データとして記憶するステップと、
     前記複数の出国者に含まれる1以上の者が入国する第2空港に設置された顏認証機器に対し、該入国する1以上の者の顔の特徴情報を学習させた学習済みモデルを取得させるように制御するステップと、
     前記顏認証機器に対し、該取得した学習済みモデルに切り替えるよう制御するステップと、
     前記顏認証機器に対し、撮影された入国者の顔の画像を、該切り替え後の機械学習済みモデルと前記認証データとを用いて照合するように制御するステップと
     を有する入国審査方法。
  9.  1以上のコンピュータに、出国者が出国する空港で撮像された画像を利用して、入国の審査を顔認証で行う処理を実行させるためのプログラムであって、
     複数の出国者が出国する第1空港に設置されたカメラに、撮像した画像を解析させて各出国者の顔の特徴情報を抽出させるように制御するステップと、
     前記第1空港に設置されたパスポートリーダに、各出国者のパスポートデータを取得させるように制御するステップと、
     出国者ごとに、前記特徴情報と前記パスポートデータとを関連付けて認証データとして記憶するステップと、
     前記複数の出国者に含まれる1以上の者が入国する第2空港に設置された顏認証機器に対し、該入国する1以上の者の顔の特徴情報を学習させた学習済みモデルを取得させるように制御するステップと、
     前記顏認証機器に対し、該取得した学習済みモデルに切り替えるよう制御するステップと、
     前記顏認証機器に対し、撮影された入国者の顔の画像を、該切り替え後の機械学習済みモデルと前記認証データとを用いて照合するように制御するステップと
     を実行させるプログラム。
  10.  出国者が出国する第1空港に設置され、
     撮像手段と、
     撮像された画像を解析して各出国者の顔の特徴情報を抽出する抽出手段と、
     各出国者のパスポートデータを取得するパスポートリーダと、
     出国者ごとに、前記特徴情報と前記パスポートデータとを関連付けて認証データとして送信する送信手段と
     を有する認証装置。
  11.  入国者が入国する第2空港に設置され、
     撮像手段と、
     前記入国者が出国した空港にて抽出された顏の特徴情報を学習させた学習済みモデルを取得する取得手段と、
     該取得した学習済みモデルに切り替える切り替え手段と、
     撮像された入国者の顔の画像を、該切り替え後の機械学習済みモデルを用いて照合する照合手段と
     を備える認証装置。
PCT/JP2018/020856 2018-05-30 2018-05-30 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置 WO2019229910A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/020856 WO2019229910A1 (ja) 2018-05-30 2018-05-30 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/020856 WO2019229910A1 (ja) 2018-05-30 2018-05-30 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置

Publications (1)

Publication Number Publication Date
WO2019229910A1 true WO2019229910A1 (ja) 2019-12-05

Family

ID=68697071

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/020856 WO2019229910A1 (ja) 2018-05-30 2018-05-30 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置

Country Status (1)

Country Link
WO (1) WO2019229910A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166104A1 (ja) * 2020-02-19 2021-08-26 日本電気株式会社 処理装置、推定装置、処理方法及び推定方法
JP7442550B2 (ja) 2019-12-20 2024-03-04 京東方科技集團股▲ふん▼有限公司 推論演算装置、モデル訓練装置、及び推論演算システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178346A (ja) * 2001-12-07 2003-06-27 Hitachi Ltd 出国受付システム、出国審査システム、出国審査方法、旅券発給対象者情報の管理方法、出国改札システムの配置構造、入国受付システム、入国改札システム、入国審査システム、入国審査方法、入国改札システムの配置構造、及び旅券
JP2003256912A (ja) * 2002-02-28 2003-09-12 Omron Corp 自動取引装置および自動取引方法
JP2003296517A (ja) * 2002-04-05 2003-10-17 Telemann Communications Co Ltd パスポート所持者確認装置及びシステム
JP2018081442A (ja) * 2016-11-15 2018-05-24 株式会社Preferred Networks 学習済モデル生成方法及び信号データ判別装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178346A (ja) * 2001-12-07 2003-06-27 Hitachi Ltd 出国受付システム、出国審査システム、出国審査方法、旅券発給対象者情報の管理方法、出国改札システムの配置構造、入国受付システム、入国改札システム、入国審査システム、入国審査方法、入国改札システムの配置構造、及び旅券
JP2003256912A (ja) * 2002-02-28 2003-09-12 Omron Corp 自動取引装置および自動取引方法
JP2003296517A (ja) * 2002-04-05 2003-10-17 Telemann Communications Co Ltd パスポート所持者確認装置及びシステム
JP2018081442A (ja) * 2016-11-15 2018-05-24 株式会社Preferred Networks 学習済モデル生成方法及び信号データ判別装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7442550B2 (ja) 2019-12-20 2024-03-04 京東方科技集團股▲ふん▼有限公司 推論演算装置、モデル訓練装置、及び推論演算システム
WO2021166104A1 (ja) * 2020-02-19 2021-08-26 日本電気株式会社 処理装置、推定装置、処理方法及び推定方法
JP7396452B2 (ja) 2020-02-19 2023-12-12 日本電気株式会社 処理装置、推定装置、処理方法及び推定方法

Similar Documents

Publication Publication Date Title
JP6743188B2 (ja) リモートの契約面談方法、電子装置及びコンピューター読取可能記憶媒体
JP6921694B2 (ja) 監視システム
EP1814061B1 (en) Method and device for collating biometric information
CN109858375B (zh) 活体人脸检测方法、终端及计算机可读存储介质
RU2017131847A (ru) Устройство и способы слежения за пассажирами
JP2006338092A (ja) パタン照合方法、パタン照合システム及びパタン照合プログラム
JP2002251380A (ja) 利用者照合システム
US11074330B2 (en) Biometric recognition method
CN107833328B (zh) 基于人脸识别的门禁验证方法及装置、计算设备
WO2019229910A1 (ja) 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置
CN111046810A (zh) 一种数据处理方法及处理装置
WO2022064830A1 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
WO2021131029A1 (ja) フィルタ生成装置、推定装置、顔認証システム、フィルタ生成方法および記録媒体
CN111368814A (zh) 一种身份识别方法及系统
WO2022003766A1 (ja) 情報処理装置、顔認証促進システム、情報処理方法、プログラムが記憶された非一時的なコンピュータ可読媒体
CN113591603A (zh) 证件的验证方法、装置、电子设备及存储介质
JP2023126272A (ja) 処理装置、処理装置の制御方法及びプログラム
WO2020152917A1 (ja) 顔認証装置、顔認証方法、プログラム、および記録媒体
WO2022222957A1 (zh) 一种目标识别的方法和系统
KR102301785B1 (ko) 얼굴 연속 인증을 위한 방법 및 장치
WO2022074787A1 (ja) 画像処理装置、画像処理方法、プログラム
Moshayedi et al. Fingerprint Identification Banking (FIB); Affordable and Secure Biometric IOT Design
Faruqui et al. Automatic examinee validation system using eigenfaces
CN111807173A (zh) 基于深度学习的电梯控制方法、电子设备及存储介质
CN111860563A (zh) 一种车辆验证方法、装置、电子设备和介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18921012

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18921012

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP