JP2022075264A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2022075264A
JP2022075264A JP2020185948A JP2020185948A JP2022075264A JP 2022075264 A JP2022075264 A JP 2022075264A JP 2020185948 A JP2020185948 A JP 2020185948A JP 2020185948 A JP2020185948 A JP 2020185948A JP 2022075264 A JP2022075264 A JP 2022075264A
Authority
JP
Japan
Prior art keywords
image
unit
distortion
captured
dimensional code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020185948A
Other languages
Japanese (ja)
Inventor
正貴 関
Masaki Seki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2020185948A priority Critical patent/JP2022075264A/en
Publication of JP2022075264A publication Critical patent/JP2022075264A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a configuration capable of correcting distortion of a captured image without performing camera calibration for each camera in advance.SOLUTION: The distortion of an image captured by an imaging unit 23 is corrected by an image correction process on the basis of a distortion coefficient calculated by a distortion coefficient calculation process, and a face feature point extraction processing using the corrected image is performed. In the distortion coefficient calculation process, a distortion coefficient is calculated on the basis of the pixel coordinates that are the coordinates of each of coordinate comparison cells that are at least a part of the plurality of cells in the image obtained by capturing an authentication code C in which a plurality of cells are arranged two-dimensionally by the imaging unit 23, and the three-dimensional position coordinates of each cell of the authentication code C corresponding to the coordinate comparison cell.SELECTED DRAWING: Figure 7

Description

本発明は、撮像した撮像画像の歪みを補正してその補正した補正画像を利用した処理を行う画像処理装置に関するものである。 The present invention relates to an image processing apparatus that corrects distortion of a captured image and performs processing using the corrected corrected image.

魚眼レンズを採用した魚眼カメラ等で撮像対象を撮像した撮像画像では、撮像対象が歪むように撮像されるため、その撮像画像を利用した処理によっては、撮像画像での歪みの補正を要する場合がある。このように撮像画像の歪みを補正するための技術として、例えば、下記特許文献1に開示されるキャリブレーションシステムが知られている。このキャリブレーションシステムでは、キャリブレーション装置は、撮像装置によってキャリブレーション用のチャートが撮影された画像のデータを取得し、それに基づきキャリブレーションの演算を行うことで、撮像装置のカメラの歪み補正係数や内部パラメータ、外部パラメータなどのカメラパラメータを導出するように構成されている。このように導出されたカメラパラメータを利用することで、撮像装置の撮像画像の歪みを抑制するように補正処理を行うことができる。 In an image captured by a fisheye camera or the like that uses a fisheye lens, the imaged object is imaged so that it is distorted. Therefore, depending on the processing using the image, it may be necessary to correct the distortion in the image. .. As a technique for correcting the distortion of the captured image as described above, for example, the calibration system disclosed in Patent Document 1 below is known. In this calibration system, the calibration device acquires the data of the image in which the chart for calibration is taken by the image pickup device, and performs the calibration calculation based on the data, so that the distortion correction coefficient of the camera of the image pickup device and the distortion correction coefficient can be obtained. It is configured to derive camera parameters such as internal parameters and external parameters. By using the camera parameters derived in this way, it is possible to perform correction processing so as to suppress distortion of the image captured by the image pickup device.

特許第6764533号公報Japanese Patent No. 6764533

ところで、カメラの個体差により固有のカメラパラメータにばらつきが発生しうるため、その発生したばらつきが大きくなるために、カメラごとに歪み補正係数等を算出するためのカメラキャリブレーションが必要になる場合がある。すなわち、製品出荷前など、事前にカメラごとにカメラキャリブレーションを要する場合があり、工程作業時間の短縮等が図り難くなるという問題がある。このようなカメラキャリブレーションに関する問題は、魚眼レンズを採用した魚眼カメラや広角レンズを採用した広角カメラだけでなく、一般的な撮像レンズを採用したカメラであっても生じる場合がある。 By the way, since the unique camera parameters may vary due to individual differences of the cameras, the generated variations become large, and therefore, camera calibration for calculating the distortion correction coefficient etc. may be required for each camera. be. That is, it may be necessary to calibrate the camera for each camera in advance, such as before shipping the product, and there is a problem that it is difficult to shorten the process work time. Such a problem related to camera calibration may occur not only in a fisheye camera using a fisheye lens or a wide-angle camera using a wide-angle lens, but also in a camera using a general image pickup lens.

本発明は、上述した課題を解決するためになされたものであり、その目的とするところは、事前にカメラごとにカメラキャリブレーションを実施することなく、撮像画像の歪みを補正可能な構成を提供することにある。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a configuration capable of correcting distortion of a captured image without performing camera calibration for each camera in advance. To do.

上記目的を達成するため、特許請求の範囲の請求項1に記載の画像処理装置(20)は、
撮像レンズと前記撮像レンズによる像を撮像する撮像素子とを有する撮像部(23)と、
前記撮像部の撮像画像の歪みを補正するための歪み係数を算出する歪み係数算出部(21)と、
前記歪み係数算出部により算出された前記歪み係数に基づいて前記撮像部の撮像画像の歪みを補正する歪み補正部(21)と、
前記歪み補正部によって歪みを補正された補正画像を利用した処理を行う処理部(21)と、
を備え、
前記歪み係数算出部は、複数のセルが配列されてなる二次元コード(C)を前記撮像部にて撮像した撮像画像において前記複数のセルの少なくとも一部となる座標比較用セルのそれぞれの座標となるピクセル座標と、前記座標比較用セルに対応する前記二次元コードのセルのそれぞれの三次元位置座標とに基づいて、前記歪み係数を算出することを特徴とする。
なお、上記各括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。
In order to achieve the above object, the image processing apparatus (20) according to claim 1 of the claims is
An image pickup unit (23) having an image pickup lens and an image pickup element for capturing an image obtained by the image pickup lens, and an image pickup unit (23).
The distortion coefficient calculation unit (21) for calculating the distortion coefficient for correcting the distortion of the captured image of the imaging unit, and the distortion coefficient calculation unit (21).
A distortion correction unit (21) that corrects the distortion of the captured image of the image pickup unit based on the distortion coefficient calculated by the distortion coefficient calculation unit.
A processing unit (21) that performs processing using the corrected image whose distortion has been corrected by the distortion correction unit, and
Equipped with
The strain coefficient calculation unit captures a two-dimensional code (C) in which a plurality of cells are arranged by the image pickup unit, and the coordinates of each of the coordinates comparison cells that are at least a part of the plurality of cells. It is characterized in that the strain coefficient is calculated based on the pixel coordinates to be obtained and the three-dimensional position coordinates of each of the cells of the two-dimensional code corresponding to the coordinate comparison cell.
The reference numerals in the parentheses indicate the correspondence with the specific means described in the embodiments described later.

請求項1の発明では、歪み係数算出部により算出された歪み係数に基づいて撮像部の撮像画像の歪みが歪み補正部により補正され、この補正画像を利用した処理が処理部により行われる。歪み係数算出部では、複数のセルが配列されてなる二次元コードを撮像部にて撮像した撮像画像において複数のセルの少なくとも一部となる座標比較用セルのそれぞれの座標となるピクセル座標と、座標比較用セルに対応する二次元コードのセルのそれぞれの三次元位置座標とに基づいて、歪み係数が算出される。 In the invention of claim 1, the distortion of the image taken by the imaging unit is corrected by the distortion correction unit based on the distortion coefficient calculated by the distortion coefficient calculation unit, and the processing unit performs processing using this corrected image. In the strain coefficient calculation unit, the pixel coordinates, which are the coordinates of the coordinate comparison cells that are at least a part of the plurality of cells in the captured image obtained by capturing the two-dimensional code in which a plurality of cells are arranged, are used. The strain coefficient is calculated based on the three-dimensional position coordinates of each cell of the two-dimensional code corresponding to the coordinate comparison cell.

このように、撮像された二次元コードを用いて歪み係数が算出されるため、専用のキャリブレーション用のチャート等を用意することなく、容易に歪み係数を算出することができる。このため、撮像画像を利用した処理を行うごとに二次元コードを撮像して歪み係数を算出することもできるので、事前にカメラごとにカメラキャリブレーションを実施することなく、その算出された歪み係数に基づいて撮像画像の歪みを補正することができる。 Since the strain coefficient is calculated using the captured two-dimensional code in this way, the strain coefficient can be easily calculated without preparing a dedicated calibration chart or the like. For this reason, it is possible to capture a two-dimensional code and calculate the distortion coefficient each time processing using the captured image is performed. Therefore, the calculated distortion coefficient can be calculated without performing camera calibration for each camera in advance. It is possible to correct the distortion of the captured image based on.

請求項2の発明のように、撮像部が撮像レンズとして魚眼レンズを採用することで魚眼カメラとして機能する構成でも、魚眼画像を利用した処理を行うごとに撮像した二次元コードを利用して歪み係数を算出することで、その算出された歪み係数に基づいて魚眼画像の歪みを補正することができる。 Even in a configuration in which the image pickup unit functions as a fisheye camera by adopting a fisheye lens as an image pickup lens as in the invention of claim 2, a two-dimensional code captured every time a process using a fisheye image is performed is used. By calculating the distortion coefficient, it is possible to correct the distortion of the fisheye image based on the calculated distortion coefficient.

請求項3の発明では、撮像部により撮像された二次元コードの撮像画像に対して当該二次元コードをデコードするデコード処理を行うデコード部が設けられ、デコード部によるデコード結果を用いて補正画像を利用した処理が処理部により行われる。これにより、デコード結果を得るために撮像した二次元コードの撮像画像から歪み係数を算出できるので、歪み係数を算出するためだけにデコード不要な二次元コードを撮像することもないので、処理の効率化を図ることができる。 In the invention of claim 3, a decoding unit is provided that performs a decoding process for decoding the two-dimensional code captured image captured by the imaging unit, and the corrected image is generated using the decoding result by the decoding unit. The processing used is performed by the processing unit. As a result, the distortion coefficient can be calculated from the captured image of the two-dimensional code captured in order to obtain the decoding result, so that the two-dimensional code that does not need to be decoded is not imaged just for calculating the distortion coefficient, so that the processing efficiency is high. Can be achieved.

請求項4の発明では、二次元コードには、利用者の顔画像から抽出された顔特徴点に関する顔特徴点情報が記録され、処理部では、デコード部によるデコード結果として得られた顔特徴点情報と、撮像部により撮像されて歪み補正部によって歪みを補正された利用者の顔画像から抽出された顔特徴点とを利用して、利用者の認証処理が行われる。これにより、顔特徴点情報を得るために撮像した二次元コードの撮像画像から歪み係数を算出できるだけでなく、その歪み係数に基づいて顔特徴点を抽出する利用者の顔画像の歪みを補正できるので、認証処理の認証精度を向上させることができる。 In the invention of claim 4, the two-dimensional code records the face feature point information regarding the face feature points extracted from the user's face image, and the processing unit records the face feature points obtained as the decoding result by the decoding unit. The user authentication process is performed using the information and the facial feature points extracted from the user's face image imaged by the imaging unit and corrected by the distortion correction unit. As a result, not only the distortion coefficient can be calculated from the captured image of the two-dimensional code captured to obtain the facial feature point information, but also the distortion of the user's face image from which the facial feature point is extracted based on the distortion coefficient can be corrected. Therefore, the authentication accuracy of the authentication process can be improved.

請求項5の発明では、二次元コードには、当該二次元コードのセルのサイズに関する情報が記録されるため、撮像した二次元コードの実際の形状を正確に把握できる。これにより、上記座標比較用セルに対応する二次元コードのセルのそれぞれの三次元位置座標を正確に算出しやすくなるので、歪み係数の算出精度、すなわち、撮像画像の歪み補正精度を向上させることができる。 In the invention of claim 5, since the information regarding the cell size of the two-dimensional code is recorded in the two-dimensional code, the actual shape of the captured two-dimensional code can be accurately grasped. This makes it easier to accurately calculate the three-dimensional position coordinates of each cell of the two-dimensional code corresponding to the coordinate comparison cell, so that the calculation accuracy of the distortion coefficient, that is, the distortion correction accuracy of the captured image can be improved. Can be done.

請求項6の発明では、歪み係数算出部により、複数回撮像された二次元コードのピクセル座標と三次元位置座標とに基づいて、歪み係数が算出される。これにより、1つの撮像画像から二次元コードのピクセル座標と三次元位置座標とに基づいて歪み係数が算出される場合と比較して、撮像時の手振れ等の影響を抑制しやすくなるので、歪み係数の算出精度、すなわち、撮像画像の歪み補正精度を向上させることができる。 In the invention of claim 6, the strain coefficient calculation unit calculates the strain coefficient based on the pixel coordinates and the three-dimensional position coordinates of the two-dimensional code captured a plurality of times. This makes it easier to suppress the effects of camera shake during imaging, as compared to the case where the distortion coefficient is calculated based on the pixel coordinates of the two-dimensional code and the three-dimensional position coordinates from one captured image. It is possible to improve the calculation accuracy of the coefficient, that is, the distortion correction accuracy of the captured image.

請求項7の発明では、二次元コードは、画面表示されているため、用紙等に印刷されたために撮像時に二次元コード自体が歪むようなこともないので、歪み係数の算出精度、すなわち、撮像画像の歪み補正精度を向上させることができる。 In the invention of claim 7, since the two-dimensional code is displayed on the screen, the two-dimensional code itself is not distorted at the time of imaging because it is printed on paper or the like, so that the calculation accuracy of the distortion coefficient, that is, the imaging is performed. The distortion correction accuracy of the image can be improved.

第1実施形態に係る画像処理装置を備える認証システムの構成を概略的に示す説明図である。It is explanatory drawing which shows schematic structure of the authentication system provided with the image processing apparatus which concerns on 1st Embodiment. 撮像された顔画像データから顔特徴点を抽出する箇所の一部を例示する説明図である。It is explanatory drawing which illustrates a part of the part where the face feature point is extracted from the photographed face image data. 画像処理装置の電気的構成を概略的に示すブロック図である。It is a block diagram which shows roughly the electric structure of an image processing apparatus. 携帯端末の電気的構成を概略的に示すブロック図である。It is a block diagram which shows the electric composition of a mobile terminal schematicly. 画像処理装置による認証処理の流れを例示するフローチャートの一部である。It is a part of a flowchart illustrating the flow of authentication processing by an image processing device. 画像処理装置による認証処理の流れを例示するフローチャートの一部である。It is a part of a flowchart illustrating the flow of authentication processing by an image processing device. カメラ座標系とピクセル座標系との関係を説明する説明図である。It is explanatory drawing explaining the relationship between a camera coordinate system and a pixel coordinate system.

[第1実施形態]
以下、本発明に係る画像処理装置を備える認証システムを具現化した一実施形態について、図面を参照して説明する。
図1に示す認証システム10は、主として、画像処理装置20を備えており、利用者の顔画像から抽出された顔特徴点や個人情報等が記録される認証用の二次元コード(以下、認証用コードCともいう)を利用してその利用者の個人認証を行うシステムとして構成されている。
[First Embodiment]
Hereinafter, an embodiment embodying an authentication system including an image processing device according to the present invention will be described with reference to the drawings.
The authentication system 10 shown in FIG. 1 mainly includes an image processing device 20, and is a two-dimensional code for authentication in which facial feature points, personal information, etc. extracted from a user's face image are recorded (hereinafter, authentication). It is configured as a system for personally authenticating the user by using the code C).

本実施形態では、認証システム10は、例えば、顔認証が成功した利用者が特定の部屋への入室を許可される入退管理システムに採用されている。利用者は、認証用コードCを備える情報コード記録媒体として携帯端末30を携帯しており、上記特定の部屋への出入口に設置される画像処理装置20に対して携帯端末30に画面表示された認証用コードCを撮像させる動作を行うことで、認証成功時に上記特定の部屋への入室が許可される。具体的には、画像処理装置20から認証成功情報が出入口の扉に設けられる電気錠の施解錠を制御する施解錠制御装置に送信されることで、施解錠制御装置によって電気錠が解錠状態になることで、上記特定の部屋への入室が許可される。 In the present embodiment, the authentication system 10 is adopted, for example, as an entrance / exit management system in which a user who has succeeded in face recognition is allowed to enter a specific room. The user carries the mobile terminal 30 as an information code recording medium including the authentication code C, and the image processing device 20 installed at the entrance / exit to the specific room is displayed on the screen of the mobile terminal 30. By performing an operation of imaging the authentication code C, entry into the specific room is permitted when the authentication is successful. Specifically, the image processing device 20 transmits the authentication success information to the lock / unlock control device that controls the lock / unlock of the electric lock provided at the door of the doorway, so that the electric lock is unlocked by the lock / unlock control device. By becoming, entry to the above specific room is permitted.

認証用コードCは、複数の明色系セル及び暗色系セルが配列されてなる二次元コード、具体的には、QRコード(登録商標)として構成されて、個人認証を申請する利用者からその顔画像データを取得した所定のコード生成装置によって生成される。このコード生成装置は、利用者から取得した顔画像データから顔特徴点を抽出し、この顔特徴点に関する顔特徴点情報や利用者の個人情報に加えて、セルのサイズに関する情報(以下、単に、セルサイズともいう)等を情報コード化して認証用コードCを生成する。本実施形態では、顔特徴点として、目、眉、鼻、耳、口などの顔器官のそれぞれの大きさや形状、輪郭や顔器官同士の配置位置等の項目が採用されている。そして、コード生成装置により実施される公知の顔特徴点を抽出するための顔特徴点抽出処理に応じて、例えば、図2に例示するように取得した顔画像データDについて、項目ごとの特徴、例えば、「D1:目が切れ長」や「D2:口が大きめ」等のデータが顔特徴点としてそれぞれ算出されて抽出される。そして、コード生成装置により実施される公知の情報コード生成処理に応じて、上述のように抽出された顔特徴点に関する情報や個人情報、セルサイズ等に基づいて、復号鍵(暗号鍵)を用いて復号可能に暗号化して認証用コードCが生成される。 The authentication code C is configured as a two-dimensional code in which a plurality of light-colored cells and dark-colored cells are arranged, specifically, a QR code (registered trademark), and is used by a user who applies for personal authentication. It is generated by a predetermined code generator that has acquired the face image data. This code generator extracts facial feature points from face image data acquired from the user, and in addition to the face feature point information and the user's personal information regarding the face feature points, information regarding the cell size (hereinafter, simply referred to as "simply"). , Also referred to as cell size) and the like are coded to generate an authentication code C. In the present embodiment, as facial feature points, items such as the size and shape of each facial organ such as eyes, eyebrows, nose, ears, and mouth, contours, and placement positions of facial organs are adopted. Then, in response to the face feature point extraction process for extracting known face feature points performed by the code generator, for example, the face image data D acquired as illustrated in FIG. 2 has features for each item. For example, data such as "D1: cut length of eyes" and "D2: large mouth" are calculated and extracted as facial feature points, respectively. Then, a decryption key (encryption key) is used based on the information about the facial feature points extracted as described above, personal information, cell size, etc. according to the known information code generation process performed by the code generation device. The authentication code C is generated by encrypting the information so that it can be decrypted.

次に、画像処理装置20について、図1及び図3を用いて説明する。
画像処理装置20は、携帯端末30に画面表示された認証用コードCを利用して利用者の認証を行う認証装置として構成されるものであり、上記特定の部屋への出入口、具体的には、出入口に設けられる扉近傍の壁面にて利用者の目線の高さとなる位置に設置されている。この画像処理装置20は、図3に示すように、制御部21、記憶部22、撮像部23、表示部24、照明部25、操作部26、通信部27などを備えている。
Next, the image processing apparatus 20 will be described with reference to FIGS. 1 and 3.
The image processing device 20 is configured as an authentication device that authenticates the user by using the authentication code C displayed on the screen of the mobile terminal 30, and is an entrance / exit to the specific room, specifically, an entrance / exit to the specific room. , It is installed at the height of the user's line of sight on the wall surface near the door provided at the doorway. As shown in FIG. 3, the image processing device 20 includes a control unit 21, a storage unit 22, an image pickup unit 23, a display unit 24, a lighting unit 25, an operation unit 26, a communication unit 27, and the like.

制御部21は、マイコンを主体として構成されて、画像処理装置20の全体的制御や各種演算を行うものであり、後述する認証処理を実行するように機能する。記憶部22は、ROM、RAM、HDD、不揮発性メモリなどの公知の記憶媒体によって構成されており、認証処理を実行するためのアプリケーションプログラムや所定のデータベース等が、制御部21により利用可能に予め格納されている。また、記憶部22には、認証用コードCを解読するための復号鍵が予め記憶されている。 The control unit 21 is mainly composed of a microcomputer and performs overall control of the image processing device 20 and various operations, and functions to execute authentication processing described later. The storage unit 22 is composed of known storage media such as a ROM, RAM, HDD, and non-volatile memory, and an application program for executing an authentication process, a predetermined database, or the like can be used in advance by the control unit 21. It is stored. Further, the storage unit 22 stores in advance a decryption key for decrypting the authentication code C.

撮像部23は、撮像レンズとこの撮像レンズによる像を撮像する撮像素子(例えば、C-MOSエリアセンサ、CCDエリアセンサ等)とを有するカメラとして構成されるもので、読取窓(撮像窓)を介して撮像した撮像画像の画像データが制御部21に出力されるように構成されている。本実施形態では、撮像部23は、撮像レンズとして魚眼レンズを採用することでより広範囲を撮像可能な魚眼カメラとして構成されている。 The image pickup unit 23 is configured as a camera having an image pickup lens and an image pickup element (for example, a C-MOS area sensor, a CCD area sensor, etc.) for capturing an image by the image pickup lens, and has a reading window (imaging window). The image data of the captured image captured through the image is output to the control unit 21. In the present embodiment, the image pickup unit 23 is configured as a fisheye camera capable of capturing a wider range by adopting a fisheye lens as the image pickup lens.

制御部21では、後述するように撮像部23にて撮像された利用者の顔画像の歪みが補正された後、この補正画像に対して上記コード生成装置と同様に顔特徴点抽出処理が実施されることで、顔特徴点が抽出される。また、制御部21では、撮像部23により撮像された認証用コードCの撮像画像に対して、記憶部22に記憶されている復号鍵を用いて暗号化された認証用コードCをデコードするデコード処理が行われることで、認証用コードCに記録された顔特徴点情報やセルサイズ等がデコード結果として得られる。 As will be described later, the control unit 21 corrects the distortion of the user's face image captured by the image pickup unit 23, and then performs face feature point extraction processing on the corrected image in the same manner as in the above code generation device. By doing so, facial feature points are extracted. Further, the control unit 21 decodes the authentication code C encrypted by using the decryption key stored in the storage unit 22 with respect to the image captured by the image pickup unit 23 for the authentication code C. By performing the processing, the face feature point information, the cell size, and the like recorded in the authentication code C can be obtained as the decoding result.

表示部24は、例えば、LEDであって、図1に示すように撮像部23の読取窓を囲うように略四角環状に配置されており、制御部21により制御されて、顔特徴点の抽出の成否や認証処理の結果等に応じて、その点灯・点滅状態が変化するように構成されている。このような配置構成のため、撮像部23は、表示部24を見ている利用者の視野範囲内となる位置に配置されることとなる。 The display unit 24 is, for example, an LED, which is arranged in a substantially square ring shape so as to surround the reading window of the image pickup unit 23 as shown in FIG. 1, and is controlled by the control unit 21 to extract facial feature points. It is configured so that the lighting / blinking state changes according to the success or failure of the screen and the result of the authentication process. Due to such an arrangement configuration, the image pickup unit 23 is arranged at a position within the visual field range of the user who is viewing the display unit 24.

照明部25は、照明光源や照明レンズ等を備えており、制御部21により制御されて、撮像部23の撮像範囲に向けて照明光を照射するように構成されている。操作部26は、入力操作に応じた操作信号を制御部21に対して出力する構成をなしており、制御部21は、この操作信号を受けて入力操作に応じた処理を行うようになっている。通信部27は、上記施解錠制御装置や入退管理用のサーバなどの外部装置との間でデータ通信を行うための通信インタフェースとして構成されており、制御部21と協働して通信処理を行うように構成されている。 The illumination unit 25 includes an illumination light source, an illumination lens, and the like, and is controlled by the control unit 21 to irradiate the illumination light toward the image pickup range of the image pickup unit 23. The operation unit 26 is configured to output an operation signal corresponding to the input operation to the control unit 21, and the control unit 21 receives the operation signal and performs processing according to the input operation. There is. The communication unit 27 is configured as a communication interface for performing data communication with an external device such as the lock / unlock control device and a server for entry / exit management, and performs communication processing in cooperation with the control unit 21. It is configured to do.

次に、携帯端末30について図1及び図4を用いて説明する。
図1及び図4に示す携帯端末30は、例えば、スマートフォンであって、CPU等からなる制御部31、メモリ32、カメラとして構成される撮像部33、制御部31によって表示内容が制御されるタッチパネル34、タッチパネル34に対するタッチ操作やキー操作に信号を制御部31に出力する操作部35、外部機器等と通信するための通信部36などを備えている。
Next, the mobile terminal 30 will be described with reference to FIGS. 1 and 4.
The mobile terminal 30 shown in FIGS. 1 and 4 is, for example, a smartphone, and is a touch panel whose display contents are controlled by a control unit 31 including a CPU, a memory 32, an image pickup unit 33 configured as a camera, and a control unit 31. 34, an operation unit 35 that outputs a signal to a control unit 31 for a touch operation or a key operation on the touch panel 34, a communication unit 36 for communicating with an external device or the like, and the like are provided.

このように構成される携帯端末30のメモリ32には、上述したコード生成装置にて生成された認証用コードCが予め記憶されている。そして、利用者による操作部35に対する所定の操作等に応じて、メモリ32から読み出された認証用コードCがタッチパネル34に画面表示された状態になる(図1参照)。 The authentication code C generated by the above-mentioned code generator is stored in advance in the memory 32 of the mobile terminal 30 configured in this way. Then, the authentication code C read from the memory 32 is displayed on the touch panel 34 on the screen in response to a predetermined operation or the like on the operation unit 35 by the user (see FIG. 1).

次に、画像処理装置20にてなされる認証処理について、図5及び図6に示すフローチャートを参照して詳述する。
画像処理装置20の制御部21により認証処理が開始されると、図5のステップS101に示す撮像処理がなされる。この処理では、照明部25により読取窓を介して照明光が照射された状態で撮像部23による撮像がなされる。続いて、ステップS103の判定処理にて、撮像画像に占める大きさが規定値(例えば、撮像領域の30%)以上となる二次元コードが撮像されているか否かについて判定される。ここで、二次元コードが撮像されていないか、撮像されていてもその大きさが上記規定値未満であると、ステップS103にてNoと判定されて、上記ステップS101からの処理がなされる。
Next, the authentication process performed by the image processing device 20 will be described in detail with reference to the flowcharts shown in FIGS. 5 and 6.
When the authentication process is started by the control unit 21 of the image processing device 20, the image pickup process shown in step S101 of FIG. 5 is performed. In this process, the image pickup unit 23 takes an image in a state where the illumination unit 25 irradiates the illumination light through the reading window. Subsequently, in the determination process of step S103, it is determined whether or not a two-dimensional code whose size occupies a specified value (for example, 30% of the imaging region) or more in the captured image is captured. Here, if the two-dimensional code is not imaged, or if the size of the two-dimensional code is less than the above-mentioned specified value even if it is imaged, it is determined as No in step S103, and the process from step S101 is performed.

一方、撮像画像に占める大きさが上記規定値以上となる二次元コードが撮像されている場合には(S103でYes)、その二次元コードが認証用コードCであることを前提に、撮像画像に対して上記復号鍵を用いたデコード処理がなされる(S105)。そして、認証用コードCのデコードに成功すると(S107でYes)、そのデコードに成功した撮像画像が記憶部22に保存(記憶)される。(S109)。なお、上記デコード処理を行う制御部21は、「デコード部」の一例に相当し得る。 On the other hand, when a two-dimensional code whose size occupies the captured image is equal to or larger than the above specified value is captured (Yes in S103), it is assumed that the two-dimensional code is the authentication code C, and the captured image is captured. The decoding process is performed using the above-mentioned decoding key (S105). Then, when the authentication code C is successfully decoded (Yes in S107), the captured image successfully decoded is stored (stored) in the storage unit 22. (S109). The control unit 21 that performs the decoding process may correspond to an example of the “decoding unit”.

続いて、ステップS111に示す判定処理にて、記憶部22に保存された撮像画像の数が規定数(例えば、10枚)であるか否かについて判定され、保存された撮像画像の数が上記規定数に達していない場合には(S111でNo)、上記ステップS101からの処理がなされる。 Subsequently, in the determination process shown in step S111, it is determined whether or not the number of captured images stored in the storage unit 22 is a specified number (for example, 10 images), and the number of stored captured images is the above. If the specified number has not been reached (No in S111), the process from step S101 is performed.

利用者が携帯端末30に画面表示された認証用コードCを読取窓に近づけるようにしてかざしていることから、撮像画像に占める大きさが上記規定値以上となる認証用コードCが連続して撮像されて、その撮像画像の保存回数が上記規定数に達すると(S111でYes)、ステップS113に示す顔特徴点情報等取得処理がなされる。この処理では、上記デコード処理のデコード結果に基づいて、顔特徴点情報及びセルサイズ等が取得される。 Since the user holds the authentication code C displayed on the screen of the mobile terminal 30 close to the reading window, the authentication code C occupying the captured image is continuously equal to or larger than the above specified value. When the image is captured and the number of times the captured image is stored reaches the above-mentioned specified number (Yes in S111), the face feature point information acquisition process shown in step S113 is performed. In this process, face feature point information, cell size, and the like are acquired based on the decoding result of the decoding process.

続いて、ステップS115に示すピクセル座標取得処理がなされる。この処理では、記憶部22に保存されている上記規定数の認証用コードCの撮像画像に対して、認証用コードCを構成する各暗色系セルが座標比較用セルとして選択され、画像平面を基準とするピクセル座標系において、撮像画像での各座標比較用セルの中心位置をピクセル座標(画像座標)m2i(u,v)として二次元的に算出するための処理がそれぞれの撮像画像に対してなされる。 Subsequently, the pixel coordinate acquisition process shown in step S115 is performed. In this process, each dark-colored cell constituting the authentication code C is selected as a coordinate comparison cell for the captured images of the specified number of authentication codes C stored in the storage unit 22, and the image plane is displayed. In the reference pixel coordinate system, the process for two-dimensionally calculating the center position of each coordinate comparison cell in the captured image as the pixel coordinates (image coordinates) m 2i (u, v) is applied to each captured image. It is done against.

次に、ステップS117に示す三次元位置座標取得処理がなされる。この処理では、認証用コードCの撮像画像ごとに、撮像部23を基準とするカメラ座標系において、認証用コードCの上記座標比較用セルに相当する実際のセルの中心位置を三次元位置座標x(x,y、z)として三次元的に算出するための処理がなされる。具体的には、認証用コードCの四隅のいずれかを仮に原点として、上述のように取得されたセルサイズを利用することで認証用コードCの正確な形状を把握できるので、上記三次元位置座標x(x,y、z)を正確に算出することができる。 Next, the three-dimensional position coordinate acquisition process shown in step S117 is performed. In this process, for each captured image of the authentication code C, in the camera coordinate system with reference to the image pickup unit 23, the center position of the actual cell corresponding to the coordinate comparison cell of the authentication code C is three-dimensionally positioned and coordinated. Processing is performed to calculate three-dimensionally as x i (x, y, z). Specifically, the exact shape of the authentication code C can be grasped by using the cell size acquired as described above with one of the four corners of the authentication code C as the origin, so that the above three-dimensional position can be grasped. The coordinates x i (x, y, z) can be calculated accurately.

上述のようにピクセル座標m2i(u,v)及び三次元位置座標x(x,y、z)が算出されて取得されると、ステップS119に示す歪み係数算出処理がなされる。この処理では、図7に示すように、Zhangの手法を用いて、認証用コードCの三次元位置座標x(x,y、z)とその認証用コードCを撮像したときのピクセル座標m2i(u,v)との上記座標比較用セルごとのペアを集めて、三次元位置座標x(x,y、z)から算出されるピクセル座標m3i(u,v)と上記ピクセル座標m2i(u,v)との誤差が小さくなるように歪み係数(カメラパラメータp)が算出される。ピクセル座標m3i(u,v)を計算する関数をF、カメラパラメータをまとめてpとしたとき、以下の式(1)のように表すことができる。

Figure 2022075264000002
When the pixel coordinates m 2i (u, v) and the three-dimensional position coordinates x i (x, y, z) are calculated and acquired as described above, the strain coefficient calculation process shown in step S119 is performed. In this process, as shown in FIG. 7, the three-dimensional position coordinates x i (x, y, z) of the authentication code C and the pixel coordinates m when the authentication code C is imaged are imaged using the Zhang method. The pixel coordinates m 3i (u, v) calculated from the three-dimensional position coordinates xi (x, y, z) and the pixel coordinates by collecting the pairs for each of the coordinates comparison cells with 2i (u, v). The strain coefficient (camera parameter p) is calculated so that the error with m 2i (u, v) becomes small. When the function for calculating the pixel coordinates m 3i (u, v) is F and the camera parameters are collectively p, it can be expressed as the following equation (1).
Figure 2022075264000002

上述した関数Fに関して、カメラ座標系から見てx(x,y、z)にある座標比較用セルは、以下の式(2)~(8)を用いることで、ピクセル座標m3i(u,v)に変換される。
x’=x/z ・・・(2)
y’=y/z ・・・(3)

Figure 2022075264000003
Figure 2022075264000004
=y’+x’ ・・・(6)
u=fx”+c ・・・(7)
v=fy”+c ・・・(8)
ここで、(x’,y’)は、z=1に画像平面があると仮定したときの座標比較用セルを二次元座標画像平面に映し込んだ時の座標(理想)に相当する。また、(x”,y”)は、(x’,y’)に対して歪みを考慮した場合の三次元位置座標に相当する。また、k~k,p~p,s~sは、歪み係数(歪みパラメータ)であり、f,fは、焦点距離であり、c,cは、カメラ(撮像部23)の光軸中心である。 With respect to the above-mentioned function F, the coordinate comparison cell in xi (x, y, z) when viewed from the camera coordinate system uses the following equations (2) to (8) to obtain pixel coordinates m 3i (u). , V).
x'= x / z ... (2)
y'= y / z ... (3)
Figure 2022075264000003
Figure 2022075264000004
r 2 = y'2 + x'2 ... (6)
u = f x x "+ c x ... (7)
v = f y y "+ cy ... (8)
Here, (x', y') corresponds to the coordinates (ideal) when the coordinate comparison cell assuming that the image plane is at z = 1 is projected on the two-dimensional coordinate image plane. Further, (x ", y") corresponds to three-dimensional position coordinates when distortion is taken into consideration with respect to (x', y'). Further, k 1 to k 6 , p 1 to p 2 , s 1 to s 4 are distortion coefficients (distortion parameters), f x and f y are focal lengths, and c x and cy are cameras. It is the center of the optical axis of (imaging unit 23).

上記式(2)~(8)を利用するように上記式(1)の最適化問題を解くことで、歪み係数k~k,p~p,s~sを算出することができる。なお、最適化問題では、様々な手法を用いることができ、例えば、LM(レーベンバーグ・マーカート)法や最小二乗法を用いることができる。なお、上記歪み係数算出処理を行う制御部21は、「歪み係数算出部」の一例に相当し得る。 By solving the optimization problem of the above equation (1) so as to use the above equations (2) to (8), the strain coefficients k 1 to k 6 , p 1 to p 2 , and s 1 to s 4 are calculated. be able to. In the optimization problem, various methods can be used, for example, the LM (Levenberg-Marquardt) method and the least squares method can be used. The control unit 21 that performs the distortion coefficient calculation process may correspond to an example of the “distortion coefficient calculation unit”.

上述のように歪み係数が算出されると、図6のステップS121に示す顔撮像処理がなされ、撮像部23により読取窓を介して利用者の顔画像を撮像するための処理がなされる。続いて、ステップS123に示す画像補正処理がなされ、上記ステップS121にて撮像された撮像画像が、上記ステップS119にて算出された歪み係数に応じて、歪みが抑制されるように補正される。なお、上記画像補正処理を行う制御部21は、「歪み補正部」の一例に相当し得る。 When the strain coefficient is calculated as described above, the face imaging process shown in step S121 of FIG. 6 is performed, and the image pickup unit 23 performs a process for imaging the user's face image through the reading window. Subsequently, the image correction process shown in step S123 is performed, and the captured image captured in step S121 is corrected so that the distortion is suppressed according to the distortion coefficient calculated in step S119. The control unit 21 that performs the image correction process may correspond to an example of the “distortion correction unit”.

続いて、ステップS125に示す顔特徴点抽出処理がなされ、上述のように補正された撮像画像(補正画像)から顔特徴点を抽出するための処理がなされる。この補正画像から顔特徴点が抽出されない場合には(S127でNo)、上記ステップS121からの処理がなされて、再び撮像されて歪み補正された補正画像から顔特徴点を抽出処理が繰り返される。なお、上記顔特徴点抽出処理を行う制御部21は、補正画像を利用した処理を行う「処理部」の一例に相当し得る。 Subsequently, the face feature point extraction process shown in step S125 is performed, and a process for extracting face feature points from the captured image (corrected image) corrected as described above is performed. If the facial feature points are not extracted from the corrected image (No in S127), the process from step S121 is performed, and the process of extracting the facial feature points from the corrected image that has been imaged again and corrected for distortion is repeated. The control unit 21 that performs the face feature point extraction process can correspond to an example of a "processing unit" that performs a process using the corrected image.

そして、補正画像から顔特徴点の抽出に成功すると(S127でYes)、ステップS129に示す照合処理がなされ、補正画像から抽出した顔特徴点と認証用コードCのデコード処理(S105)によるデコード結果として得られた顔特徴点情報とを利用して、顔特徴点における全ての項目について一致するか否か照合される。 Then, when the face feature points are successfully extracted from the corrected image (Yes in S127), the collation process shown in step S129 is performed, and the decoding result of the face feature points extracted from the corrected image and the authentication code C decoding process (S105) is performed. Using the facial feature point information obtained as, it is collated whether or not all the items in the facial feature points match.

そして、ステップS131に示す判定処理にて、顔特徴点における全ての項目が一致することから認証成功と判定されると(S131でYes)、上記施解錠制御装置に対して認証成功情報が送信されることで(S133)、本認証処理が終了する。なお、上記判定処理では、顔特徴点における所定数の項目が一致するとみなされる場合に認証成功と判定されてもよい。 Then, in the determination process shown in step S131, when it is determined that the authentication is successful because all the items at the facial feature points match (Yes in S131), the authentication success information is transmitted to the lock / unlock control device. This completes the authentication process (S133). In the above determination process, it may be determined that the authentication is successful when it is considered that a predetermined number of items at the facial feature points match.

上述のように画像処理装置20から認証成功情報が送信されて、この認証成功情報を受信した施解錠制御装置により電気錠が解錠状態になることで、利用者は、上記特定の部屋への入室が可能となる。 As described above, the authentication success information is transmitted from the image processing device 20, and the lock / unlock control device that receives the authentication success information unlocks the electric lock, so that the user can move to the specific room. You can enter the room.

以上説明したように、本実施形態に係る画像処理装置20では、歪み係数算出処理(S119)により算出された歪み係数に基づいて撮像部23の撮像画像の歪みが画像補正処理(S123)により補正され、この補正画像を利用した顔特徴点抽出処理(S125)が行われる。上記歪み係数算出処理では、複数のセルが二次元的に配列されてなる認証用コードCを撮像部23にて撮像した撮像画像において複数のセルの少なくとも一部となる座標比較用セルのそれぞれの座標となるピクセル座標m2i(u,v)と、座標比較用セルに対応する認証用コードCのセルのそれぞれの三次元位置座標x(x,y、z)とに基づいて、歪み係数が算出される。 As described above, in the image processing apparatus 20 according to the present embodiment, the distortion of the image captured by the image pickup unit 23 is corrected by the image correction process (S123) based on the distortion coefficient calculated by the distortion coefficient calculation process (S119). Then, the face feature point extraction process (S125) using this corrected image is performed. In the strain coefficient calculation process, each of the coordinate comparison cells that are at least a part of the plurality of cells in the image captured by the image pickup unit 23 for the authentication code C in which the plurality of cells are two-dimensionally arranged. Distortion coefficient based on the pixel coordinates m 2i (u, v) as coordinates and the three-dimensional position coordinates x i (x, y, z) of each cell of the authentication code C corresponding to the coordinate comparison cell. Is calculated.

このように、撮像された認証用コードCを用いて歪み係数が算出されるため、専用のキャリブレーション用のチャート等を用意することなく、容易に歪み係数を算出することができる。このため、撮像画像を利用した処理を行うごとに認証用コードCを撮像して歪み係数を算出できるので、事前にカメラごとにカメラキャリブレーションを実施することなく、その算出された歪み係数に基づいて撮像画像の歪みを補正することができる。 In this way, since the distortion coefficient is calculated using the imaged authentication code C, the strain coefficient can be easily calculated without preparing a dedicated calibration chart or the like. Therefore, since the authentication code C can be imaged and the distortion coefficient can be calculated every time the processing using the captured image is performed, the distortion coefficient is based on the calculated distortion coefficient without performing camera calibration for each camera in advance. It is possible to correct the distortion of the captured image.

そして、撮像部23が撮像レンズとして魚眼レンズを採用することで魚眼カメラとして機能する構成でも、魚眼画像を利用した顔特徴点抽出処理等を行うごとに撮像した認証用コードCを利用して歪み係数を算出することで、その算出された歪み係数に基づいて魚眼画像の歪みを補正することができる。なお、撮像部23は、魚眼レンズを採用した魚眼カメラとして構成されることに限らず、魚眼カメラよりも画角が狭い広角レンズを採用した広角カメラとして構成されてもよいし、一般的な撮像レンズを採用したカメラとして構成されてもよい。このように構成される場合でも、広角画像等の歪みを補正することができる。 Even in a configuration in which the image pickup unit 23 functions as a fisheye camera by adopting a fisheye lens as an image pickup lens, the authentication code C captured every time the face feature point extraction process using the fisheye image is performed is used. By calculating the distortion coefficient, it is possible to correct the distortion of the fisheye image based on the calculated distortion coefficient. The image pickup unit 23 is not limited to being configured as a fisheye camera that employs a fisheye lens, and may be configured as a wide-angle camera that employs a wide-angle lens having a narrower angle of view than the fisheye camera, and is generally used. It may be configured as a camera that employs an image pickup lens. Even with this configuration, distortion of wide-angle images and the like can be corrected.

特に、撮像部23により撮像された認証用コードCの撮像画像に対して当該認証用コードCをデコードするデコード処理がなされ、デコード結果を用いて補正画像を利用した顔特徴点抽出処理等が行われる。これにより、デコード結果を得るために撮像した認証用コードCの撮像画像から歪み係数を算出できるので、歪み係数を算出するためだけにデコード不要な二次元コードを撮像することもないので、処理の効率化を図ることができる。 In particular, a decoding process for decoding the authentication code C is performed on the image captured by the authentication code C captured by the image pickup unit 23, and a face feature point extraction process using the corrected image is performed using the decoded result. Will be. As a result, the distortion coefficient can be calculated from the image captured by the authentication code C captured in order to obtain the decoding result, and the two-dimensional code that does not need to be decoded is not imaged just for calculating the distortion coefficient. Efficiency can be improved.

さらに、認証用コードCには、利用者の顔画像から抽出された顔特徴点に関する顔特徴点情報が記録され、デコード結果として得られた顔特徴点情報と、撮像部23により撮像されて画像補正処理によって歪みを補正された利用者の顔画像から抽出された顔特徴点とを利用して、利用者の認証処理が行われる。これにより、顔特徴点情報を得るために撮像した認証用コードCの撮像画像から歪み係数を算出できるだけでなく、その歪み係数に基づいて顔特徴点を抽出する利用者の顔画像の歪みを補正できるので、認証処理の認証精度を向上させることができる。 Further, the face feature point information regarding the face feature points extracted from the user's face image is recorded in the authentication code C, and the face feature point information obtained as the decoding result and the image captured by the image pickup unit 23 are captured. The user authentication process is performed using the facial feature points extracted from the user's face image whose distortion has been corrected by the correction process. As a result, not only the distortion coefficient can be calculated from the image captured by the authentication code C captured in order to obtain the face feature point information, but also the distortion of the user's face image that extracts the face feature point based on the distortion coefficient is corrected. Therefore, the authentication accuracy of the authentication process can be improved.

また、認証用コードCには、当該認証用コードCのセルのサイズに関する情報が記録されるため、撮像した認証用コードCの実際の形状を正確に把握できる。これにより、上記座標比較用セルに対応する認証用コードCのセルのそれぞれの三次元位置座標を正確に算出しやすくなるので、歪み係数の算出精度、すなわち、撮像画像の歪み補正精度を向上させることができる。なお、認証用コードCは、予め決められたセルサイズでコード生成されることで、セルサイズの記録を不要としてもよい。 Further, since the information regarding the cell size of the authentication code C is recorded in the authentication code C, the actual shape of the imaged authentication code C can be accurately grasped. This makes it easier to accurately calculate the three-dimensional position coordinates of each cell of the authentication code C corresponding to the coordinate comparison cell, so that the calculation accuracy of the distortion coefficient, that is, the distortion correction accuracy of the captured image is improved. be able to. The authentication code C may be generated with a predetermined cell size, so that it is not necessary to record the cell size.

また、上記歪み係数算出処理では、上記規定数に応じて複数回撮像された認証用コードCのピクセル座標m2i(u,v)と三次元位置座標x(x,y、z)とに基づいて、歪み係数が算出される。これにより、1つの撮像画像から認証用コードCのピクセル座標と三次元位置座標とに基づいて歪み係数が算出される場合と比較して、撮像時の手振れ等の影響を抑制しやすくなるので、歪み係数の算出精度、すなわち、撮像画像の歪み補正精度を向上させることができる。 Further, in the strain coefficient calculation process, the pixel coordinates m 2i (u, v) of the authentication code C captured a plurality of times according to the specified number and the three-dimensional position coordinates x i (x, y, z) are used. Based on this, the strain coefficient is calculated. As a result, it becomes easier to suppress the influence of camera shake during imaging as compared with the case where the distortion coefficient is calculated based on the pixel coordinates of the authentication code C and the three-dimensional position coordinates from one captured image. It is possible to improve the calculation accuracy of the distortion coefficient, that is, the distortion correction accuracy of the captured image.

また、認証用コードCは、携帯端末30にて画面表示されているため、用紙等に印刷されたために撮像時に認証用コードC自体が歪むようなこともないので、歪み係数の算出精度、すなわち、撮像画像の歪み補正精度を向上させることができる。なお、認証用コードCは、画面表示されて利用されることに限らず、例えば、社員証や会員証などの歪み難い印刷媒体等に印刷されて利用されてもよい。 Further, since the authentication code C is displayed on the screen on the mobile terminal 30, the authentication code C itself is not distorted at the time of imaging because it is printed on paper or the like, so that the calculation accuracy of the distortion coefficient, that is, , It is possible to improve the distortion correction accuracy of the captured image. The authentication code C is not limited to being displayed on the screen and used, and may be printed on, for example, a print medium such as an employee ID card or a membership card that is not easily distorted.

[他の実施形態]
なお、本発明は上記各実施形態及び変形例等に限定されるものではなく、例えば、以下のように具体化してもよい。
(1)画像処理装置20の制御部21にてなされる認証処理では、利用者によりかざされた認証用コードCを撮像するごとに歪み係数を算出することに限らず、所定期間以内で既に算出した歪み係数の流用を前提に、上記ステップS101の処理から上記ステップS119までの処理を廃止してもよい。
[Other embodiments]
The present invention is not limited to the above embodiments and modifications, and may be embodied as follows, for example.
(1) In the authentication process performed by the control unit 21 of the image processing device 20, the distortion coefficient is not limited to being calculated every time the authentication code C held by the user is imaged, but is already calculated within a predetermined period. The processing from the process of step S101 to the process of step S119 may be abolished on the premise of diversion of the strain coefficient.

(2)ピクセル座標m2i(u,v)及び三次元位置座標x(x,y、z)の算出対象となる座標比較用セルは、認証用コードCを構成する各暗色系セルに設定されることに限らず、例えば、さらに一部の暗色系セルに設定されてもよいし、各明色系セルに設定されてもよい。また、ピクセル座標m2i(u,v)及び三次元位置座標x(x,y、z)は、座標比較用セルの中心位置に設定されることに限らず、例えば、四隅の1つに設定されてもよい。 (2) The coordinate comparison cells to be calculated for the pixel coordinates m 2i (u, v) and the three-dimensional position coordinates x i (x, y, z) are set in each dark color cell constituting the authentication code C. For example, it may be set in some dark-colored cells or may be set in each light-colored cell. Further, the pixel coordinates m 2i (u, v) and the three-dimensional position coordinates x i (x, y, z) are not limited to being set at the center position of the coordinate comparison cell, and are, for example, one of the four corners. It may be set.

(3)本発明は、顔画像を用いた認証処理を行う画像処理装置20に採用されることに限らず、例えば、二次元コードのデコード結果と撮像画像を補正した補正画像とを利用した所定の処理を行う画像処理装置に採用されてもよい。また、本発明は、例えば、デコード結果を利用しない二次元コードの撮像画像から算出した歪み係数に基づいて補正した補正画像を利用する画像処理装置に採用されてもよい。 (3) The present invention is not limited to being adopted in an image processing device 20 that performs authentication processing using a face image, and for example, a predetermined state using a decoding result of a two-dimensional code and a corrected image corrected with an captured image. It may be adopted in the image processing apparatus which performs the processing of. Further, the present invention may be adopted, for example, in an image processing device that uses a corrected image corrected based on a distortion coefficient calculated from a captured image of a two-dimensional code that does not use the decoding result.

(4)認証用コードCは、QRコードとして構成されることに限らず、複数の暗色系セル及び明色系セルが配列されてなる他のコード種別の二次元コード、例えば、データマトリックスコード、マキシコード等として構成されてもよいし、複数のカラーセルが二次元状に配列されてなる二次元コードとして構成されてもよい。 (4) The authentication code C is not limited to being configured as a QR code, but is a two-dimensional code of another code type in which a plurality of dark-colored cells and light-colored cells are arranged, for example, a data matrix code. It may be configured as a maxi code or the like, or may be configured as a two-dimensional code in which a plurality of color cells are arranged in a two-dimensional manner.

10…認証システム
20…画像処理装置
21…制御部(歪み係数算出部,歪み補正部,処理部,デコード部)
23…撮像部
30…携帯端末
C…認証用コード(二次元コード)
10 ... Authentication system 20 ... Image processing device 21 ... Control unit (distortion coefficient calculation unit, distortion correction unit, processing unit, decoding unit)
23 ... Imaging unit 30 ... Mobile terminal C ... Authentication code (two-dimensional code)

Claims (7)

撮像レンズと前記撮像レンズによる像を撮像する撮像素子とを有する撮像部と、
前記撮像部の撮像画像の歪みを補正するための歪み係数を算出する歪み係数算出部と、
前記歪み係数算出部により算出された前記歪み係数に基づいて前記撮像部の撮像画像の歪みを補正する歪み補正部と、
前記歪み補正部によって歪みを補正された補正画像を利用した処理を行う処理部と、
を備え、
前記歪み係数算出部は、複数のセルが配列されてなる二次元コードを前記撮像部にて撮像した撮像画像において前記複数のセルの少なくとも一部となる座標比較用セルのそれぞれの座標となるピクセル座標と、前記座標比較用セルに対応する前記二次元コードのセルのそれぞれの三次元位置座標とに基づいて、前記歪み係数を算出することを特徴とする画像処理装置。
An image pickup unit having an image pickup lens and an image pickup element for capturing an image obtained by the image pickup lens, and an image pickup unit.
A distortion coefficient calculation unit for calculating a distortion coefficient for correcting distortion of an image captured by the imaging unit, and a distortion coefficient calculation unit.
A distortion correction unit that corrects the distortion of the captured image of the imaging unit based on the distortion coefficient calculated by the distortion coefficient calculation unit, and a distortion correction unit.
A processing unit that performs processing using the corrected image whose distortion has been corrected by the distortion correction unit, and a processing unit.
Equipped with
The strain coefficient calculation unit is a pixel that is each coordinate of a coordinate comparison cell that is at least a part of the plurality of cells in an image captured by the image pickup unit in which a two-dimensional code in which a plurality of cells are arranged is captured. An image processing apparatus characterized in that the strain coefficient is calculated based on the coordinates and the three-dimensional position coordinates of each of the cells of the two-dimensional code corresponding to the coordinate comparison cell.
前記撮像部は、前記撮像レンズとして魚眼レンズを採用することで魚眼カメラとして機能することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image pickup unit functions as a fisheye camera by adopting a fisheye lens as the image pickup lens. 前記撮像部により撮像された前記二次元コードの撮像画像に対して当該二次元コードをデコードするデコード処理を行うデコード部を備え、
前記処理部は、前記デコード部によるデコード結果を用いて前記補正画像を利用した処理を行うことを特徴とする請求項1又は2に記載の画像処理装置。
A decoding unit that performs a decoding process for decoding the two-dimensional code with respect to the captured image of the two-dimensional code captured by the imaging unit is provided.
The image processing apparatus according to claim 1 or 2, wherein the processing unit performs processing using the corrected image using the decoding result of the decoding unit.
前記二次元コードには、利用者の顔画像から抽出された顔特徴点に関する顔特徴点情報が記録され、
前記処理部は、前記デコード部によるデコード結果として得られた前記顔特徴点情報と、前記撮像部により撮像されて前記歪み補正部によって歪みを補正された前記利用者の顔画像から抽出された顔特徴点とを利用して、前記利用者の認証処理を行うことを特徴とする請求項3に記載の画像処理装置。
In the two-dimensional code, facial feature point information regarding facial feature points extracted from the user's face image is recorded.
The processing unit is a face extracted from the face feature point information obtained as a result of decoding by the decoding unit and the face image of the user imaged by the imaging unit and corrected for distortion by the distortion correction unit. The image processing apparatus according to claim 3, wherein the user authentication process is performed by using the feature points.
前記二次元コードには、当該二次元コードのセルのサイズに関する情報が記録されることを特徴とする請求項3又は4に記載の画像処理装置。 The image processing apparatus according to claim 3 or 4, wherein the two-dimensional code records information regarding the size of the cell of the two-dimensional code. 前記歪み係数算出部は、複数回撮像された前記二次元コードの前記ピクセル座標と前記三次元位置座標とに基づいて、前記歪み係数を算出することを特徴とする請求項1~5のいずれか一項に記載の画像処理装置。 One of claims 1 to 5, wherein the strain coefficient calculating unit calculates the strain coefficient based on the pixel coordinates of the two-dimensional code and the three-dimensional position coordinates captured a plurality of times. The image processing apparatus according to paragraph 1. 前記二次元コードは、画面表示されていることを特徴とする請求項1~6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the two-dimensional code is displayed on a screen.
JP2020185948A 2020-11-06 2020-11-06 Image processing system Pending JP2022075264A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020185948A JP2022075264A (en) 2020-11-06 2020-11-06 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020185948A JP2022075264A (en) 2020-11-06 2020-11-06 Image processing system

Publications (1)

Publication Number Publication Date
JP2022075264A true JP2022075264A (en) 2022-05-18

Family

ID=81606342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020185948A Pending JP2022075264A (en) 2020-11-06 2020-11-06 Image processing system

Country Status (1)

Country Link
JP (1) JP2022075264A (en)

Similar Documents

Publication Publication Date Title
WO2019205742A1 (en) Image processing method, apparatus, computer-readable storage medium, and electronic device
CN108549867B (en) Image processing method, image processing device, computer-readable storage medium and electronic equipment
KR101314008B1 (en) Method for identifying a person and acquisition device
US9672406B2 (en) Touchless fingerprinting acquisition and processing application for mobile devices
CN108805024B (en) Image processing method, image processing device, computer-readable storage medium and electronic equipment
CN108804895B (en) Image processing method, image processing device, computer-readable storage medium and electronic equipment
US10922512B2 (en) Contactless fingerprint recognition method using smartphone
KR101672541B1 (en) 3d photographing apparatus checking finger vein and fingerprint at the same time
JP2018128687A (en) Iris imaging apparatus and methods of configuring the same
JP5170094B2 (en) Spoofing detection system, spoofing detection method, and spoofing detection program
WO2019196683A1 (en) Method and device for image processing, computer-readable storage medium, and electronic device
US11275927B2 (en) Method and device for processing image, computer readable storage medium and electronic device
CN111225157B (en) Focus tracking method and related equipment
KR101510312B1 (en) 3D face-modeling device, system and method using Multiple cameras
WO2020071008A1 (en) Biometric authentication system, biometric authentication method, and program
WO2012124115A1 (en) Biological information acquisition device, biological information comparison device, and program
JP6265592B2 (en) Facial feature extraction apparatus and face authentication system
KR20150104544A (en) Authentication device of Utilizing Finger Vein and Finger Crease
KR102146552B1 (en) Non face to face authentication system
JP2005259049A (en) Face collation device
JP2022075264A (en) Image processing system
JP2009205570A (en) Biometric system, biometric method, and biometric program
JP4845462B2 (en) Authentication device, IC card, and biometric information authentication system
US11544961B2 (en) Passive three-dimensional face imaging based on macro-structure and micro-structure image sizing
TWI729679B (en) Authentication system, authentication device, and authentication method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230724