JP6244885B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6244885B2
JP6244885B2 JP2013262831A JP2013262831A JP6244885B2 JP 6244885 B2 JP6244885 B2 JP 6244885B2 JP 2013262831 A JP2013262831 A JP 2013262831A JP 2013262831 A JP2013262831 A JP 2013262831A JP 6244885 B2 JP6244885 B2 JP 6244885B2
Authority
JP
Japan
Prior art keywords
image
spectacles
lens
conversion
lens portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013262831A
Other languages
Japanese (ja)
Other versions
JP2015118617A (en
Inventor
賢治 ▲高▼橋
賢治 ▲高▼橋
丸山 裕
裕 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Buffalo Inc
Original Assignee
Buffalo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Buffalo Inc filed Critical Buffalo Inc
Priority to JP2013262831A priority Critical patent/JP6244885B2/en
Publication of JP2015118617A publication Critical patent/JP2015118617A/en
Application granted granted Critical
Publication of JP6244885B2 publication Critical patent/JP6244885B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、顔を含む画像を処理する画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image including a face.

眼鏡着用者を撮影した画像では、眼鏡により着用者の顔輪郭が歪むため、着用者としては不本意な画像として撮影されてしまう場合がある。こうした現象を問題として認識し、眼鏡着用者の画像上での見栄えを向上するために、眼鏡により画像が不自然に見える歪み領域を推定し、仮想輪郭線を求め、肌色データで補完して周囲と馴染ませる技術がある(特許文献1)。   In an image obtained by photographing a spectacle wearer, the wearer's facial contour may be distorted by the spectacles, so that the wearer may be photographed as an unwilling image. In order to recognize such a phenomenon as a problem and improve the appearance of the spectacle wearer on the image, a distortion region where the image looks unnatural is estimated by the spectacles, a virtual contour is obtained, and the surrounding area is obtained by complementing with the skin color data. (Patent Document 1).

また、眼鏡の輪郭を判断する手法として、特許文献2に開示された方法がある。この方法では、顔輪郭のずれを検出して眼鏡の輪郭を判断している。   Moreover, as a method for determining the outline of the glasses, there is a method disclosed in Patent Document 2. In this method, the deviation of the face contour is detected to determine the contour of the glasses.

特開2008−250407号公報JP 2008-250407 A 特開2010−003232号公報JP 2010-003232 A

しかしながら、上記従来の画像処理技術では、輪郭線のみを補正して、個人を特徴づける瞳の間隔や目の大きさが、眼鏡着用時のままとなるので、却って不自然になる場合がある。さらに瞳の間隔等をパラメータとして用いる顔認識処理を行うことを想定すると、眼鏡着用時とそうでない場合とで認識結果に齟齬が生じる可能性があるが、上記従来の技術では、この問題を解消できない。   However, in the conventional image processing technique described above, only the contour line is corrected, and the distance between eyes and the size of the eyes that characterize an individual remain unchanged when wearing glasses, which may be unnatural. Furthermore, assuming that face recognition processing using the pupil distance as a parameter is performed, there is a possibility that the recognition result may be flawed when wearing glasses or not, but the above conventional technique solves this problem. Can not.

本発明は上記実情に鑑みて為されたもので、眼鏡着用者の顔画像の不自然さを解消する画像処理装置、画像処理方法、及びプログラムを提供することを、その目的の一つとする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing apparatus, an image processing method, and a program for eliminating the unnaturalness of the face image of a spectacle wearer.

上記従来例の問題点を解決するための本発明は、画像処理装置であって、顔が撮像された画像を取得する取得手段、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、及び、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、を含むこととしたものである。   The present invention for solving the problems of the above conventional example is an image processing apparatus, an acquisition means for acquiring an image of a face imaged, and if there is a lens portion of the glasses in the acquired image, the glasses An estimation means for estimating which pixel in the lens portion of the lens and the estimated pixel in the lens portion of the spectacles are mapped to a pixel at another position in the lens portion of the spectacles Conversion means.

ここでさらに、前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、前記推定手段は、当該抽出された顔の輪郭線を用いて、前記取得した画像内に眼鏡のレンズ部分があると判断されたときに、当該眼鏡のレンズ部分内の画素がどれであるかを推定することとしてもよい。   Here, the image processing apparatus further includes an extraction unit that extracts a contour line of a captured face in the acquired image, and the estimation unit uses the extracted face contour line in the acquired image. When it is determined that there is a lens portion, it may be estimated which pixel is in the lens portion of the spectacles.

また前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、前記変換手段は、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行い、当該変換手段は、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定することとしてもよい。   Further, the image processing apparatus includes an extraction unit that extracts a contour line of a captured face in the acquired image, and the conversion unit enlarges or reduces an image part in the lens part of the spectacles. Conversion that maps to pixels at other positions may be performed, and the conversion means may set an enlargement or reduction ratio so that the extracted contour lines are continuous.

前記推定手段は、さらに、推定した眼鏡のレンズ部分のうちから、眼鏡のレンズ中心に相当する位置を推定し、前記変換手段は、拡大または縮小を行う際に、前記推定された眼鏡のレンズ中心に相当する位置を中心として放射状に、拡大または縮小を行うこととしてもよい。   The estimation means further estimates a position corresponding to the lens center of the spectacles from the estimated lens portion of the spectacles, and the conversion means performs the enlargement or reduction of the estimated lens center of the spectacles. It is good also as enlarging or shrinking radially centering on the position corresponding to.

さらに、前記顔の部分のうちから、瞳の画像部分を検出する手段をさらに含み、前記変換手段は、拡大または縮小を行う際に、前記検出された瞳の画像部分の中心に相当する位置を中心として放射状に、拡大または縮小を行うこととしてもよい。   Further, the image processing apparatus further includes means for detecting an image part of a pupil from the face part, and the conversion means determines a position corresponding to the center of the detected image part of the pupil when performing enlargement or reduction. The enlargement or reduction may be performed radially as the center.

また眼鏡のレンズの種類ごとに、当該レンズ部分内の像の写像に係るパラメータである変換テーブルデータを取得する手段をさらに含み、前記変換手段は、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズの種類に対応する前記変換テーブルデータを用いて、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行うこととしてもよい。   Each of the spectacle lenses further includes means for obtaining conversion table data, which is a parameter relating to mapping of the image in the lens portion, and the conversion means calculates the estimated pixels in the spectacle lens portion. The conversion table data corresponding to the lens type of the spectacles may be used to perform conversion that maps to pixels at other positions in the lens portion of the spectacles.

さらに前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、前記変換手段は、前記眼鏡のレンズの種類に対応する変換テーブルデータとして、前記取得した変換テーブルデータのうち、前記抽出した輪郭線が連続となると判断される変換テーブルデータを選択して用いることとしてもよい。さらに前記変換手段は、前記画像に含まれる顔を正面向きに補正してから変換を行ってもよい。   In addition, the image processing apparatus further includes an extraction unit that extracts a contour line of a captured face in the acquired image, and the conversion unit includes, as conversion table data corresponding to a lens type of the glasses, It is also possible to select and use conversion table data for which the extracted contour line is determined to be continuous. Further, the conversion means may perform conversion after correcting the face included in the image to face forward.

また本発明の一態様に係る画像処理方法は、変換手段が、顔が撮像された画像を取得するステップ、推定手段が、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定するステップ、及び、変換手段が、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行うステップを含む。   The image processing method according to one aspect of the present invention includes a step in which the conversion unit acquires an image in which a face is captured, and the estimation unit has a lens part of the glasses if the acquired image has a lens portion. Estimating which pixel in the portion is, and converting means for converting the estimated pixel in the lens portion of the spectacles to a pixel in another position in the lens portion of the spectacles. Steps to perform.

また本発明のさらに別の態様に係るプログラムは、コンピュータを、顔が撮像された画像を取得する取得手段、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、及び、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、として機能させる。   According to still another aspect of the present invention, there is provided a program for acquiring an image obtained by capturing an image of a face, a pixel in a lens portion of the spectacles if the acquired image includes a lens portion of the spectacles. And a conversion unit that performs conversion for mapping a pixel in the lens part of the spectacles to a pixel at another position in the lens part of the spectacles. .

本発明によると、眼鏡着用者の顔画像の不自然さを解消できる。   According to the present invention, the unnaturalness of the face image of the spectacle wearer can be eliminated.

本発明の実施の形態に係る画像処理装置の例を表す構成ブロック図である。It is a block diagram showing an example of an image processing apparatus according to an embodiment of the present invention. 本発明の実施の形態に係る画像処理装置の例を表す機能ブロック図である。It is a functional block diagram showing the example of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置における不連続点に関する処理の例を表す説明図である。It is explanatory drawing showing the example of the process regarding the discontinuous point in the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置に係る処理で利用される座標例を表す説明図である。It is explanatory drawing showing the example of a coordinate utilized by the process which concerns on the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置に係る処理で利用される別の座標例を表す説明図である。It is explanatory drawing showing the example of another coordinate utilized by the process which concerns on the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置が利用する変換データテーブルの格納状態の例を表す説明図である。It is explanatory drawing showing the example of the storage state of the conversion data table which the image processing apparatus which concerns on embodiment of this invention utilizes. 本発明の実施の形態に係る画像処理装置が利用する変換データテーブルの内容例の一部を表す説明図である。It is explanatory drawing showing a part of example of the content of the conversion data table which the image processing apparatus which concerns on embodiment of this invention utilizes. 本発明の実施の形態に係る画像処理装置による変換データテーブルを用いた変換を模式的に表す説明図である。It is explanatory drawing which represents typically the conversion using the conversion data table by the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置の処理例を表すフローチャート図である。It is a flowchart figure showing the process example of the image processing apparatus which concerns on embodiment of this invention.

本発明の実施の形態について図面を参照しながら説明する。本実施の形態に係る画像処理装置1は、図1に例示するように、制御部11と、記憶部12と、操作部13と、表示部14と、入出力部15とを含んで構成される。   Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the image processing apparatus 1 according to the present embodiment includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, and an input / output unit 15. The

本実施の形態の制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、この制御部11は、顔が撮像された画像の情報を取得し、当該取得した画像情報内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する。そしてこの制御部11は、推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う。この制御部11の詳しい処理の内容については後に述べる。   The control unit 11 according to the present embodiment is a program control device such as a CPU, and operates according to a program stored in the storage unit 12. In the present embodiment, the control unit 11 acquires information of an image in which a face is imaged, and if there is a lens part of the spectacles in the acquired image information, which is the pixel in the lens part of the spectacles. Estimate if there is. The control unit 11 performs conversion for mapping the estimated pixel in the lens portion of the spectacles to the pixel at another position in the spectacle lens portion. Details of the processing of the control unit 11 will be described later.

記憶部12は、メモリデバイスや、ディスクデバイスを含んで構成される。この記憶部12には、制御部11によって実行されるプログラムが保持される。このプログラムは、DVD−ROM等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。また、このプログラムは、ネットワークを介して配信され、この記憶部12に格納されたものであってもよい。   The storage unit 12 includes a memory device and a disk device. The storage unit 12 holds a program executed by the control unit 11. The program may be provided by being stored in a computer-readable recording medium such as a DVD-ROM and stored in the storage unit 12. The program may be distributed via a network and stored in the storage unit 12.

本実施の形態の一例では、記憶部12には、制御部11の処理の対象となる画像情報が格納される。またこの記憶部12は、制御部11のワークメモリとしても動作する。   In an example of the present embodiment, the storage unit 12 stores image information to be processed by the control unit 11. The storage unit 12 also operates as a work memory for the control unit 11.

操作部13は、キーパッド等であり、利用者の指示操作を受け入れて制御部11に出力する。表示部14は、例えば制御部11から入力される指示に従って表示するべき画像を表すテレビジョン信号を生成して出力する信号生成部である。またこの表示部14は、液晶ディスプレイ等を含み、制御部11から入力される画像を表示するものであってもよい。   The operation unit 13 is a keypad or the like, and accepts a user instruction operation and outputs it to the control unit 11. The display unit 14 is a signal generation unit that generates and outputs a television signal representing an image to be displayed in accordance with, for example, an instruction input from the control unit 11. The display unit 14 may include a liquid crystal display or the like and display an image input from the control unit 11.

入出力部15は、例えばネットワークインタフェース等であり、制御部11から入力される指示に従い、ネットワークを介して送信される情報を受信して制御部11に出力する。またこの入出力部15は、メモリカードリーダを含んでもよい。この場合、入出力部15は、例えば挿入されたメモリカードから画像情報等を読み出して制御部11に出力する。   The input / output unit 15 is a network interface or the like, for example, and receives information transmitted via the network according to an instruction input from the control unit 11 and outputs the information to the control unit 11. The input / output unit 15 may include a memory card reader. In this case, the input / output unit 15 reads image information and the like from an inserted memory card, for example, and outputs the image information to the control unit 11.

本実施の形態の一例において制御部11は、機能的には、図2に例示するように、画像取得部21と、推定部22と、変換部23とを含んで構成される。画像取得部21は、入出力部15または記憶部12から顔が撮像された画像の情報を取得する。顔が撮像された画像は、例えば記憶部12に蓄積された画像情報のうちから、操作部13に対する利用者の指示操作により顔の撮像された画像情報を選択して読み出すこととすればよい。   In an example of the present embodiment, the control unit 11 functionally includes an image acquisition unit 21, an estimation unit 22, and a conversion unit 23 as illustrated in FIG. The image acquisition unit 21 acquires information on the image of the face captured from the input / output unit 15 or the storage unit 12. For example, the image of the face imaged may be selected and read out from the image information stored in the storage unit 12 by selecting the image information of the face imaged by the user's instruction operation on the operation unit 13.

推定部22は、画像取得部21が取得した画像情報を処理対象として、この処理対象の画像情報のうちから眼鏡のレンズ部分内の画素がどれであるかを推定する。なお、この推定部22は、眼鏡のレンズ部分内の画素と推定される部分がなければ(レンズ部分がないと判断されると)、処理を終了する。また変換部23は、推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う。これら推定部22及び変換部23の具体的な処理の内容を次に、いくつかの例とともに説明する。   The estimation unit 22 uses the image information acquired by the image acquisition unit 21 as a processing target, and estimates which of the pixels in the lens portion of the glasses is the image information of the processing target. In addition, this estimation part 22 will complete | finish a process, if there is no part estimated as the pixel in the lens part of spectacles (it is judged that there is no lens part). The conversion unit 23 performs conversion for mapping the estimated pixel in the lens portion of the spectacles to the pixel at another position in the spectacle lens portion. Next, specific processing contents of the estimation unit 22 and the conversion unit 23 will be described together with some examples.

[レンズ部分を輪郭線の不連続点で推測する例]
一例としてこの推定部22は、次のようにして眼鏡のレンズ部分内の画素がどれであるかを推定する。すなわち本実施の形態の一例に係る推定部22は、処理対象となった画像情報のうちから人物の顔として認識される部分を抽出する。この処理は広く知られた顔認識処理を適用できる。
[Example in which the lens part is inferred from the discontinuity of the contour line]
As an example, the estimation unit 22 estimates which pixel is in the lens portion of the glasses as follows. That is, the estimation unit 22 according to an example of the present embodiment extracts a portion that is recognized as a human face from the image information to be processed. A widely known face recognition process can be applied to this process.

以下の説明で推定部22と変換部23とは、この抽出した部分ごと(顔画像ごと)に処理を行う。なお、ここでは簡単のため、顔画像がひとつだけの場合を例として説明するが、顔が複数あれば、以下の処理を、顔ごとに繰返して行えばよい。   In the following description, the estimation unit 22 and the conversion unit 23 perform processing for each extracted portion (for each face image). Here, for the sake of simplicity, a case where there is only one face image will be described as an example. However, if there are a plurality of faces, the following processing may be repeated for each face.

推定部22は、抽出した顔画像部分のうちから、瞳の位置を表す情報、顔の上下方向を表す情報、顔面を通る正中線(頭部と矢状面との交差する線)を表す情報など、顔を特徴づける情報を生成する。以下ではこの正中線に平行な軸をY軸とする。Y軸は顔の上方向を正の方向とする。またY軸に直交し、顔の右側(顔に向って右側)を正の方向とする軸をX軸とする。各軸の原点は、例えば左右の瞳の位置を結ぶ線分と、正中線との交点などとして適宜定める。そして瞳の位置などの情報は、このXY直交軸の座標として表しておくこととする。   The estimation unit 22 includes information representing the position of the pupil, information representing the vertical direction of the face, and information representing a midline passing through the face (a line intersecting the head and the sagittal plane) from the extracted face image portions. For example, information that characterizes the face is generated. Hereinafter, an axis parallel to the median line is referred to as a Y axis. For the Y axis, the upward direction of the face is the positive direction. An axis orthogonal to the Y axis and having the right side of the face (right side facing the face) as the positive direction is defined as the X axis. The origin of each axis is appropriately determined as, for example, the intersection of a line segment connecting the positions of the left and right pupils and the median line. Information such as the position of the pupil is expressed as coordinates on the XY orthogonal axes.

本実施の形態のある例に係る推定部22は、抽出した顔画像部分から、さらに顔の輪郭線を抽出する。すなわちこの例の推定部22は、本発明の抽出手段としても動作する。顔の輪郭線を抽出する処理については、Cannyのエッジ検出法等、広く知られた方法があるのでここでの詳しい説明は省略する。   The estimation unit 22 according to an example of the present embodiment further extracts a face outline from the extracted face image portion. That is, the estimation unit 22 in this example also operates as the extraction unit of the present invention. Since there are widely known methods such as Canny's edge detection method for extracting the face contour, detailed description thereof is omitted here.

推定部22は、抽出した輪郭線が不連続となる部分があるか否かを調べる。具体的にこの推定部22は、抽出された輪郭線上に複数の点を設定する。一般に輪郭線は閉曲線となるので、当該閉曲線の内側に一点をとり(顔の中心でよい)、この一点から所定角度ごとに放射状に仮想的な線分を複数引いて、各線分と輪郭線との各交点を得て、これらの交点を、上記複数の点として設定すればよい。   The estimation unit 22 checks whether there is a portion where the extracted contour line is discontinuous. Specifically, the estimation unit 22 sets a plurality of points on the extracted contour line. In general, since the contour line is a closed curve, a point is taken inside the closed curve (may be the center of the face), and a plurality of virtual line segments are drawn radially from this point at a predetermined angle. These intersection points may be obtained and these intersection points may be set as the plurality of points.

推定部22は、当該輪郭線上に設定した複数の点に対して少なくとも一つ(一般には複数)のBスプライン曲線(複数ある場合はBスプライン曲線群)により輪郭線を表す曲線を生成するカーブフィッティングの処理を行う。このとき、カーブフィッティングの処理に用いる点の組を異ならせつつ、Bスプライン曲線群の組の候補を複数組得ておき、各組について予め定めた情報量基準等によりフィッティングの評価を行う。そして最も評価の高いBスプライン曲線群の組を参照し、当該組に含まれるBスプライン曲線群のうちに、同じ点を端点(節点)とする一対のBスプライン曲線があれば、当該一対のBスプライン曲線のうち、X軸方向の長さよりもY軸方向の長さの長いもの(Bスプライン曲線の両端点のY座標成分の差の絶対値がX座標成分の差の絶対値より大きいもの)を選択する。そしてこの選択したBスプライン曲線のうち、他方のBスプライン曲線と同じ位置にある節点の位置で輪郭線が不連続となっていると推定し、当該節点の座標を不連続の点(不連続点)の座標として記憶する。   The estimator 22 generates a curve representing a contour with at least one (generally a plurality) B-spline curve (or a group of B-spline curves if there are a plurality) for a plurality of points set on the contour line. Perform the process. At this time, a plurality of sets of B-spline curve group candidates are obtained while different points are used for the curve fitting process, and the fitting is evaluated according to a predetermined information criterion for each set. The pair of B spline curves having the highest evaluation is referred to. If there is a pair of B spline curves having the same point as an end point (node) in the group of B spline curves included in the group, the pair of B spline curves is included. Spline curve whose length in the Y-axis direction is longer than the length in the X-axis direction (the absolute value of the difference between the Y-coordinate components at both ends of the B-spline curve is greater than the absolute value of the difference in the X-coordinate components) Select. Then, it is estimated that the outline of the selected B-spline curve is discontinuous at the position of the node at the same position as the other B-spline curve, and the coordinates of the node are determined as discontinuous points (discontinuous points). ) As coordinates.

ここで本来輪郭線は閉曲線であるため、上記の選択されたBスプライン曲線β1で不連続点が見出された場合、当該選択されたBスプライン曲線β1と同じ不連続点の節点(一方側端とする)を持つ他のBスプライン曲線β2の他方側端もまた、不連続点であることとなる。つまりBスプライン曲線β2は両端が不連続点となる。そしてこのBスプライン曲線β2の他方側端と同じ不連続点の節点を持つ、さらに他のBスプライン曲線β3を、「隣接すべきBスプライン曲線」と呼ぶ。そして推定部22は、ある選択されたBスプライン曲線における不連続点と、それに隣接すべきBスプライン曲線における不連続点であって、これらの不連続点が、両端が不連続点となる別のBスプライン曲線で結ばれている不連続点同士を組(ペア)として、それぞれの座標を記憶しておく。またこのとき不連続点を含み、上記のように選択されるBスプライン曲線には、図3に例示するように、
(1)不連続点を含むBスプライン曲線であって、当該不連続点のY座標が瞳の位置EのY座標より大きく、かつ他の端点のY座標が不連続点のY座標より大きい(B1)
(2)不連続点を含むBスプライン曲線であって、当該不連続点のY座標が瞳の位置EのY座標より大きく、かつ他の端点のY座標が不連続点のY座標より小さい(B2)
(3)不連続点を含むBスプライン曲線であって、当該不連続点のY座標が瞳の位置EのY座標より小さく、かつ他の端点のY座標が不連続点のY座標より大きい(B3)
(4)不連続点を含むBスプライン曲線であって、当該不連続点のY座標が瞳の位置EのY座標より小さく、かつ他の端点のY座標が不連続点のY座標より小さい(B4)
の4通りの場合がある。そしてB1のBスプライン曲線に含まれる不連続点については外側不連続点、B2のBスプライン曲線に含まれる不連続点については内側不連続点、B3のBスプライン曲線に含まれる不連続点については内側不連続点、B4のBスプライン曲線に含まれる不連続点については外側不連続点であるとの属性情報を関連付けておく。上記記憶される組に含まれる不連続点の座標は、いずれか一方が外側不連続点の座標となり、他方が内側不連続点の座標となる。
Here, since the contour line is originally a closed curve, when a discontinuous point is found in the selected B-spline curve β1, the node of the same discontinuous point as the selected B-spline curve β1 (one side end) The other side end of the other B-spline curve β2 having the above is also a discontinuous point. That is, both ends of the B-spline curve β2 are discontinuous points. Further, another B spline curve β3 having the same discontinuous node as the other end of the B spline curve β2 is referred to as a “B spline curve to be adjacent”. Then, the estimation unit 22 is a discontinuous point in a selected B-spline curve and a discontinuous point in a B-spline curve that should be adjacent to the discontinuous point. Discontinuous points connected by a B-spline curve are set as a pair, and each coordinate is stored. Further, at this time, the B spline curve including the discontinuous points and selected as described above, as illustrated in FIG.
(1) A B-spline curve including discontinuous points, where the Y coordinate of the discontinuous point is larger than the Y coordinate of the pupil position E, and the Y coordinate of the other end point is larger than the Y coordinate of the discontinuous point ( B1)
(2) A B-spline curve including discontinuous points, where the Y coordinate of the discontinuous point is larger than the Y coordinate of the pupil position E, and the Y coordinates of the other end points are smaller than the Y coordinate of the discontinuous point ( B2)
(3) A B-spline curve including a discontinuous point, where the Y coordinate of the discontinuous point is smaller than the Y coordinate of the pupil position E, and the Y coordinate of the other end point is larger than the Y coordinate of the discontinuous point ( B3)
(4) A B-spline curve including discontinuous points, where the Y coordinate of the discontinuous point is smaller than the Y coordinate of the pupil position E, and the Y coordinates of the other end points are smaller than the Y coordinate of the discontinuous point ( B4)
There are four cases. The discontinuous points included in the B1 B spline curve are the outer discontinuous points, the discontinuous points included in the B2 B spline curve are the inner discontinuous points, and the discontinuous points included in the B3 B spline curve. The inner discontinuous point and the discontinuous points included in the B4 B-spline curve are associated with attribute information indicating that they are outer discontinuous points. One of the coordinates of the discontinuous points included in the stored set is the coordinate of the outer discontinuous point, and the other is the coordinate of the inner discontinuous point.

なお、Bスプライン曲線を利用した不連続点の検出方法は、井元,小西,「Bスプラインによる不連続曲線推定と変化点探索」,広島大学における講演録(http://bonsai.hgc.jp/~imoto/imoto_hiroshima2000.pdf)に記載された、広く知られた方法であるので、ここでのより詳しい説明は省略する。   Discontinuity detection methods using B-spline curves are described in Imoto, Konishi, “Discontinuous curve estimation and change point search using B-splines”, Hiroshima University lecture (http://bonsai.hgc.jp/ ~ imoto / imoto_hiroshima2000.pdf), which is a well-known method, so a more detailed explanation is omitted here.

またここでは輪郭線の検出にエッジ検出を用い、不連続点の検出にBスプラインを用いる方法を例示したが、本実施の形態における顔の輪郭線検出と、その不連続点の検出法は、他の方法であっても構わない。   In addition, here, the edge detection is used for the detection of the contour line, and the method using the B spline for the detection of the discontinuous point is exemplified. However, the detection of the contour line of the face and the detection method of the discontinuous point in the present embodiment are Other methods may be used.

推定部22は、例えば上記の処理により検出した不連続点がある場合に、当該不連続点の位置にレンズフレームのある眼鏡が着用された顔であるとして、当該不連続点の位置を表す情報を出力する。なお、眼鏡は通常、目の周辺にあることを考慮して、推定部22は、顔のうちから目を検出し(目の検出処理も広く知られた方法があるので、ここでの詳しい説明を省略する)、検出した目の位置を中心として予め定めた半径の範囲に、不連続点が検出された場合に、当該不連続点の位置にレンズフレームのある眼鏡が着用された顔であるとして不連続点の位置を表す情報を出力してもよい。   For example, when there is a discontinuous point detected by the above processing, the estimation unit 22 assumes that the face is worn with glasses with a lens frame at the position of the discontinuous point, and represents the position of the discontinuous point. Is output. In consideration of the fact that glasses are usually in the vicinity of the eyes, the estimation unit 22 detects eyes from the face (there is a widely known method for eye detection, so a detailed description here) Is a face in which eyeglasses with a lens frame are worn at the position of the discontinuous point when a discontinuous point is detected within a predetermined radius range centered on the detected eye position) Information indicating the position of the discontinuous point may be output.

ここまでの処理により、具体的には、図4(a)に例示するように、眼鏡のレンズにより不連続となった輪郭線上の点(不連続点)101が一般に複数組検出される。図4(a)では、眼鏡のレンズフレームの外側の輪郭線部分に相当する、端点101bを含むBスプライン曲線β1と、端点101bと端点101aとを結ぶBスプライン曲線β2と、端点101aと端点101cとを結ぶ(眼鏡のレンズフレームの内側の輪郭線部分を表す)Bスプライン曲線β3とが検出される。そしてこれらのうちY軸方向の長さがX軸方向の長さより長い、Bスプライン曲線β1,β3が選択され、それぞれにおける不連続点101b,101a,101c…が見出される。また、この選択されたBスプライン曲線における不連続点と他の端点との関係から、不連続点101bが外側不連続点とされ、不連続点101a,cが内側不連続点とされる。さらに互いに隣接するべきBスプライン曲線β1,β3における不連続点101a,bは、両端が不連続点であるBスプライン曲線β2によって結ばれているので、推定部22は、これらの不連続点101a,bの各座標を組として記憶することとなる。以下同様にして、推定部22はこれらの不連続点101a,b,…,p,q…(図4(a)の例では不連続点101a,bの座標が組として記憶されている)と、先に特定した左右の瞳の位置102L,102Rとを用いて、例えば次の処理によりレンズ部分内の画素がどれであるかを推定する。   Specifically, as illustrated in FIG. 4A, a plurality of sets of points (discontinuous points) 101 on the contour line that are discontinuous by the spectacle lens are generally detected by the processing so far. In FIG. 4A, the B-spline curve β1 including the end point 101b, the B-spline curve β2 connecting the end point 101b and the end point 101a, and the end point 101a and the end point 101c, which correspond to the outer contour portion of the lens frame of the glasses. And a B-spline curve β3 (representing the contour portion inside the lens frame of the glasses) are detected. Of these, B-spline curves β1, β3 having a length in the Y-axis direction longer than the length in the X-axis direction are selected, and discontinuous points 101b, 101a, 101c,. Further, from the relationship between the discontinuous point and the other end points in the selected B-spline curve, the discontinuous point 101b is set as an outer discontinuous point, and the discontinuous points 101a and 101c are set as inner discontinuous points. Furthermore, since the discontinuous points 101a, b in the B spline curves β1, β3 to be adjacent to each other are connected by the B spline curve β2, both ends of which are discontinuous points, the estimator 22 uses these discontinuous points 101a, 101b, Each coordinate of b is stored as a set. In the same manner, the estimating unit 22 then sets the discontinuous points 101a, b,..., P, q (the coordinates of the discontinuous points 101a, 101b are stored as a set in the example of FIG. 4A). Using the left and right pupil positions 102L and 102R specified above, it is estimated which pixel is in the lens portion by the following process, for example.

すなわちある例に係る推定部22は、検出された顔の正中線より左側(X軸負の方向)にある瞳の位置102Lと、当該瞳の位置102Lよりもさらに左側(X軸負の方向)にある、不連続点101a,b…とに外接する矩形103Lを得る。また推定部22は、検出された顔の正中線より右側(X軸正の方向)にある瞳の位置102Rと、当該瞳の位置102Rよりもさらに右側(X軸正の方向)にある、不連続点101p,q…とに外接する矩形103Rを得る。   That is, the estimation unit 22 according to an example includes a pupil position 102L on the left side (X-axis negative direction) of the detected face midline, and further to the left side (X-axis negative direction) of the pupil position 102L. The rectangle 103L circumscribing the discontinuous points 101a, b,. The estimation unit 22 also includes a pupil position 102R on the right side (X-axis positive direction) of the detected face midline, and a right side (X-axis positive direction) further than the pupil position 102R. A rectangle 103R circumscribing the continuous points 101p, q... Is obtained.

また、本実施の形態の別の例に係る推定部22では、検出された顔の正中線より左側にある瞳の位置102Lを含む目の範囲(顔認識時の処理においてこの範囲を検出しておけばよい)を特定し、この目の範囲の右端側(目の正中線側の端)よりも正中線側に予め定めた方法で定めた距離だけ離れた位置にある点Aを求める。この予め定めた方法には、予め距離を定数として定めておく方法のほか、目の範囲の右端側から正中線までの距離に所定の定数(1未満の定数)を乗じた値などとしておく方法があり得る。
推定部22は、そして、この点Aと、瞳の位置102Lよりもさらに左側にある、不連続点101a,b…とに外接する矩形103Lを得ることとしてもよい。
この例では推定部22は、検出された顔の正中線より右側にある瞳の位置102Rを含む目の範囲を特定し、この目の範囲の左端側(目の正中線側の端)よりも正中線側に予め定めた方法で定めた距離だけ離れた位置にある点A′を、先と同様の方法で求める。
推定部22は、そして、この点A′と、瞳の位置102Rよりもさらに右側にある、不連続点101p,q…とに外接する矩形103Rを得ることとしてもよい。
本発明の実施の形態のさらに別の例に係る推定部22では、さらに、図4(b)に例示するように、検出された顔の正中線より左側にある瞳の位置102Lを通り正中線に平行な線分lを用い、この線分lについて不連続点101a,b…と線対称な位置にある点101a′,101b′…を求めてもよい。そしてこの例の推定部22は、不連続点101a,b…と、これら求められた点101a′,101b′…に外接する矩形103Lを得ることとしてもよい。
この例の推定部22は、また、検出された顔の正中線より右側にある瞳の位置102Rを通り正中線に平行な線分l′を用い、この線分l′について不連続点101p,q…と線対称な位置にある点101p′,101q′…を求めてもよい。そしてこの例の推定部22は、不連続点101p,q…と、これら求められた点101p′,101q′…に外接する矩形103Rを得ることとしてもよい。
そして本実施の形態の推定部22は、ここに例示したいずれかの方法等により得た矩形103L,Rを特定する情報(例えば矩形103L,Rのそれぞれの頂点座標の組)を、レンズ部分を表す情報(レンズ部分内の画素を画定する情報)として出力する。またこのとき推定部22は、瞳の位置102L,Rと、不連続点101a,b,…p,q,…の位置座標を表す情報も併せて出力してもよい。
In addition, the estimation unit 22 according to another example of the present embodiment detects an eye range including the pupil position 102L on the left side of the detected face midline (this range is detected in the process during face recognition). And a point A located at a position separated by a predetermined distance on the midline side from the right end side (end on the midline side of the eye) of the eye range. This predetermined method includes a method in which the distance is set as a constant in advance and a value obtained by multiplying the distance from the right end of the eye range to the median line by a predetermined constant (a constant less than 1). There can be.
The estimation unit 22 may obtain a rectangle 103L circumscribing the point A and the discontinuous points 101a, b,... On the left side of the pupil position 102L.
In this example, the estimation unit 22 specifies the eye range including the pupil position 102R on the right side of the detected face midline, and is more than the left end side (end of the eye midline side) of the eye range. A point A 'located at a distance determined by a predetermined method on the midline side is obtained by the same method as described above.
The estimation unit 22 may obtain a rectangle 103R circumscribing the point A ′ and the discontinuous points 101p, q... On the right side of the pupil position 102R.
In the estimation unit 22 according to still another example of the embodiment of the present invention, as illustrated in FIG. 4B, the midline passes through the pupil position 102L on the left side of the detected midline of the face. .., And points 101a ′, 101b ′,... Located at positions symmetrical to the discontinuous points 101a, b,. The estimation unit 22 in this example may obtain the discontinuous points 101a, b... And a rectangle 103L circumscribing the obtained points 101a ′, 101b ′.
The estimation unit 22 in this example also uses a line segment l ′ that passes through the pupil position 102R on the right side of the detected midline of the face and is parallel to the midline, and the discontinuous point 101p, Points 101p ′, 101q ′,... at positions symmetrical to q. The estimation unit 22 in this example may obtain discontinuous points 101p, q... And a rectangle 103R circumscribing the obtained points 101p ′, 101q ′.
Then, the estimation unit 22 according to the present embodiment uses information (for example, a set of vertex coordinates of each of the rectangles 103L and R) that specifies the rectangles 103L and R obtained by any of the methods illustrated here as a lens portion. Information to be expressed (information defining pixels in the lens portion) is output. At this time, the estimation unit 22 may also output information representing the position coordinates of the pupil positions 102L and R and the discontinuous points 101a, b,... P, q,.

変換部23は、推定部22により推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う。具体的にある例に係る変換部23は、推定部22が出力する情報で特定される矩形103L,Rの各々について、当該矩形内にある瞳の位置102と、当該矩形内にある不連続点101の座標の組とを用い、次のような処理を実行する。   The conversion unit 23 performs conversion for mapping the pixel in the lens part of the spectacles estimated by the estimation unit 22 to the pixel at another position in the lens part of the spectacles. Specifically, the conversion unit 23 according to an example includes, for each of the rectangles 103L and R specified by the information output from the estimation unit 22, a pupil position 102 in the rectangle and a discontinuous point in the rectangle. The following processing is executed using a set of 101 coordinates.

変換部23は、不連続点101の座標の組ごとに、当該組に含まれる、内側不連続点の属性情報が関連付けられた不連続点101iと、外側不連続点の属性情報が関連付けられた不連続点101eと、瞳の位置102との間の距離(ユークリッド距離でよい)をそれぞれdi,deとして演算する。またその比m=de/di(拡縮率に相当する)を算出する。   For each set of coordinates of the discontinuous point 101, the conversion unit 23 associates the discontinuous point 101i associated with the attribute information of the inner discontinuous point and the attribute information of the outer discontinuous point included in the set. The distances (may be Euclidean distances) between the discontinuous point 101e and the pupil position 102 are calculated as di and de, respectively. Further, the ratio m = de / di (corresponding to the enlargement / reduction ratio) is calculated.

そして変換部23は、眼鏡のレンズ部分内にあると推定された画素について、瞳の位置を中心として、距離m倍の位置に変倍する拡縮処理を実行する。具体的に変換部23は、矩形103等、眼鏡のレンズ部分内の画素塊(元の画素塊)と同形状、同サイズの画素塊(変換後画素塊)を記憶部12内に仮想的に生成し、この変換後画素塊の各画素を順次注目画素として選択して、瞳の位置から注目画素までの距離dと方向(X軸からの角度などでよい)を算出する。そして変換部23は、元の画素塊において、瞳の位置から同じ方向に向ってd/mの距離にある画素の値を、注目画素の値として設定する。または、変換部23は注目画素の値を、瞳の位置から同じ方向に向ってd/mの距離の点近傍にある複数画素の平均(上記点と各画素中心までの距離により重み付けを行ってもよい)の値に設定する。変換後画素塊内のすべての画素値の設定が終了すると、変換部23は、この変換後画素塊内の各画素の値を、元の画素塊内の対応する各画素の値に複写して処理を終了する。   Then, the conversion unit 23 performs an enlargement / reduction process for scaling the pixel estimated to be in the lens portion of the glasses to a position m times the distance from the pupil position. Specifically, the conversion unit 23 virtually stores a pixel block (converted pixel block) having the same shape and size as the pixel block (original pixel block) in the lens portion of the glasses, such as the rectangle 103, in the storage unit 12. Then, each pixel of the converted pixel block is sequentially selected as a target pixel, and a distance d and direction (an angle from the X axis, etc.) from the pupil position to the target pixel are calculated. Then, the conversion unit 23 sets a value of a pixel at a distance of d / m from the pupil position in the same direction as the value of the target pixel in the original pixel block. Alternatively, the conversion unit 23 weights the value of the target pixel by averaging the plurality of pixels in the vicinity of the point having a distance of d / m in the same direction from the pupil position (the distance from the point to the center of each pixel). Set to the value of When the setting of all the pixel values in the post-conversion pixel block is completed, the conversion unit 23 copies the value of each pixel in the post-conversion pixel block to the value of each corresponding pixel in the original pixel block. The process ends.

これにより、レンズにより歪んで撮像された顔の一部が、瞳の位置を中心として放射状に拡大縮小され、レンズがない場合に撮像されていたと推定される画像に近似した画像が得られる。   As a result, a part of the face imaged in a distorted manner by the lens is enlarged / reduced radially around the pupil position, and an image approximate to an image estimated to have been imaged without the lens is obtained.

[瞳中心ではなくレンズ中心を推定して処理する例]
また、上述の例では、瞳の位置を中心として拡縮処理を実行していたが、本実施の形態はこれに限られず、レンズの中心を、拡縮処理の中心としてもよい。この場合、推定部22は眼鏡のフレーム(リム、ブリッジ、ヨロイ等の各部)を顔画像部分のうちから検出する。この検出の処理については、齋藤康之, 剣持雪子,小谷一孔,「パラメトリックな眼鏡フレームモデルを用いた顔画像内の眼鏡フレーム領域の抽出と除去」,電子情報通信学会論文誌 D, J82-D2(5): 880-890, 1999(特に同論文における図4の眼鏡フレーム抽出の処理)に記載された方法など、広く知られた方法を採用できるので、ここでの詳しい説明を省略する。
[Example of processing by estimating the lens center instead of the pupil center]
In the above example, the enlargement / reduction process is executed with the pupil position as the center. However, the present embodiment is not limited to this, and the center of the lens may be the center of the enlargement / reduction process. In this case, the estimation unit 22 detects a frame of the glasses (each unit such as a rim, a bridge, and an armor) from the face image portion. The detection process is described by Yasuyuki Saito, Yukiko Kenmochi, Kazuya Kotani, “Extraction and removal of eyeglass frame regions from facial images using parametric eyeglass frame models”, IEICE Transactions D, J82-D2 (5): Since a widely known method such as the method described in 880-890, 1999 (particularly the eyeglass frame extraction process of FIG. 4 in the same paper) can be adopted, detailed description thereof is omitted here.

推定部22は、検出した眼鏡のフレームからレンズ部分内の画素がどれであるかを推定し、レンズの中心の座標を演算する。具体的に眼鏡のフレームには、リムがレンズ全体を取り囲んでいるフルリム、レンズの上部(または下部)等の一部にのみリムが配されるハーフリム、リムのないツーポイント等のタイプがある。ただしブリッジ及びヨロイのない眼鏡は一般には利用されていないので、推定部22は眼鏡のフレームのうち、ブリッジ及びヨロイ(智)の端部(レンズのX軸方向の両端部に相当する)については、必ずその座標情報を得ることとなる。   The estimation unit 22 estimates which pixel is in the lens portion from the detected spectacle frame, and calculates the coordinates of the center of the lens. Specifically, there are types of spectacle frames such as a full rim in which the rim surrounds the entire lens, a half rim in which the rim is arranged only at a part of the upper (or lower) portion of the lens, a two-point without rim, and the like. However, since the glasses without the bridge and the armor are not generally used, the estimation unit 22 uses the eyeglass frame for the ends of the bridge and the armor (corresponding to both ends of the lens in the X-axis direction). The coordinate information is always obtained.

以下では推定部22による、フルリム、ハーフリム、ツーポイントの各種フレームの場合のレンズ部分内の画素がどれであるかを推定する処理について説明する。   Below, the process which estimates the pixel in the lens part in the case of various frames of a full rim, a half rim, and a two-point by the estimation part 22 is demonstrated.

(a)フルリムの場合
フルリムの場合、推定部22は上述に例示した方法によりリムの輪郭上の各画素の座標を得ることができる。このリムの輪郭がそのままレンズ部分の外周輪郭と推定でき、当該リムの輪郭上の各画素で囲まれる範囲内の画素がレンズ部分内の画素と推定される。そこで推定部22は、このリムの輪郭上の各画素の座標の平均(算術平均でよい)を演算し、当該演算の結果を、レンズの中心の座標とすればよい。
(A) In the case of a full rim In the case of a full rim, the estimation unit 22 can obtain the coordinates of each pixel on the contour of the rim by the method exemplified above. The contour of the rim can be estimated as it is as the outer peripheral contour of the lens portion, and the pixels within the range surrounded by the pixels on the contour of the rim are estimated as the pixels in the lens portion. Therefore, the estimation unit 22 may calculate the average (or arithmetic average) of the coordinates of each pixel on the contour of the rim, and use the result of the calculation as the coordinates of the center of the lens.

(b)ハーフリムの場合
ハーフリムの場合、推定部22は上述に例示した方法によりリムの輪郭上の一部の画素の座標を得ることができる。この例では推定部22はまた、上述の通り、顔輪郭の不連続点を検出する。すると、リムの輪郭上の一部の画素の座標、ブリッジ及びヨロイの端部の座標、並びに不連続点の座標を得ることとなる。
(B) In the case of a half rim In the case of a half rim, the estimation unit 22 can obtain the coordinates of some pixels on the contour of the rim by the method exemplified above. In this example, the estimation unit 22 also detects discontinuous points of the face contour as described above. Then, the coordinates of some pixels on the contour of the rim, the coordinates of the ends of the bridge and the armature, and the coordinates of the discontinuous points are obtained.

これらの各座標はいずれもレンズの外周部にあると考えられるので、推定部22は、例えばSnakes曲線等のカーブフィッティング技術を用いて、これらの座標を含む輪郭線を形成し、この形成した輪郭線がレンズ部分の外周輪郭であるとして処理を行う。すなわちこの例では、推定部22は、形成した輪郭線上の各画素の座標の平均(算術平均でよい)を演算し、当該演算の結果を、レンズの中心の座標とすればよい。   Since each of these coordinates is considered to be in the outer peripheral portion of the lens, the estimation unit 22 forms a contour line including these coordinates by using a curve fitting technique such as a Snakes curve, and this formed contour Processing is performed assuming that the line is the outer peripheral contour of the lens portion. In other words, in this example, the estimation unit 22 calculates the average of the coordinates of each pixel on the formed contour line (which may be an arithmetic average) and sets the result of the calculation as the coordinate of the center of the lens.

(c)ツーポイントの場合
ツーポイント等、リムのない眼鏡の場合、推定部22はまた、上述の通り、顔輪郭の不連続点を検出する。そして推定部22は、ブリッジ及びヨロイ(智)の端部、並びに不連続点の座標を得ることとなる。これらの各座標はいずれもレンズの外周部にあると考えられるので、推定部22は、例えばSnakes曲線等のカーブフィッティング技術を用いて、これらの座標を含む輪郭線を形成し、この形成した輪郭線がレンズ部分の外周輪郭であるとして処理を行う。すなわちこの例では、推定部22は、形成した輪郭線上の各画素の座標の平均(算術平均でよい)を演算し、当該演算の結果を、レンズの中心の座標とすればよい。または推定部22は、得られたブリッジ及びヨロイ(智)の端部、並びに不連続点の座標に外接する矩形を求め、この矩形がレンズ部分の外周輪郭であるとして処理を行う。すなわちこの例では、推定部22は、求めた矩形の中心座標(対角線の交点)を演算し、当該演算の結果を、レンズの中心の座標とすればよい。
(C) In the case of two points In the case of glasses without a rim such as two points, the estimation unit 22 also detects discontinuous points of the face contour as described above. And the estimation part 22 will acquire the coordinate of a bridge | bridging, the edge part of an armor, and a discontinuous point. Since each of these coordinates is considered to be in the outer peripheral portion of the lens, the estimation unit 22 forms a contour line including these coordinates by using a curve fitting technique such as a Snakes curve, and this formed contour Processing is performed assuming that the line is the outer peripheral contour of the lens portion. In other words, in this example, the estimation unit 22 calculates the average of the coordinates of each pixel on the formed contour line (which may be an arithmetic average) and sets the result of the calculation as the coordinate of the center of the lens. Alternatively, the estimation unit 22 obtains a rectangle circumscribing the obtained bridge and end of the arm and the coordinates of the discontinuous points, and performs processing on the assumption that this rectangle is the outer peripheral contour of the lens portion. That is, in this example, the estimation unit 22 may calculate the obtained rectangular center coordinates (intersection of diagonal lines) and set the result of the calculation as the coordinates of the center of the lens.

推定部22は、以上の処理により求められたレンズ部分の外周輪郭を特定する情報と、レンズ部分の中心の座標とを出力する。   The estimation unit 22 outputs information for specifying the outer contour of the lens portion obtained by the above processing and the coordinates of the center of the lens portion.

変換部23は、推定部22が出力する情報で特定されるレンズ部分の外周輪郭内(レンズ部分内)の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う。具体的に変換部23は、図5に例示するように、推定部22により得られた不連続点101の座標の組ごとに、当該組に含まれる、内側不連続点の属性情報が関連付けられた不連続点101iと、外側不連続点の属性情報が関連付けられた不連続点101eと、レンズの中心104の座標との間の距離(ユークリッド距離でよい)をそれぞれdi,deとして演算する。またその比m=de/di(拡縮率に相当する)を算出する。   The conversion unit 23 performs conversion for mapping pixels in the outer periphery contour (in the lens portion) of the lens portion specified by the information output from the estimation unit 22 to pixels at other positions in the lens portion of the spectacles. Specifically, as illustrated in FIG. 5, the conversion unit 23 associates attribute information of inner discontinuous points included in each set of coordinates of the discontinuous points 101 obtained by the estimation unit 22. The distances (which may be Euclidean distances) between the discontinuous point 101i, the discontinuous point 101e associated with the attribute information of the outer discontinuous point, and the coordinates of the center 104 of the lens are calculated as di and de, respectively. Further, the ratio m = de / di (corresponding to the enlargement / reduction ratio) is calculated.

そして変換部23は、推定部22が出力する情報で特定されるレンズ部分の外周輪郭内(レンズ部分内)の各画素について、レンズの中心104の座標を中心として、距離m倍の位置に変倍する拡縮処理を実行する。具体的に変換部23は、推定部22が出力する情報で特定されるレンズ部分の外周輪郭内の画素塊と同じ形状の画素塊を記憶部12内に仮想的に生成する。そして変換部23は、この仮想的に生成した画素塊内の各画素を順次注目画素として選択して、レンズの中心104に対応する画素から注目画素までの距離dならびに方向(X軸からの角度等でよい)を算出する。そして変換部23は、元の顔画像内の画素塊において、レンズの中心104から上記の方向に向ってd/mの距離にある画素の値を、注目画素の値として設定する。または、変換部23は注目画素の値を、レンズの中心104から上記の方向に向ってd/mの距離の点近傍にある複数画素の平均(上記点と各画素中心までの距離により重み付けを行ってもよい)の値に設定する。仮想的に生成した画素塊内のすべての画素値の設定が終了すると、変換部23は、この画素塊の各画素の値を、元の顔画像内の対応する各画素の値に複写して処理を終了する。   Then, the conversion unit 23 changes each pixel in the outer peripheral contour of the lens part (in the lens part) specified by the information output from the estimation unit 22 to a position m times the distance from the center of the lens center 104. Execute scaling processing to double. Specifically, the conversion unit 23 virtually generates a pixel block having the same shape as the pixel block in the outer peripheral contour of the lens portion specified by the information output from the estimation unit 22 in the storage unit 12. Then, the conversion unit 23 sequentially selects each pixel in the virtually generated pixel block as a target pixel, and the distance d and direction (angle from the X axis) from the pixel corresponding to the center 104 of the lens to the target pixel. Etc.). Then, the conversion unit 23 sets a value of a pixel at a distance of d / m from the lens center 104 in the above direction in the pixel block in the original face image as the value of the target pixel. Alternatively, the conversion unit 23 weights the value of the target pixel by averaging a plurality of pixels in the vicinity of a point having a distance of d / m from the lens center 104 in the above direction (the distance from the point to the center of each pixel). To the value of). When the setting of all the pixel values in the virtually generated pixel block is completed, the conversion unit 23 copies the value of each pixel in the pixel block to the value of each corresponding pixel in the original face image. The process ends.

これにより、レンズにより歪んで撮像された顔の一部が、レンズの中心104を中心として放射状に拡大縮小され、レンズがない場合に撮像されていたと推定される画像に近似した画像が得られる。   As a result, a part of the face imaged in a distorted manner by the lens is enlarged and reduced radially around the center 104 of the lens, and an image approximating an image estimated to have been imaged without the lens is obtained.

[レンズ部分検出のさらに別の例]
また本実施の形態の別の例では、推定部22がレンズ部分内の画素がどれであるかを推定する処理として、顔部分の各画素の明度の情報を生成し、隣接画素の明度との差が予め定めたしきい値を超える部分を色味のエッジとして検出することで、瞳の位置周辺で当該エッジを検出した画素間をカーブフィッティングして、レンズ部分内の画素がどれであるかを推定することとしてもよい。この場合、フレームの検出は必ずしも必要ではない。
[Another example of lens part detection]
In another example of the present embodiment, as processing for estimating which pixel in the lens portion is the estimation unit 22, information on the brightness of each pixel in the face portion is generated, and the brightness of adjacent pixels is calculated. By detecting the part where the difference exceeds the predetermined threshold as a tint edge, curve fitting is performed between the pixels where the edge is detected around the pupil position, and which pixel is in the lens part May be estimated. In this case, frame detection is not always necessary.

なお、ここまでの説明において推定部22がレンズ部分内の画素がどれであるかを推定する処理として、顔の輪郭線の不連続点を見出して用いる方法と、眼鏡のフレームを検出する方法と、画素の明度差を用いる方法とを説明したが、これらはそれぞれ単独で用いるだけでなく、組み合せて用いられてもよい。すなわち、いずれかの方法でレンズ部分内にあるとされた画素のすべてをレンズ部分内の画素であると推定することとしてもよいし、いずれか複数の方法で(あるいはすべての方法で)レンズ部分内にあるとされた画素のすべてをレンズ部分内の画素と推定することとしてもよい。   In the description so far, as a process in which the estimation unit 22 estimates which pixel is in the lens portion, a method of finding and using discontinuous points on the face contour, and a method of detecting a frame of glasses Although the method using the brightness difference of the pixels has been described, these may be used not only independently but also in combination. That is, it is possible to estimate all of the pixels that are determined to be in the lens portion by any method as the pixels in the lens portion, or the lens portion by any one of a plurality of methods (or all methods). It is also possible to estimate all of the pixels in the lens portion as pixels in the lens portion.

[変換処理の別の例]
さらに本実施の形態の一例において、変換部23は、上述のようにレンズ部分とされた画像部分の内部で拡大縮小処理を行うのではなく、次のように処理を行ってもよい。
[Another example of conversion processing]
Furthermore, in an example of the present embodiment, the conversion unit 23 may perform the following processing instead of performing the enlargement / reduction processing inside the image portion that is the lens portion as described above.

すなわち本実施の形態の別の例においては、記憶部12に、予め、眼鏡のレンズの種類(レンズの「度」や、乱視矯正の有無などで種類が相違する)ごとに、当該レンズ部分内の像の写像に係るパラメータである変換テーブルデータを関連付けて記憶しておく(図6)。ここで変換テーブルデータは、図7に例示するように、N×M(N,Mはそれぞれ正の整数)個の二次元座標情報(dest)を含んでなる。具体的に図7に例示した変換テーブルデータでは、二次元座標情報(dest)においては、左上隅から右へi個、下へj個(ただしi≦N,j≦M)だけ移動した位置にある画素の座標情報((i,j)の位置の座標情報)が例えば(i′,j′)というように設定されている。これは、元の画像において(i′,j′)の位置にある画素を、この(i,j)の位置に移動することを意味する。   That is, in another example of the present embodiment, the storage unit 12 stores in advance the lens portion for each type of eyeglass lens (the type differs depending on the lens “degree”, whether or not astigmatism correction is performed). The conversion table data, which is a parameter relating to the mapping of the image, is associated and stored (FIG. 6). Here, as illustrated in FIG. 7, the conversion table data includes N × M (N and M are positive integers) pieces of two-dimensional coordinate information (dest). Specifically, in the conversion table data illustrated in FIG. 7, in the two-dimensional coordinate information (dest), i is moved to the right from the upper left corner and j is moved downward (where i ≦ N, j ≦ M). The coordinate information (coordinate information of the position of (i, j)) of a certain pixel is set as (i ′, j ′), for example. This means that the pixel located at the position (i ′, j ′) in the original image is moved to the position (i, j).

変換部23は、変換を行う際には、この二次元座標情報(dest)の中心(予めどの画素が中心の画素であるかを定めておくか、あるいは(N/2,M/2)の位置の画素を中心とすればよい)と、推定部22が推定したレンズ部分の中心の座標とを一致させる。そして変換部23は、推定部22が推定したレンズ部分に含まれる各画素に対応する、二次元座標情報(dest)上の値を参照して、画素値を写像したレンズ部分内の画像を生成し、元の画像内のレンズ部分内の各画素の値を当該生成した画像の対応する画素の値で置き換える。   Converter 23, when performing the conversion, the center (pre what pixels previously determined whether the pixel of the center, or the (N / 2, M / 2) of the two-dimensional coordinate information (dest) And the coordinates of the center of the lens portion estimated by the estimation unit 22 are made to coincide with each other. Then, the conversion unit 23 refers to the value on the two-dimensional coordinate information (dest) corresponding to each pixel included in the lens portion estimated by the estimation unit 22, and generates an image in the lens portion in which the pixel value is mapped. Then, the value of each pixel in the lens portion in the original image is replaced with the value of the corresponding pixel in the generated image.

この処理を模式的に図8を用いて説明すると、次のようになる。図8では、元のレンズ部分内の画像に対応するものとして3×3の画素があるとし、左上から右下に向って各画素値がA,B,…,Iとなっているものとする。なお、その中心は2行2列目の位置の画素とする。またここでは元の画素塊内のη行ξ列目の画素値を複写することを(ξ,η)と表すこととし、5×3画素分の二次元座標情報(dest)として、左上から右へ(1,1)、(3,1)、(3,1)、(3,1)、(5,1)一行下へ行って再び左端から(1,2)、(3,2)、(3,2)、(3,2)、(5,2)さらに次の行で左端から(1,3)、(3,3)、(3,3)、(3,3)、(5,3)となっているものとする。なお、5×3画素分の二次元座標情報(dest)の中心は2行3列目の位置の画素とする。   This process is schematically described with reference to FIG. In FIG. 8, it is assumed that there are 3 × 3 pixels corresponding to the image in the original lens portion, and the pixel values are A, B,..., I from the upper left to the lower right. . The center is the pixel at the position of the second row and the second column. Also, here, copying the pixel value of the η-th row ξ-column in the original pixel block is expressed as (ξ, η), and as 2D coordinate information (dest) for 5 × 3 pixels, from the upper left to the right Go to (1,1), (3,1), (3,1), (3,1), (5,1) down one line and again from the left end to (1,2), (3,2), (3,2), (3,2), (5,2) and (1,3), (3,3), (3,3), (3,3), (5) , 3). The center of the two-dimensional coordinate information (dest) for 5 × 3 pixels is the pixel at the position of the second row and the third column.

この場合、変換部23は、元のレンズ部分の画像と同じ形状の3×3の画像を新たに生成する(その中心を元の画像と同じ2行2列目とする)。そしてこの生成した画像における1行1列目の位置の画素を注目画素とする。変換部23は、二次元座標情報(dest)の中心である2行3列目を当該生成した画像の中心である2行2列目に一致させたときに、二次元座標情報(dest)上で注目画素に対応する画素を見出す。この場合、中心2行3列目から左列へ1,上行へ1画素だけ移動した画素である1行2列目が対応する画素であるので、その値(3,1)を読み出す。この位置(3,1)、つまり1行3列目は、元のレンズ部分の画像における1行2列目の画素(画素値がBの画素)に対応する。   In this case, the conversion unit 23 newly generates a 3 × 3 image having the same shape as the image of the original lens portion (the center is the same as the original image in the second row and the second column). The pixel at the position of the first row and the first column in the generated image is set as the target pixel. When the conversion unit 23 matches the second row and third column, which is the center of the two-dimensional coordinate information (dest), with the second row and second column, which is the center of the generated image, the conversion unit 23 To find the pixel corresponding to the pixel of interest. In this case, since the first row and the second column, which are pixels moved by one pixel from the center second row and the third column to the left column and the first row, are the corresponding pixels, the value (3, 1) is read out. This position (3, 1), that is, the first row and the third column corresponds to a pixel in the first row and the second column (pixel having a pixel value of B) in the original image of the lens portion.

そして変換部23は、生成した画像の1行1列目の位置の画素値を、元のレンズ部分の画像において対応する1行2列目の位置の画素値「B」に設定する。   Then, the conversion unit 23 sets the pixel value at the position of the first row and the first column of the generated image to the pixel value “B” at the position of the corresponding first row and the second column in the original lens portion image.

以下、変換部23は同様の手順により、1行2列目の位置の画素値を、元のレンズ部分の画像における1行2列目の画素値「B」に設定し、1行3列目の位置の画素値を、元のレンズ部分の画像における1行2列目の画素値「B」に設定し…というようにそれぞれ画素値を設定していく。こうして元のレンズ部分画像と同じ形状の3×3画素の各画素の設定が終了すると、変換部23は、この画素の設定を行った画像を、元のレンズ部分画像に置き換える。この例では、レンズ部分内の画像は各行の画素がそれぞれ「B」,「E」,「H」となった状態に置き換えられる。   Thereafter, the conversion unit 23 sets the pixel value at the position of the first row and the second column to the pixel value “B” of the first row and the second column in the original image of the lens by the same procedure, and sets the first row and the third column. Is set to the pixel value “B” in the first row and the second column in the original lens portion image, and so on. When the setting of each pixel of 3 × 3 pixels having the same shape as the original lens partial image is completed in this way, the conversion unit 23 replaces the image for which this pixel has been set with the original lens partial image. In this example, the image in the lens portion is replaced with the state where the pixels in each row are “B”, “E”, and “H”, respectively.

また、ここでは対応する画素を直接記述する方法を採用したが、本実施の形態はこれに限られない。いわゆる変換行列(アフィン変換行列や、透視変換行列等)が生成できるのであれば変換行列を生成して、当該変換行列を変換テーブルデータとして、レンズの種類ごとに記憶部12に格納しておいてもよい。変換部23は、この場合に変換を行うときには、変換行列を用いてレンズ部分内の画像を写像する。この処理は、例えばOpenCV等において、remap関数による処理等として広く知られているので詳しい説明は省略する。   In addition, although a method of directly describing the corresponding pixel is adopted here, the present embodiment is not limited to this. If a so-called transformation matrix (affine transformation matrix, perspective transformation matrix, etc.) can be generated, a transformation matrix is generated, and the transformation matrix is stored in the storage unit 12 for each lens type as transformation table data. Also good. When performing conversion in this case, the conversion unit 23 maps the image in the lens portion using the conversion matrix. Since this process is widely known as a process using a remap function in OpenCV, for example, detailed description thereof is omitted.

このような例による変換部23を用いるときには、変換部23は、記憶部12に格納されている、各レンズ種類に対応する変換テーブルデータを順次読み出して、レンズ部分内の画像をそれぞれの変換テーブルデータを用いて変換した後の画像を生成する。そして各生成した画像のうち、推定部22にて推定した各組ごとの、2つの不連続点に対応する画素の位置の差が最も小さくなる画像を選択して、元のレンズ部分内の画像を、当該選択した画像で置き換えればよい。つまり、抽出した輪郭線が連続となると判断される変換テーブルデータを選択して用いるようにすればよい。
また変換テーブルデータはさらに、眼鏡のレンズの種類ごと、かつ顔の向きごとに用意されてもよい。この例では、変換部23は、顔画像部分を検出したときの当該顔画像部分の角度の情報を取得する。この角度の情報の取得には例えば鼻の位置等により検出する方法等、広く知られた方法を採用すればよい。
変換部23は、当該取得した角度に対応する、各眼鏡のレンズの種類ごとの変換テーブルデータから、抽出した輪郭線が連続となると判断される変換テーブルデータを選択することとすればよい。
When the conversion unit 23 according to such an example is used, the conversion unit 23 sequentially reads conversion table data corresponding to each lens type stored in the storage unit 12, and converts the image in the lens portion into the respective conversion table. An image after conversion using data is generated. Then, among the generated images, for each set estimated by the estimation unit 22, an image in which the difference between the positions of the pixels corresponding to the two discontinuous points is minimized is selected, and the image in the original lens portion is selected. May be replaced with the selected image. That is, conversion table data determined to be continuous with the extracted contour line may be selected and used.
Further, the conversion table data may be prepared for each type of eyeglass lens and for each face direction. In this example, the conversion unit 23 acquires information on the angle of the face image portion when the face image portion is detected. For obtaining this angle information, a widely known method such as a method of detecting by the position of the nose may be employed.
The conversion unit 23 may select conversion table data for which the extracted contour line is determined to be continuous from the conversion table data for each lens type corresponding to the acquired angle.

この例によると、単純な拡大縮小に限られない変換が可能となるので、例えば遠近両用の眼鏡など複雑な像の歪みが生じ得る眼鏡にも対応が可能になる。また、変換テーブルデータの選択により、対応する眼鏡のレンズの種類が推定できるようになり、このレンズ種類の推定結果もまた、別の処理に利用可能となる。
また、変換テーブルデータの選択においては、予め人物ごとに、当該人物を特定する情報に関連付けて、当該人物が着用している眼鏡のレンズに対応する変換テーブルデータを関連付けて保持しておいてもよい。この例によれば、上記方法で変換テーブルデータを選択したときに、当該選択したテーブルデータに関連付けた情報を出力することで、当該情報により人物を特定するといった処理が可能となる。
あるいは、本実施の形態の画像処理装置1を、人物認証のために用いるのではなく、眼鏡着用時の違和感を軽減するといった目的で使用する場合、変換部23は、抽出した輪郭線が連続となると判断される変換テーブルデータを選択することに代え、あるいはそれに併せて、人物を眼鏡着用の状態で認識させ、あるいは当該人物を特定する情報を利用者に入力させ、当該認識の結果、あるいは入力された情報で特定される人物を特定する情報に関連付けられた変換テーブルデータを選択することとしてもよい。
この場合も、人物を特定する情報ごと、かつ顔の向きごとに変換テーブルデータが用意されてもよい。この場合も、変換部23は、顔画像部分を検出したときの当該顔画像部分の角度の情報を取得する。そして変換部23は、当該取得した角度に対応する、人物を特定する情報ごとの変換テーブルデータから、認識の結果、あるいは入力された情報で特定される人物を特定する情報に関連付けられた変換テーブルデータを選択することとすればよい。
According to this example, conversion that is not limited to simple enlargement / reduction is possible, and therefore, it is possible to deal with glasses that may cause complex image distortion, such as bifocal glasses. Further, by selecting the conversion table data, it is possible to estimate the lens type of the corresponding eyeglass, and the estimation result of this lens type can also be used for another process.
Further, in the selection of the conversion table data, for each person, the conversion table data corresponding to the lens of the glasses worn by the person may be stored in association with the information specifying the person in advance. Good. According to this example, when conversion table data is selected by the above method, information associated with the selected table data is output, so that processing such as specifying a person based on the information can be performed.
Alternatively, when the image processing apparatus 1 according to the present embodiment is not used for personal authentication but is used for the purpose of reducing a sense of incongruity when wearing glasses, the converting unit 23 indicates that the extracted contour line is continuous. Instead of selecting conversion table data determined to be, or in addition to this, the person is recognized while wearing glasses, or the user is input information specifying the person, and the result of the recognition or input It is also possible to select conversion table data associated with information for specifying a person specified by the specified information.
Also in this case, conversion table data may be prepared for each piece of information for identifying a person and for each face direction. Also in this case, the conversion unit 23 acquires information on the angle of the face image portion when the face image portion is detected. Then, the conversion unit 23 converts the conversion table data for each piece of information specifying the person corresponding to the acquired angle, the conversion table associated with the result of recognition or the information specifying the person specified by the input information. The data should be selected.

また、ここまでの説明の処理においては、顔画像部分を検出した後、顔画像部分を正面向きに変換する処理を行ってから、推定部22及び変換部23の処理を行ってもよい。またこの場合、変換後に元の角度に戻す処理を行ってもよい。このような顔を正面向き、あるいは任意の角度に変換する技術は、例えば向川康博、中村裕一、大田裕一「複数の顔画像の組合せによる任意方向・任意表情の顔画像の生成」,電子情報通信学会論文誌D-II, J80-D2(6): 1555-1562, 1997等の技術があり、これらを採用できる。なお、顔の向きは正中線と瞳との相対的な位置などにより推定する方法等、種々の方法が知られているのでここでの詳しい説明は省略する。   In the processing described so far, after the face image portion is detected, processing for converting the face image portion to the front direction may be performed, and then the processing of the estimation unit 22 and the conversion unit 23 may be performed. In this case, a process of returning to the original angle after conversion may be performed. For example, Yasuhiro Mukakawa, Yuichi Nakamura, Yuichi Ota “Generating face images with arbitrary direction and expression by combining multiple face images”, electronic information There are technologies such as IEICE Transactions D-II, J80-D2 (6): 1555-1562, 1997, and these can be adopted. Various methods are known, such as a method for estimating the orientation of the face based on the relative position between the median line and the pupil, and thus detailed description thereof is omitted here.

本発明の実施の形態の一例に係る画像処理装置1は、以上の構成を備えてなり、次のように動作する。処理の対象となった画像を受け入れた画像処理装置1は、図9に例示する処理を開始し、当該処理の対象となった画像のうちから顔部分を検出する(S1)。そして検出した顔部分のうち、未だ選択していない一つを注目部分として選択し(S2)、当該注目部分に含まれる顔の特徴量(瞳の位置の情報や輪郭線の情報など)の情報を生成するとともに(S3)、当該注目部分から眼鏡のレンズ部分内の画素がどれであるかを検出し、レンズ中心の推定を試みる処理を実行する(S4)。   The image processing apparatus 1 according to an example of the embodiment of the present invention has the above configuration and operates as follows. The image processing apparatus 1 that has received the image to be processed starts the process illustrated in FIG. 9 and detects a face portion from the image to be processed (S1). Then, one of the detected face portions that has not yet been selected is selected as the attention portion (S2), and information on the facial feature amounts (such as pupil position information and contour line information) included in the attention portion is selected. Is generated (S3), and a process of detecting the pixel in the lens portion of the glasses from the target portion and attempting to estimate the lens center is executed (S4).

この処理S4では、上述の通り、眼鏡のフレームを検出する処理や、明度差、あるいは輪郭線の不連続点等を用いてレンズ部分内の画素がどれであるかを検出することとなる。また、眼鏡のフレームを検出する処理や明度差を利用する処理により、レンズ部分の中心(眼鏡のレンズ中心に相当する位置、以下レンズ中心と呼ぶ)が推定できた場合は、当該レンズ中心の座標情報も併せて得ておくこととする。一般に眼鏡用レンズは、円形のレンズをフレームの形状に合わせて加工しているが、この加工前のレンズの円形の中心がここでのレンズ中心となる。レンズ中心に相当する位置は、通常、眼鏡着用者が正面を向いたときに、瞳の位置に重なるように加工・調整される。また、不連続点のみが検出できた場合は、レンズ中心までは推定できないので、この場合は輪郭線上の不連続点が、レンズ部分内の画素がどれであるかの検出結果となる。   In this process S4, as described above, the process of detecting the frame of the glasses, the difference in brightness, the discontinuity of the contour line, and the like are used to detect which pixel in the lens portion is. If the center of the lens part (position corresponding to the lens center of the glasses, hereinafter referred to as the lens center) can be estimated by the process of detecting the frame of the glasses or the process of using the brightness difference, the coordinates of the lens center Information will also be obtained. In general, a spectacle lens is formed by processing a circular lens in accordance with the shape of the frame, but the center of the lens before processing is the center of the lens. The position corresponding to the center of the lens is usually processed and adjusted so as to overlap the position of the pupil when the spectacle wearer faces the front. If only the discontinuous point can be detected, it is impossible to estimate the center of the lens. In this case, the discontinuous point on the contour line is a detection result indicating which pixel is in the lens portion.

画像処理装置1は、処理S4においてレンズ部分内の画素がどれであるかが検出できたか(不連続点が見出されるか、あるいはフレームが検出できたか)を調べ(S5)、検出できていたならば(Yesならば)、さらに、レンズ中心が見出されたか否かを判断する(S6)。   The image processing apparatus 1 checks whether or not the pixel in the lens portion has been detected in the process S4 (whether a discontinuous point has been found or a frame has been detected) (S5). If yes (Yes), it is further determined whether or not the lens center has been found (S6).

ここでレンズ中心が見出されていれば(Yesならば)、レンズ中心を中心として、レンズ内の画像を変換する変換処理を実行する(S7)。この処理S7の変換処理では、レンズ中心を中心として放射状に拡大縮小し、輪郭線上の不連続点の座標(不連続点の位置にある画素の位置)を変換し、輪郭線が連続するように変換する処理を行ってもよい。また、この処理S7の処理としては、画素値の写像先を直接表す情報により、輪郭線上の不連続点の座標(不連続点の位置にある画素の位置)を変換し、輪郭線が連続するように変換する処理を行ってもよい。さらに、この処理S7では、変換行列を用いた写像(map)の処理により、輪郭線上の不連続点の座標(不連続点の位置にある画素の位置)を変換し、輪郭線が連続するように変換する処理を行ってもよい。なお、眼鏡のレンズ部分は一般に顔の左右にあるので、画像処理装置1は、それぞれについて処理S4からS7の処理を実行する。   If the lens center is found here (if Yes), a conversion process for converting the image in the lens is executed around the lens center (S7). In the conversion processing of this processing S7, the lens is enlarged or reduced radially around the center of the lens, the coordinates of the discontinuous point on the contour line (the position of the pixel at the position of the discontinuous point) are converted, and the contour line is continuous. You may perform the process to convert. In addition, as processing of this processing S7, the coordinates of the discontinuous points on the contour line (pixel positions at the discontinuous points) are converted by the information directly representing the mapping destination of the pixel value, and the contour lines are continuous. The conversion process may be performed as described above. Further, in this processing S7, the coordinates of the discontinuous points on the contour line (the positions of the pixels at the discontinuous points) are converted by the mapping process using the transformation matrix so that the contour lines are continuous. You may perform the process converted into. Since the lens portions of the glasses are generally on the left and right sides of the face, the image processing apparatus 1 performs the processes from S4 to S7 for each.

画像処理装置1は、処理対象となった画像に含まれるすべての顔画像についての処理を終了したか否かを調べる(S8)。そしてすべての顔画像についての処理を終了したと判断すると(Yesの場合)、処理後の画像を表示部14や入出力部15を介して出力して(あるいは記憶部12に格納して)、処理を終了する。また処理S8において、未選択の顔画像があると判断すると(Noの場合)、処理S2に戻って処理を続ける。   The image processing apparatus 1 checks whether or not processing for all face images included in the image to be processed has been completed (S8). When it is determined that the processing for all the face images has been completed (in the case of Yes), the processed image is output via the display unit 14 or the input / output unit 15 (or stored in the storage unit 12). The process ends. If it is determined in process S8 that there is an unselected face image (in the case of No), the process returns to process S2 and continues.

また処理S5において、レンズ部分内の画素がどれであるかが検出できなかったと判断した場合(つまりNoならば)、処理S8に移行して処理を続ける。さらに処理S6においてレンズ中心が見出されていないと判断すると(Noならば)、瞳の位置を中心として、レンズ内の画像を変換する変換処理を実行する(S9)。この処理S9では例えば、瞳の位置を中心として放射状に拡大縮小し、輪郭線上の不連続点の座標(不連続点の位置にある画素の位置)を変換し、輪郭線が連続するように変換する処理を行う。なお、眼鏡のレンズ部分は一般に顔の左右にあるので、画像処理装置1は、それぞれについて処理S9の処理を実行することになる。そして画像処理装置1は、処理S8に移行して処理を続ける。   If it is determined in process S5 that it is not possible to detect which pixel in the lens portion is (that is, No), the process proceeds to process S8 and the process is continued. Further, if it is determined in step S6 that the lens center has not been found (if No), a conversion process for converting the image in the lens around the pupil position is executed (S9). In this process S9, for example, the enlargement / reduction is performed radially around the pupil position, the coordinates of the discontinuous points on the contour line (the position of the pixel at the position of the discontinuous point) are converted, and the contour line is converted to be continuous. Perform the process. Since the lens portions of the glasses are generally on the left and right sides of the face, the image processing apparatus 1 executes the process of process S9 for each. Then, the image processing apparatus 1 proceeds to the process S8 and continues the process.

本実施の形態によれば、レンズ中心が見出された場合、瞳の位置も含めて、眼鏡のレンズによる歪みを解消できるので、瞳の間隔など、人間の顔認識を行う際に利用されるパラメータも補正されることとなり、顔認識の精度を向上できる。また、眼鏡のレンズの種類を特定できる場合、顔画像に基づいて、現在利用している眼鏡のレンズの種類を推定する等の処理を実行できる。   According to the present embodiment, when the center of the lens is found, distortion caused by the lens of the glasses, including the position of the pupil, can be eliminated, so that it is used when performing human face recognition such as the pupil interval. Parameters are also corrected, and the accuracy of face recognition can be improved. When the type of spectacle lens can be specified, processing such as estimating the type of spectacle lens currently used can be executed based on the face image.

さらに、本実施の形態の上述の処理においては、一対の眼鏡のレンズのそれぞれについて輪郭線の不連続点が連続となるよう変換する処理を行っている。つまり、各レンズについて拡縮率(比m)を演算しているが、本実施の形態はこれに限られない。例えば、顔の向きにより一方のレンズにおいてのみ拡縮率が演算できる場合、他方のレンズにおいてもこの拡縮率を用いた変換を行うこととしてもよい。   Furthermore, in the above-described processing according to the present embodiment, processing is performed to convert the discontinuous points of the contour line for each of the pair of spectacle lenses. That is, the enlargement / reduction ratio (ratio m) is calculated for each lens, but the present embodiment is not limited to this. For example, when the enlargement / reduction ratio can be calculated only for one lens depending on the orientation of the face, conversion using this enlargement / reduction ratio may be performed for the other lens.

さらに、本実施の形態においては拡縮率に相当する比mが1を超える場合、つまり近眼用眼鏡レンズ(輪郭線が顔中心側へ歪む)の場合に限り変換部23による変換処理を行うこととしてもよい。   Furthermore, in the present embodiment, the conversion process by the conversion unit 23 is performed only when the ratio m corresponding to the enlargement / reduction ratio exceeds 1, that is, in the case of a near-eye spectacle lens (the contour line is distorted toward the face center). Also good.

1 画像処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 入出力部、21 画像取得部、22 推定部、23 変換部。
DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 11 Control part, 12 Storage part, 13 Operation part, 14 Display part, 15 Input / output part, 21 Image acquisition part, 22 Estimation part, 23 Conversion part

Claims (12)

顔が撮像された画像を取得する取得手段、
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、及び、
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、
前記推定手段は、さらに、推定した眼鏡のレンズ部分のうちから、眼鏡のレンズ中心に相当する位置を推定し、
前記変換手段は、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行い、当該変換手段は、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定する変換手段であって、拡大または縮小を行う際に、前記推定された眼鏡のレンズ中心に相当する位置を中心として放射状に、拡大または縮小を行う画像処理装置。
Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles;
Conversion means for performing conversion to map pixels in the estimated lens portion of the spectacles to pixels at other positions in the lens portion of the spectacles; and
Extracting means for extracting the contour of the face imaged in the acquired image;
The estimating means further estimates a position corresponding to the lens center of the glasses from the estimated lens portion of the glasses,
The converting means performs conversion for mapping to pixels at other positions in the lens portion of the spectacles by enlarging or reducing an image portion in the lens portion of the spectacles, and the converting means converts the extracted contour line Conversion means for setting an enlargement or reduction ratio so as to be continuous, and when enlarging or reducing, image processing is performed to enlarge or reduce radially about a position corresponding to the estimated lens center of the eyeglasses apparatus.
顔が撮像された画像を取得する取得手段、
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段、及び、
前記顔の部分のうちから、瞳の画像部分を検出する手段を含み、
前記変換手段は、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行い、当該変換手段は、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定する変換手段であって、拡大または縮小を行う際に、前記検出された瞳の画像部分の中心に相当する位置を中心として放射状に、拡大または縮小を行う画像処理装置。
Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles;
Conversion means for performing conversion for mapping pixels in the estimated lens portion of the spectacles to pixels at other positions in the lens portion of the spectacles;
Extraction means for extracting the contour of the face imaged in the acquired image; and
Means for detecting an image portion of the pupil from the face portion;
The converting means performs conversion for mapping to pixels at other positions in the lens portion of the spectacles by enlarging or reducing an image portion in the lens portion of the spectacles, and the converting means converts the extracted contour line Is a conversion means for setting an enlargement or reduction ratio so as to be continuous, and when enlargement or reduction is performed, enlargement or reduction is performed radially about a position corresponding to the center of the image portion of the detected pupil. Image processing device.
顔が撮像された画像を取得する取得手段、
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、及び、
眼鏡のレンズの種類ごとに、当該レンズ部分内の像の写像に係るパラメータである変換テーブルデータを取得する手段を含み、
前記変換手段は、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズの種類に対応する前記変換テーブルデータを用いて、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う画像処理装置。
Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles;
Conversion means for performing conversion to map pixels in the estimated lens portion of the spectacles to pixels at other positions in the lens portion of the spectacles; and
For each type of eyeglass lens, including means for obtaining conversion table data that is a parameter relating to mapping of an image in the lens part,
The conversion unit maps the pixel in the estimated spectacle lens portion to a pixel at another position in the spectacle lens portion using the conversion table data corresponding to the type of the spectacle lens. An image processing apparatus that performs conversion.
請求項記載の画像処理装置であって、
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、
前記変換手段は、前記眼鏡のレンズの種類に対応する変換テーブルデータとして、前記取得した変換テーブルデータのうち、前記抽出した輪郭線が連続となると判断される変換テーブルデータを選択して用いる画像処理装置。
The image processing apparatus according to claim 3 ,
Extracting means for extracting the contour of the face imaged in the acquired image;
The conversion means selects and uses, as the conversion table data corresponding to the lens type of the eyeglasses, conversion table data that is determined to be continuous with the extracted contour line from the acquired conversion table data. apparatus.
顔が撮像された画像を取得する取得手段、
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、及び、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、を含み、
前記変換手段は、前記画像に含まれる顔を正面向きに補正してから変換を行う画像処理装置。
Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles, and
The pixels in the lens portion of the estimated glasses, seen including converting means, the performing conversion to map the pixels of the other positions in the lens portion of the spectacles,
The image processing apparatus that performs conversion after correcting a face included in the image in a front direction.
請求項5に記載の画像処理装置であって、The image processing apparatus according to claim 5,
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、Extracting means for extracting the contour of the face imaged in the acquired image;
前記変換手段は、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行い、当該変換手段は、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定する画像処理装置。The converting means performs conversion for mapping to pixels at other positions in the lens portion of the spectacles by enlarging or reducing an image portion in the lens portion of the spectacles, and the converting means converts the extracted contour line An image processing apparatus that sets an enlargement or reduction ratio so that the images are continuous.
請求項1からのいずれか一項に記載の画像処理装置であって、
前記変換手段は、前記画像に含まれる顔を正面向きに補正してから変換を行う画像処理装置。
The image processing apparatus according to any one of claims 1 to 4 , wherein:
The image processing apparatus that performs conversion after correcting a face included in the image in a front direction.
請求項1から7のいずれか一項に記載の画像処理装置であって、
さらに、前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、
前記推定手段は、当該抽出された顔の輪郭線を用いて、前記取得した画像内に眼鏡のレンズ部分があると判断されたときに、当該眼鏡のレンズ部分内の画素がどれであるかを推定する画像処理装置。
The image processing apparatus according to any one of claims 1 to 7 ,
Furthermore, it includes an extracting means for extracting the contour line of the face imaged in the acquired image,
The estimation means uses the extracted facial contour line to determine which pixel is in the lens portion of the glasses when it is determined that there is a lens portion of the glasses in the acquired image. An image processing apparatus to be estimated.
取得手段が、顔が撮像された画像を取得するステップ、
推定手段が、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定するステップ、
変換手段が、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行うステップ、及び、
抽出手段が、前記取得した画像内に撮像された顔の輪郭線を抽出するステップを含み、
前記推定手段が、さらに、推定した眼鏡のレンズ部分のうちから、眼鏡のレンズ中心に相当する位置を推定し、
前記変換手段が、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定し、拡大または縮小を行う際に、前記推定された眼鏡のレンズ中心に相当する位置を中心として放射状に、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う画像処理方法。
An obtaining means for obtaining an image of the face imaged;
An estimating means, if there is a lens part of the spectacles in the acquired image, estimating which pixel is in the lens part of the spectacles;
Transforming means for mapping the pixels in the estimated lens portion of the spectacles to pixels at other positions in the spectacle lens portion; and
The extracting means includes a step of extracting a contour of the face imaged in the acquired image;
The estimating means further estimates a position corresponding to the lens center of the glasses from the estimated lens portion of the glasses;
When the conversion means sets an enlargement or reduction ratio so that the extracted contour line is continued, and performs enlargement or reduction, the eyeglasses radially center around a position corresponding to the estimated lens center of the eyeglasses. An image processing method for performing conversion for mapping to pixels at other positions in the lens portion of the spectacles by enlarging or reducing the image portion in the lens portion.
取得手段が、顔が撮像された画像を取得するステップ、An obtaining means for obtaining an image of the face imaged;
推定手段が、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定するステップ、及び、The estimating means, if there is a lens part of the spectacles in the acquired image, estimating which pixel is in the lens part of the spectacles; and
変換手段が、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行うステップ、を含み、Converting means for mapping a pixel in the estimated lens portion of the spectacles to a pixel at another position in the spectacle lens portion;
前記変換を行うステップでは、前記画像に含まれる顔を正面向きに補正してから変換を行う画像処理方法。An image processing method for performing conversion after correcting a face included in the image in a front direction in the step of performing the conversion.
コンピュータを、
顔が撮像された画像を取得する取得手段、
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、及び、
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段として機能させ、
前記推定手段として機能させる際には、さらに、推定した眼鏡のレンズ部分のうちから、眼鏡のレンズ中心に相当する位置を推定させ、
前記変換手段として機能させる際には、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行わせ、当該変換手段として機能させる際には、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定させ、拡大または縮小を行う際に、前記推定された眼鏡のレンズ中心に相当する位置を中心として放射状に、拡大または縮小を行わせるプログラム。
Computer
Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles;
Conversion means for performing conversion to map pixels in the estimated lens portion of the spectacles to pixels at other positions in the lens portion of the spectacles; and
Function as an extracting means for extracting the contour line of the face imaged in the acquired image;
When functioning as the estimation means, further, from the estimated lens portion of the spectacles, the position corresponding to the lens center of the spectacles is estimated,
When functioning as the conversion means, by enlarging or reducing the image portion in the lens portion of the glasses, conversion is performed to map to pixels at other positions in the lens portion of the glasses, as the conversion means When functioning, the enlargement or reduction rate is set so that the extracted contour line is continuous, and when performing the enlargement or reduction, enlargement is performed radially around the position corresponding to the estimated lens center of the glasses. Or a program that causes reduction.
コンピュータを、Computer
顔が撮像された画像を取得する取得手段、Obtaining means for obtaining an image of a face imaged;
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、及び、If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles, and
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、として機能させ、Functioning as a conversion means for performing conversion to map the pixels in the estimated lens part of the spectacles to pixels at other positions in the lens part of the spectacles;
前記変換手段として機能させる際には、前記画像に含まれる顔を正面向きに補正してから変換を行わせるプログラム。A program for performing conversion after correcting a face included in the image to face forward when functioning as the conversion means.
JP2013262831A 2013-12-19 2013-12-19 Image processing apparatus, image processing method, and program Active JP6244885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013262831A JP6244885B2 (en) 2013-12-19 2013-12-19 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013262831A JP6244885B2 (en) 2013-12-19 2013-12-19 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015118617A JP2015118617A (en) 2015-06-25
JP6244885B2 true JP6244885B2 (en) 2017-12-13

Family

ID=53531256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013262831A Active JP6244885B2 (en) 2013-12-19 2013-12-19 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6244885B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6899097B2 (en) 2017-12-29 2021-07-07 京セラドキュメントソリューションズ株式会社 Image processing device, image processing method and image processing program
US11334972B2 (en) 2020-09-30 2022-05-17 Snap Inc. Eyewear distortion correction

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3456513B2 (en) * 1997-04-02 2003-10-14 日本電信電話株式会社 Face direction detection glasses and glasses-mounted face image simulation apparatus
JP2002056407A (en) * 2000-08-10 2002-02-22 Minolta Co Ltd Image generation system
JP2008250407A (en) * 2007-03-29 2008-10-16 Nikon Corp Image processing program and image processor
JP2015064768A (en) * 2013-09-25 2015-04-09 キヤノンマーケティングジャパン株式会社 Imaging device, image modification device, and control method and program of imaging device and image modification device

Also Published As

Publication number Publication date
JP2015118617A (en) 2015-06-25

Similar Documents

Publication Publication Date Title
US11250241B2 (en) Face image processing methods and apparatuses, and electronic devices
EP3323249B1 (en) Three dimensional content generating apparatus and three dimensional content generating method thereof
CN107507217B (en) Method and device for making certificate photo and storage medium
CN107507216B (en) Method and device for replacing local area in image and storage medium
CN108513668B (en) Picture processing method and device
US20210044794A1 (en) Gaze correction of multi-view images
CN107610202B (en) Face image replacement method, device and storage medium
US10706613B2 (en) Systems and methods for dynamic occlusion handling
CN107564080B (en) Face image replacement system
US9141873B2 (en) Apparatus for measuring three-dimensional position, method thereof, and program
JP5728080B2 (en) Wrinkle detection device, wrinkle detection method and program
JP7119907B2 (en) Training method and training device for face recognition model
JP5454737B2 (en) Wrinkle detection device, wrinkle detection method and program
CN108346130B (en) Image processing method and device and electronic equipment
CN106981078A (en) Sight bearing calibration, device, intelligent meeting terminal and storage medium
JP6855872B2 (en) Face recognition device
US11527026B2 (en) Body measurement device and method for controlling the same
US10902561B2 (en) Image processing apparatus, image processing method, and recording medium
JP6244885B2 (en) Image processing apparatus, image processing method, and program
WO2018220963A1 (en) Information processing device, information processing method, and program
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP2008250407A (en) Image processing program and image processor
JP2009251634A (en) Image processor, image processing method, and program
CN115761827A (en) Cosmetic progress detection method, device, equipment and storage medium
KR20170080112A (en) Cosmetic surgery system using depth face recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6244885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250