JP6244885B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6244885B2 JP6244885B2 JP2013262831A JP2013262831A JP6244885B2 JP 6244885 B2 JP6244885 B2 JP 6244885B2 JP 2013262831 A JP2013262831 A JP 2013262831A JP 2013262831 A JP2013262831 A JP 2013262831A JP 6244885 B2 JP6244885 B2 JP 6244885B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- spectacles
- lens
- conversion
- lens portion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 76
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 132
- 239000011521 glass Substances 0.000 claims description 42
- 210000001747 pupil Anatomy 0.000 claims description 40
- 230000009467 reduction Effects 0.000 claims description 23
- 238000013507 mapping Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 7
- 230000001815 facial effect Effects 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 84
- 230000008569 process Effects 0.000 description 50
- 238000001514 detection method Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 238000011946 reduction process Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241000270295 Serpentes Species 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Description
本発明は、顔を含む画像を処理する画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image including a face.
眼鏡着用者を撮影した画像では、眼鏡により着用者の顔輪郭が歪むため、着用者としては不本意な画像として撮影されてしまう場合がある。こうした現象を問題として認識し、眼鏡着用者の画像上での見栄えを向上するために、眼鏡により画像が不自然に見える歪み領域を推定し、仮想輪郭線を求め、肌色データで補完して周囲と馴染ませる技術がある(特許文献1)。 In an image obtained by photographing a spectacle wearer, the wearer's facial contour may be distorted by the spectacles, so that the wearer may be photographed as an unwilling image. In order to recognize such a phenomenon as a problem and improve the appearance of the spectacle wearer on the image, a distortion region where the image looks unnatural is estimated by the spectacles, a virtual contour is obtained, and the surrounding area is obtained by complementing with the skin color data. (Patent Document 1).
また、眼鏡の輪郭を判断する手法として、特許文献2に開示された方法がある。この方法では、顔輪郭のずれを検出して眼鏡の輪郭を判断している。
Moreover, as a method for determining the outline of the glasses, there is a method disclosed in
しかしながら、上記従来の画像処理技術では、輪郭線のみを補正して、個人を特徴づける瞳の間隔や目の大きさが、眼鏡着用時のままとなるので、却って不自然になる場合がある。さらに瞳の間隔等をパラメータとして用いる顔認識処理を行うことを想定すると、眼鏡着用時とそうでない場合とで認識結果に齟齬が生じる可能性があるが、上記従来の技術では、この問題を解消できない。 However, in the conventional image processing technique described above, only the contour line is corrected, and the distance between eyes and the size of the eyes that characterize an individual remain unchanged when wearing glasses, which may be unnatural. Furthermore, assuming that face recognition processing using the pupil distance as a parameter is performed, there is a possibility that the recognition result may be flawed when wearing glasses or not, but the above conventional technique solves this problem. Can not.
本発明は上記実情に鑑みて為されたもので、眼鏡着用者の顔画像の不自然さを解消する画像処理装置、画像処理方法、及びプログラムを提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing apparatus, an image processing method, and a program for eliminating the unnaturalness of the face image of a spectacle wearer.
上記従来例の問題点を解決するための本発明は、画像処理装置であって、顔が撮像された画像を取得する取得手段、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、及び、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、を含むこととしたものである。 The present invention for solving the problems of the above conventional example is an image processing apparatus, an acquisition means for acquiring an image of a face imaged, and if there is a lens portion of the glasses in the acquired image, the glasses An estimation means for estimating which pixel in the lens portion of the lens and the estimated pixel in the lens portion of the spectacles are mapped to a pixel at another position in the lens portion of the spectacles Conversion means.
ここでさらに、前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、前記推定手段は、当該抽出された顔の輪郭線を用いて、前記取得した画像内に眼鏡のレンズ部分があると判断されたときに、当該眼鏡のレンズ部分内の画素がどれであるかを推定することとしてもよい。 Here, the image processing apparatus further includes an extraction unit that extracts a contour line of a captured face in the acquired image, and the estimation unit uses the extracted face contour line in the acquired image. When it is determined that there is a lens portion, it may be estimated which pixel is in the lens portion of the spectacles.
また前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、前記変換手段は、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行い、当該変換手段は、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定することとしてもよい。 Further, the image processing apparatus includes an extraction unit that extracts a contour line of a captured face in the acquired image, and the conversion unit enlarges or reduces an image part in the lens part of the spectacles. Conversion that maps to pixels at other positions may be performed, and the conversion means may set an enlargement or reduction ratio so that the extracted contour lines are continuous.
前記推定手段は、さらに、推定した眼鏡のレンズ部分のうちから、眼鏡のレンズ中心に相当する位置を推定し、前記変換手段は、拡大または縮小を行う際に、前記推定された眼鏡のレンズ中心に相当する位置を中心として放射状に、拡大または縮小を行うこととしてもよい。 The estimation means further estimates a position corresponding to the lens center of the spectacles from the estimated lens portion of the spectacles, and the conversion means performs the enlargement or reduction of the estimated lens center of the spectacles. It is good also as enlarging or shrinking radially centering on the position corresponding to.
さらに、前記顔の部分のうちから、瞳の画像部分を検出する手段をさらに含み、前記変換手段は、拡大または縮小を行う際に、前記検出された瞳の画像部分の中心に相当する位置を中心として放射状に、拡大または縮小を行うこととしてもよい。 Further, the image processing apparatus further includes means for detecting an image part of a pupil from the face part, and the conversion means determines a position corresponding to the center of the detected image part of the pupil when performing enlargement or reduction. The enlargement or reduction may be performed radially as the center.
また眼鏡のレンズの種類ごとに、当該レンズ部分内の像の写像に係るパラメータである変換テーブルデータを取得する手段をさらに含み、前記変換手段は、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズの種類に対応する前記変換テーブルデータを用いて、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行うこととしてもよい。 Each of the spectacle lenses further includes means for obtaining conversion table data, which is a parameter relating to mapping of the image in the lens portion, and the conversion means calculates the estimated pixels in the spectacle lens portion. The conversion table data corresponding to the lens type of the spectacles may be used to perform conversion that maps to pixels at other positions in the lens portion of the spectacles.
さらに前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、前記変換手段は、前記眼鏡のレンズの種類に対応する変換テーブルデータとして、前記取得した変換テーブルデータのうち、前記抽出した輪郭線が連続となると判断される変換テーブルデータを選択して用いることとしてもよい。さらに前記変換手段は、前記画像に含まれる顔を正面向きに補正してから変換を行ってもよい。 In addition, the image processing apparatus further includes an extraction unit that extracts a contour line of a captured face in the acquired image, and the conversion unit includes, as conversion table data corresponding to a lens type of the glasses, It is also possible to select and use conversion table data for which the extracted contour line is determined to be continuous. Further, the conversion means may perform conversion after correcting the face included in the image to face forward.
また本発明の一態様に係る画像処理方法は、変換手段が、顔が撮像された画像を取得するステップ、推定手段が、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定するステップ、及び、変換手段が、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行うステップを含む。 The image processing method according to one aspect of the present invention includes a step in which the conversion unit acquires an image in which a face is captured, and the estimation unit has a lens part of the glasses if the acquired image has a lens portion. Estimating which pixel in the portion is, and converting means for converting the estimated pixel in the lens portion of the spectacles to a pixel in another position in the lens portion of the spectacles. Steps to perform.
また本発明のさらに別の態様に係るプログラムは、コンピュータを、顔が撮像された画像を取得する取得手段、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、及び、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、として機能させる。 According to still another aspect of the present invention, there is provided a program for acquiring an image obtained by capturing an image of a face, a pixel in a lens portion of the spectacles if the acquired image includes a lens portion of the spectacles. And a conversion unit that performs conversion for mapping a pixel in the lens part of the spectacles to a pixel at another position in the lens part of the spectacles. .
本発明によると、眼鏡着用者の顔画像の不自然さを解消できる。 According to the present invention, the unnaturalness of the face image of the spectacle wearer can be eliminated.
本発明の実施の形態について図面を参照しながら説明する。本実施の形態に係る画像処理装置1は、図1に例示するように、制御部11と、記憶部12と、操作部13と、表示部14と、入出力部15とを含んで構成される。
Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the
本実施の形態の制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、この制御部11は、顔が撮像された画像の情報を取得し、当該取得した画像情報内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する。そしてこの制御部11は、推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う。この制御部11の詳しい処理の内容については後に述べる。
The
記憶部12は、メモリデバイスや、ディスクデバイスを含んで構成される。この記憶部12には、制御部11によって実行されるプログラムが保持される。このプログラムは、DVD−ROM等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。また、このプログラムは、ネットワークを介して配信され、この記憶部12に格納されたものであってもよい。
The
本実施の形態の一例では、記憶部12には、制御部11の処理の対象となる画像情報が格納される。またこの記憶部12は、制御部11のワークメモリとしても動作する。
In an example of the present embodiment, the
操作部13は、キーパッド等であり、利用者の指示操作を受け入れて制御部11に出力する。表示部14は、例えば制御部11から入力される指示に従って表示するべき画像を表すテレビジョン信号を生成して出力する信号生成部である。またこの表示部14は、液晶ディスプレイ等を含み、制御部11から入力される画像を表示するものであってもよい。
The
入出力部15は、例えばネットワークインタフェース等であり、制御部11から入力される指示に従い、ネットワークを介して送信される情報を受信して制御部11に出力する。またこの入出力部15は、メモリカードリーダを含んでもよい。この場合、入出力部15は、例えば挿入されたメモリカードから画像情報等を読み出して制御部11に出力する。
The input /
本実施の形態の一例において制御部11は、機能的には、図2に例示するように、画像取得部21と、推定部22と、変換部23とを含んで構成される。画像取得部21は、入出力部15または記憶部12から顔が撮像された画像の情報を取得する。顔が撮像された画像は、例えば記憶部12に蓄積された画像情報のうちから、操作部13に対する利用者の指示操作により顔の撮像された画像情報を選択して読み出すこととすればよい。
In an example of the present embodiment, the
推定部22は、画像取得部21が取得した画像情報を処理対象として、この処理対象の画像情報のうちから眼鏡のレンズ部分内の画素がどれであるかを推定する。なお、この推定部22は、眼鏡のレンズ部分内の画素と推定される部分がなければ(レンズ部分がないと判断されると)、処理を終了する。また変換部23は、推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う。これら推定部22及び変換部23の具体的な処理の内容を次に、いくつかの例とともに説明する。
The
[レンズ部分を輪郭線の不連続点で推測する例]
一例としてこの推定部22は、次のようにして眼鏡のレンズ部分内の画素がどれであるかを推定する。すなわち本実施の形態の一例に係る推定部22は、処理対象となった画像情報のうちから人物の顔として認識される部分を抽出する。この処理は広く知られた顔認識処理を適用できる。
[Example in which the lens part is inferred from the discontinuity of the contour line]
As an example, the
以下の説明で推定部22と変換部23とは、この抽出した部分ごと(顔画像ごと)に処理を行う。なお、ここでは簡単のため、顔画像がひとつだけの場合を例として説明するが、顔が複数あれば、以下の処理を、顔ごとに繰返して行えばよい。
In the following description, the
推定部22は、抽出した顔画像部分のうちから、瞳の位置を表す情報、顔の上下方向を表す情報、顔面を通る正中線(頭部と矢状面との交差する線)を表す情報など、顔を特徴づける情報を生成する。以下ではこの正中線に平行な軸をY軸とする。Y軸は顔の上方向を正の方向とする。またY軸に直交し、顔の右側(顔に向って右側)を正の方向とする軸をX軸とする。各軸の原点は、例えば左右の瞳の位置を結ぶ線分と、正中線との交点などとして適宜定める。そして瞳の位置などの情報は、このXY直交軸の座標として表しておくこととする。
The
本実施の形態のある例に係る推定部22は、抽出した顔画像部分から、さらに顔の輪郭線を抽出する。すなわちこの例の推定部22は、本発明の抽出手段としても動作する。顔の輪郭線を抽出する処理については、Cannyのエッジ検出法等、広く知られた方法があるのでここでの詳しい説明は省略する。
The
推定部22は、抽出した輪郭線が不連続となる部分があるか否かを調べる。具体的にこの推定部22は、抽出された輪郭線上に複数の点を設定する。一般に輪郭線は閉曲線となるので、当該閉曲線の内側に一点をとり(顔の中心でよい)、この一点から所定角度ごとに放射状に仮想的な線分を複数引いて、各線分と輪郭線との各交点を得て、これらの交点を、上記複数の点として設定すればよい。
The
推定部22は、当該輪郭線上に設定した複数の点に対して少なくとも一つ(一般には複数)のBスプライン曲線(複数ある場合はBスプライン曲線群)により輪郭線を表す曲線を生成するカーブフィッティングの処理を行う。このとき、カーブフィッティングの処理に用いる点の組を異ならせつつ、Bスプライン曲線群の組の候補を複数組得ておき、各組について予め定めた情報量基準等によりフィッティングの評価を行う。そして最も評価の高いBスプライン曲線群の組を参照し、当該組に含まれるBスプライン曲線群のうちに、同じ点を端点(節点)とする一対のBスプライン曲線があれば、当該一対のBスプライン曲線のうち、X軸方向の長さよりもY軸方向の長さの長いもの(Bスプライン曲線の両端点のY座標成分の差の絶対値がX座標成分の差の絶対値より大きいもの)を選択する。そしてこの選択したBスプライン曲線のうち、他方のBスプライン曲線と同じ位置にある節点の位置で輪郭線が不連続となっていると推定し、当該節点の座標を不連続の点(不連続点)の座標として記憶する。
The
ここで本来輪郭線は閉曲線であるため、上記の選択されたBスプライン曲線β1で不連続点が見出された場合、当該選択されたBスプライン曲線β1と同じ不連続点の節点(一方側端とする)を持つ他のBスプライン曲線β2の他方側端もまた、不連続点であることとなる。つまりBスプライン曲線β2は両端が不連続点となる。そしてこのBスプライン曲線β2の他方側端と同じ不連続点の節点を持つ、さらに他のBスプライン曲線β3を、「隣接すべきBスプライン曲線」と呼ぶ。そして推定部22は、ある選択されたBスプライン曲線における不連続点と、それに隣接すべきBスプライン曲線における不連続点であって、これらの不連続点が、両端が不連続点となる別のBスプライン曲線で結ばれている不連続点同士を組(ペア)として、それぞれの座標を記憶しておく。またこのとき不連続点を含み、上記のように選択されるBスプライン曲線には、図3に例示するように、
(1)不連続点を含むBスプライン曲線であって、当該不連続点のY座標が瞳の位置EのY座標より大きく、かつ他の端点のY座標が不連続点のY座標より大きい(B1)
(2)不連続点を含むBスプライン曲線であって、当該不連続点のY座標が瞳の位置EのY座標より大きく、かつ他の端点のY座標が不連続点のY座標より小さい(B2)
(3)不連続点を含むBスプライン曲線であって、当該不連続点のY座標が瞳の位置EのY座標より小さく、かつ他の端点のY座標が不連続点のY座標より大きい(B3)
(4)不連続点を含むBスプライン曲線であって、当該不連続点のY座標が瞳の位置EのY座標より小さく、かつ他の端点のY座標が不連続点のY座標より小さい(B4)
の4通りの場合がある。そしてB1のBスプライン曲線に含まれる不連続点については外側不連続点、B2のBスプライン曲線に含まれる不連続点については内側不連続点、B3のBスプライン曲線に含まれる不連続点については内側不連続点、B4のBスプライン曲線に含まれる不連続点については外側不連続点であるとの属性情報を関連付けておく。上記記憶される組に含まれる不連続点の座標は、いずれか一方が外側不連続点の座標となり、他方が内側不連続点の座標となる。
Here, since the contour line is originally a closed curve, when a discontinuous point is found in the selected B-spline curve β1, the node of the same discontinuous point as the selected B-spline curve β1 (one side end) The other side end of the other B-spline curve β2 having the above is also a discontinuous point. That is, both ends of the B-spline curve β2 are discontinuous points. Further, another B spline curve β3 having the same discontinuous node as the other end of the B spline curve β2 is referred to as a “B spline curve to be adjacent”. Then, the
(1) A B-spline curve including discontinuous points, where the Y coordinate of the discontinuous point is larger than the Y coordinate of the pupil position E, and the Y coordinate of the other end point is larger than the Y coordinate of the discontinuous point ( B1)
(2) A B-spline curve including discontinuous points, where the Y coordinate of the discontinuous point is larger than the Y coordinate of the pupil position E, and the Y coordinates of the other end points are smaller than the Y coordinate of the discontinuous point ( B2)
(3) A B-spline curve including a discontinuous point, where the Y coordinate of the discontinuous point is smaller than the Y coordinate of the pupil position E, and the Y coordinate of the other end point is larger than the Y coordinate of the discontinuous point ( B3)
(4) A B-spline curve including discontinuous points, where the Y coordinate of the discontinuous point is smaller than the Y coordinate of the pupil position E, and the Y coordinates of the other end points are smaller than the Y coordinate of the discontinuous point ( B4)
There are four cases. The discontinuous points included in the B1 B spline curve are the outer discontinuous points, the discontinuous points included in the B2 B spline curve are the inner discontinuous points, and the discontinuous points included in the B3 B spline curve. The inner discontinuous point and the discontinuous points included in the B4 B-spline curve are associated with attribute information indicating that they are outer discontinuous points. One of the coordinates of the discontinuous points included in the stored set is the coordinate of the outer discontinuous point, and the other is the coordinate of the inner discontinuous point.
なお、Bスプライン曲線を利用した不連続点の検出方法は、井元,小西,「Bスプラインによる不連続曲線推定と変化点探索」,広島大学における講演録(http://bonsai.hgc.jp/~imoto/imoto_hiroshima2000.pdf)に記載された、広く知られた方法であるので、ここでのより詳しい説明は省略する。 Discontinuity detection methods using B-spline curves are described in Imoto, Konishi, “Discontinuous curve estimation and change point search using B-splines”, Hiroshima University lecture (http://bonsai.hgc.jp/ ~ imoto / imoto_hiroshima2000.pdf), which is a well-known method, so a more detailed explanation is omitted here.
またここでは輪郭線の検出にエッジ検出を用い、不連続点の検出にBスプラインを用いる方法を例示したが、本実施の形態における顔の輪郭線検出と、その不連続点の検出法は、他の方法であっても構わない。 In addition, here, the edge detection is used for the detection of the contour line, and the method using the B spline for the detection of the discontinuous point is exemplified. However, the detection of the contour line of the face and the detection method of the discontinuous point in the present embodiment are Other methods may be used.
推定部22は、例えば上記の処理により検出した不連続点がある場合に、当該不連続点の位置にレンズフレームのある眼鏡が着用された顔であるとして、当該不連続点の位置を表す情報を出力する。なお、眼鏡は通常、目の周辺にあることを考慮して、推定部22は、顔のうちから目を検出し(目の検出処理も広く知られた方法があるので、ここでの詳しい説明を省略する)、検出した目の位置を中心として予め定めた半径の範囲に、不連続点が検出された場合に、当該不連続点の位置にレンズフレームのある眼鏡が着用された顔であるとして不連続点の位置を表す情報を出力してもよい。
For example, when there is a discontinuous point detected by the above processing, the
ここまでの処理により、具体的には、図4(a)に例示するように、眼鏡のレンズにより不連続となった輪郭線上の点(不連続点)101が一般に複数組検出される。図4(a)では、眼鏡のレンズフレームの外側の輪郭線部分に相当する、端点101bを含むBスプライン曲線β1と、端点101bと端点101aとを結ぶBスプライン曲線β2と、端点101aと端点101cとを結ぶ(眼鏡のレンズフレームの内側の輪郭線部分を表す)Bスプライン曲線β3とが検出される。そしてこれらのうちY軸方向の長さがX軸方向の長さより長い、Bスプライン曲線β1,β3が選択され、それぞれにおける不連続点101b,101a,101c…が見出される。また、この選択されたBスプライン曲線における不連続点と他の端点との関係から、不連続点101bが外側不連続点とされ、不連続点101a,cが内側不連続点とされる。さらに互いに隣接するべきBスプライン曲線β1,β3における不連続点101a,bは、両端が不連続点であるBスプライン曲線β2によって結ばれているので、推定部22は、これらの不連続点101a,bの各座標を組として記憶することとなる。以下同様にして、推定部22はこれらの不連続点101a,b,…,p,q…(図4(a)の例では不連続点101a,bの座標が組として記憶されている)と、先に特定した左右の瞳の位置102L,102Rとを用いて、例えば次の処理によりレンズ部分内の画素がどれであるかを推定する。
Specifically, as illustrated in FIG. 4A, a plurality of sets of points (discontinuous points) 101 on the contour line that are discontinuous by the spectacle lens are generally detected by the processing so far. In FIG. 4A, the B-spline curve β1 including the
すなわちある例に係る推定部22は、検出された顔の正中線より左側(X軸負の方向)にある瞳の位置102Lと、当該瞳の位置102Lよりもさらに左側(X軸負の方向)にある、不連続点101a,b…とに外接する矩形103Lを得る。また推定部22は、検出された顔の正中線より右側(X軸正の方向)にある瞳の位置102Rと、当該瞳の位置102Rよりもさらに右側(X軸正の方向)にある、不連続点101p,q…とに外接する矩形103Rを得る。
That is, the
また、本実施の形態の別の例に係る推定部22では、検出された顔の正中線より左側にある瞳の位置102Lを含む目の範囲(顔認識時の処理においてこの範囲を検出しておけばよい)を特定し、この目の範囲の右端側(目の正中線側の端)よりも正中線側に予め定めた方法で定めた距離だけ離れた位置にある点Aを求める。この予め定めた方法には、予め距離を定数として定めておく方法のほか、目の範囲の右端側から正中線までの距離に所定の定数(1未満の定数)を乗じた値などとしておく方法があり得る。
推定部22は、そして、この点Aと、瞳の位置102Lよりもさらに左側にある、不連続点101a,b…とに外接する矩形103Lを得ることとしてもよい。
この例では推定部22は、検出された顔の正中線より右側にある瞳の位置102Rを含む目の範囲を特定し、この目の範囲の左端側(目の正中線側の端)よりも正中線側に予め定めた方法で定めた距離だけ離れた位置にある点A′を、先と同様の方法で求める。
推定部22は、そして、この点A′と、瞳の位置102Rよりもさらに右側にある、不連続点101p,q…とに外接する矩形103Rを得ることとしてもよい。
本発明の実施の形態のさらに別の例に係る推定部22では、さらに、図4(b)に例示するように、検出された顔の正中線より左側にある瞳の位置102Lを通り正中線に平行な線分lを用い、この線分lについて不連続点101a,b…と線対称な位置にある点101a′,101b′…を求めてもよい。そしてこの例の推定部22は、不連続点101a,b…と、これら求められた点101a′,101b′…に外接する矩形103Lを得ることとしてもよい。
この例の推定部22は、また、検出された顔の正中線より右側にある瞳の位置102Rを通り正中線に平行な線分l′を用い、この線分l′について不連続点101p,q…と線対称な位置にある点101p′,101q′…を求めてもよい。そしてこの例の推定部22は、不連続点101p,q…と、これら求められた点101p′,101q′…に外接する矩形103Rを得ることとしてもよい。
そして本実施の形態の推定部22は、ここに例示したいずれかの方法等により得た矩形103L,Rを特定する情報(例えば矩形103L,Rのそれぞれの頂点座標の組)を、レンズ部分を表す情報(レンズ部分内の画素を画定する情報)として出力する。またこのとき推定部22は、瞳の位置102L,Rと、不連続点101a,b,…p,q,…の位置座標を表す情報も併せて出力してもよい。
In addition, the
The
In this example, the
The
In the
The
Then, the
変換部23は、推定部22により推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う。具体的にある例に係る変換部23は、推定部22が出力する情報で特定される矩形103L,Rの各々について、当該矩形内にある瞳の位置102と、当該矩形内にある不連続点101の座標の組とを用い、次のような処理を実行する。
The
変換部23は、不連続点101の座標の組ごとに、当該組に含まれる、内側不連続点の属性情報が関連付けられた不連続点101iと、外側不連続点の属性情報が関連付けられた不連続点101eと、瞳の位置102との間の距離(ユークリッド距離でよい)をそれぞれdi,deとして演算する。またその比m=de/di(拡縮率に相当する)を算出する。
For each set of coordinates of the discontinuous point 101, the
そして変換部23は、眼鏡のレンズ部分内にあると推定された画素について、瞳の位置を中心として、距離m倍の位置に変倍する拡縮処理を実行する。具体的に変換部23は、矩形103等、眼鏡のレンズ部分内の画素塊(元の画素塊)と同形状、同サイズの画素塊(変換後画素塊)を記憶部12内に仮想的に生成し、この変換後画素塊の各画素を順次注目画素として選択して、瞳の位置から注目画素までの距離dと方向(X軸からの角度などでよい)を算出する。そして変換部23は、元の画素塊において、瞳の位置から同じ方向に向ってd/mの距離にある画素の値を、注目画素の値として設定する。または、変換部23は注目画素の値を、瞳の位置から同じ方向に向ってd/mの距離の点近傍にある複数画素の平均(上記点と各画素中心までの距離により重み付けを行ってもよい)の値に設定する。変換後画素塊内のすべての画素値の設定が終了すると、変換部23は、この変換後画素塊内の各画素の値を、元の画素塊内の対応する各画素の値に複写して処理を終了する。
Then, the
これにより、レンズにより歪んで撮像された顔の一部が、瞳の位置を中心として放射状に拡大縮小され、レンズがない場合に撮像されていたと推定される画像に近似した画像が得られる。 As a result, a part of the face imaged in a distorted manner by the lens is enlarged / reduced radially around the pupil position, and an image approximate to an image estimated to have been imaged without the lens is obtained.
[瞳中心ではなくレンズ中心を推定して処理する例]
また、上述の例では、瞳の位置を中心として拡縮処理を実行していたが、本実施の形態はこれに限られず、レンズの中心を、拡縮処理の中心としてもよい。この場合、推定部22は眼鏡のフレーム(リム、ブリッジ、ヨロイ等の各部)を顔画像部分のうちから検出する。この検出の処理については、齋藤康之, 剣持雪子,小谷一孔,「パラメトリックな眼鏡フレームモデルを用いた顔画像内の眼鏡フレーム領域の抽出と除去」,電子情報通信学会論文誌 D, J82-D2(5): 880-890, 1999(特に同論文における図4の眼鏡フレーム抽出の処理)に記載された方法など、広く知られた方法を採用できるので、ここでの詳しい説明を省略する。
[Example of processing by estimating the lens center instead of the pupil center]
In the above example, the enlargement / reduction process is executed with the pupil position as the center. However, the present embodiment is not limited to this, and the center of the lens may be the center of the enlargement / reduction process. In this case, the
推定部22は、検出した眼鏡のフレームからレンズ部分内の画素がどれであるかを推定し、レンズの中心の座標を演算する。具体的に眼鏡のフレームには、リムがレンズ全体を取り囲んでいるフルリム、レンズの上部(または下部)等の一部にのみリムが配されるハーフリム、リムのないツーポイント等のタイプがある。ただしブリッジ及びヨロイのない眼鏡は一般には利用されていないので、推定部22は眼鏡のフレームのうち、ブリッジ及びヨロイ(智)の端部(レンズのX軸方向の両端部に相当する)については、必ずその座標情報を得ることとなる。
The
以下では推定部22による、フルリム、ハーフリム、ツーポイントの各種フレームの場合のレンズ部分内の画素がどれであるかを推定する処理について説明する。
Below, the process which estimates the pixel in the lens part in the case of various frames of a full rim, a half rim, and a two-point by the
(a)フルリムの場合
フルリムの場合、推定部22は上述に例示した方法によりリムの輪郭上の各画素の座標を得ることができる。このリムの輪郭がそのままレンズ部分の外周輪郭と推定でき、当該リムの輪郭上の各画素で囲まれる範囲内の画素がレンズ部分内の画素と推定される。そこで推定部22は、このリムの輪郭上の各画素の座標の平均(算術平均でよい)を演算し、当該演算の結果を、レンズの中心の座標とすればよい。
(A) In the case of a full rim In the case of a full rim, the
(b)ハーフリムの場合
ハーフリムの場合、推定部22は上述に例示した方法によりリムの輪郭上の一部の画素の座標を得ることができる。この例では推定部22はまた、上述の通り、顔輪郭の不連続点を検出する。すると、リムの輪郭上の一部の画素の座標、ブリッジ及びヨロイの端部の座標、並びに不連続点の座標を得ることとなる。
(B) In the case of a half rim In the case of a half rim, the
これらの各座標はいずれもレンズの外周部にあると考えられるので、推定部22は、例えばSnakes曲線等のカーブフィッティング技術を用いて、これらの座標を含む輪郭線を形成し、この形成した輪郭線がレンズ部分の外周輪郭であるとして処理を行う。すなわちこの例では、推定部22は、形成した輪郭線上の各画素の座標の平均(算術平均でよい)を演算し、当該演算の結果を、レンズの中心の座標とすればよい。
Since each of these coordinates is considered to be in the outer peripheral portion of the lens, the
(c)ツーポイントの場合
ツーポイント等、リムのない眼鏡の場合、推定部22はまた、上述の通り、顔輪郭の不連続点を検出する。そして推定部22は、ブリッジ及びヨロイ(智)の端部、並びに不連続点の座標を得ることとなる。これらの各座標はいずれもレンズの外周部にあると考えられるので、推定部22は、例えばSnakes曲線等のカーブフィッティング技術を用いて、これらの座標を含む輪郭線を形成し、この形成した輪郭線がレンズ部分の外周輪郭であるとして処理を行う。すなわちこの例では、推定部22は、形成した輪郭線上の各画素の座標の平均(算術平均でよい)を演算し、当該演算の結果を、レンズの中心の座標とすればよい。または推定部22は、得られたブリッジ及びヨロイ(智)の端部、並びに不連続点の座標に外接する矩形を求め、この矩形がレンズ部分の外周輪郭であるとして処理を行う。すなわちこの例では、推定部22は、求めた矩形の中心座標(対角線の交点)を演算し、当該演算の結果を、レンズの中心の座標とすればよい。
(C) In the case of two points In the case of glasses without a rim such as two points, the
推定部22は、以上の処理により求められたレンズ部分の外周輪郭を特定する情報と、レンズ部分の中心の座標とを出力する。
The
変換部23は、推定部22が出力する情報で特定されるレンズ部分の外周輪郭内(レンズ部分内)の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う。具体的に変換部23は、図5に例示するように、推定部22により得られた不連続点101の座標の組ごとに、当該組に含まれる、内側不連続点の属性情報が関連付けられた不連続点101iと、外側不連続点の属性情報が関連付けられた不連続点101eと、レンズの中心104の座標との間の距離(ユークリッド距離でよい)をそれぞれdi,deとして演算する。またその比m=de/di(拡縮率に相当する)を算出する。
The
そして変換部23は、推定部22が出力する情報で特定されるレンズ部分の外周輪郭内(レンズ部分内)の各画素について、レンズの中心104の座標を中心として、距離m倍の位置に変倍する拡縮処理を実行する。具体的に変換部23は、推定部22が出力する情報で特定されるレンズ部分の外周輪郭内の画素塊と同じ形状の画素塊を記憶部12内に仮想的に生成する。そして変換部23は、この仮想的に生成した画素塊内の各画素を順次注目画素として選択して、レンズの中心104に対応する画素から注目画素までの距離dならびに方向(X軸からの角度等でよい)を算出する。そして変換部23は、元の顔画像内の画素塊において、レンズの中心104から上記の方向に向ってd/mの距離にある画素の値を、注目画素の値として設定する。または、変換部23は注目画素の値を、レンズの中心104から上記の方向に向ってd/mの距離の点近傍にある複数画素の平均(上記点と各画素中心までの距離により重み付けを行ってもよい)の値に設定する。仮想的に生成した画素塊内のすべての画素値の設定が終了すると、変換部23は、この画素塊の各画素の値を、元の顔画像内の対応する各画素の値に複写して処理を終了する。
Then, the
これにより、レンズにより歪んで撮像された顔の一部が、レンズの中心104を中心として放射状に拡大縮小され、レンズがない場合に撮像されていたと推定される画像に近似した画像が得られる。
As a result, a part of the face imaged in a distorted manner by the lens is enlarged and reduced radially around the
[レンズ部分検出のさらに別の例]
また本実施の形態の別の例では、推定部22がレンズ部分内の画素がどれであるかを推定する処理として、顔部分の各画素の明度の情報を生成し、隣接画素の明度との差が予め定めたしきい値を超える部分を色味のエッジとして検出することで、瞳の位置周辺で当該エッジを検出した画素間をカーブフィッティングして、レンズ部分内の画素がどれであるかを推定することとしてもよい。この場合、フレームの検出は必ずしも必要ではない。
[Another example of lens part detection]
In another example of the present embodiment, as processing for estimating which pixel in the lens portion is the
なお、ここまでの説明において推定部22がレンズ部分内の画素がどれであるかを推定する処理として、顔の輪郭線の不連続点を見出して用いる方法と、眼鏡のフレームを検出する方法と、画素の明度差を用いる方法とを説明したが、これらはそれぞれ単独で用いるだけでなく、組み合せて用いられてもよい。すなわち、いずれかの方法でレンズ部分内にあるとされた画素のすべてをレンズ部分内の画素であると推定することとしてもよいし、いずれか複数の方法で(あるいはすべての方法で)レンズ部分内にあるとされた画素のすべてをレンズ部分内の画素と推定することとしてもよい。
In the description so far, as a process in which the
[変換処理の別の例]
さらに本実施の形態の一例において、変換部23は、上述のようにレンズ部分とされた画像部分の内部で拡大縮小処理を行うのではなく、次のように処理を行ってもよい。
[Another example of conversion processing]
Furthermore, in an example of the present embodiment, the
すなわち本実施の形態の別の例においては、記憶部12に、予め、眼鏡のレンズの種類(レンズの「度」や、乱視矯正の有無などで種類が相違する)ごとに、当該レンズ部分内の像の写像に係るパラメータである変換テーブルデータを関連付けて記憶しておく(図6)。ここで変換テーブルデータは、図7に例示するように、N×M(N,Mはそれぞれ正の整数)個の二次元座標情報(dest)を含んでなる。具体的に図7に例示した変換テーブルデータでは、二次元座標情報(dest)においては、左上隅から右へi個、下へj個(ただしi≦N,j≦M)だけ移動した位置にある画素の座標情報((i,j)の位置の座標情報)が例えば(i′,j′)というように設定されている。これは、元の画像において(i′,j′)の位置にある画素を、この(i,j)の位置に移動することを意味する。
That is, in another example of the present embodiment, the
変換部23は、変換を行う際には、この二次元座標情報(dest)の中心(予めどの画素が中心の画素であるかを定めておくか、あるいは(N/2,M/2)の位置の画素を中心とすればよい)と、推定部22が推定したレンズ部分の中心の座標とを一致させる。そして変換部23は、推定部22が推定したレンズ部分に含まれる各画素に対応する、二次元座標情報(dest)上の値を参照して、画素値を写像したレンズ部分内の画像を生成し、元の画像内のレンズ部分内の各画素の値を当該生成した画像の対応する画素の値で置き換える。
この処理を模式的に図8を用いて説明すると、次のようになる。図8では、元のレンズ部分内の画像に対応するものとして3×3の画素があるとし、左上から右下に向って各画素値がA,B,…,Iとなっているものとする。なお、その中心は2行2列目の位置の画素とする。またここでは元の画素塊内のη行ξ列目の画素値を複写することを(ξ,η)と表すこととし、5×3画素分の二次元座標情報(dest)として、左上から右へ(1,1)、(3,1)、(3,1)、(3,1)、(5,1)一行下へ行って再び左端から(1,2)、(3,2)、(3,2)、(3,2)、(5,2)さらに次の行で左端から(1,3)、(3,3)、(3,3)、(3,3)、(5,3)となっているものとする。なお、5×3画素分の二次元座標情報(dest)の中心は2行3列目の位置の画素とする。 This process is schematically described with reference to FIG. In FIG. 8, it is assumed that there are 3 × 3 pixels corresponding to the image in the original lens portion, and the pixel values are A, B,..., I from the upper left to the lower right. . The center is the pixel at the position of the second row and the second column. Also, here, copying the pixel value of the η-th row ξ-column in the original pixel block is expressed as (ξ, η), and as 2D coordinate information (dest) for 5 × 3 pixels, from the upper left to the right Go to (1,1), (3,1), (3,1), (3,1), (5,1) down one line and again from the left end to (1,2), (3,2), (3,2), (3,2), (5,2) and (1,3), (3,3), (3,3), (3,3), (5) , 3). The center of the two-dimensional coordinate information (dest) for 5 × 3 pixels is the pixel at the position of the second row and the third column.
この場合、変換部23は、元のレンズ部分の画像と同じ形状の3×3の画像を新たに生成する(その中心を元の画像と同じ2行2列目とする)。そしてこの生成した画像における1行1列目の位置の画素を注目画素とする。変換部23は、二次元座標情報(dest)の中心である2行3列目を当該生成した画像の中心である2行2列目に一致させたときに、二次元座標情報(dest)上で注目画素に対応する画素を見出す。この場合、中心2行3列目から左列へ1,上行へ1画素だけ移動した画素である1行2列目が対応する画素であるので、その値(3,1)を読み出す。この位置(3,1)、つまり1行3列目は、元のレンズ部分の画像における1行2列目の画素(画素値がBの画素)に対応する。
In this case, the
そして変換部23は、生成した画像の1行1列目の位置の画素値を、元のレンズ部分の画像において対応する1行2列目の位置の画素値「B」に設定する。
Then, the
以下、変換部23は同様の手順により、1行2列目の位置の画素値を、元のレンズ部分の画像における1行2列目の画素値「B」に設定し、1行3列目の位置の画素値を、元のレンズ部分の画像における1行2列目の画素値「B」に設定し…というようにそれぞれ画素値を設定していく。こうして元のレンズ部分画像と同じ形状の3×3画素の各画素の設定が終了すると、変換部23は、この画素の設定を行った画像を、元のレンズ部分画像に置き換える。この例では、レンズ部分内の画像は各行の画素がそれぞれ「B」,「E」,「H」となった状態に置き換えられる。
Thereafter, the
また、ここでは対応する画素を直接記述する方法を採用したが、本実施の形態はこれに限られない。いわゆる変換行列(アフィン変換行列や、透視変換行列等)が生成できるのであれば変換行列を生成して、当該変換行列を変換テーブルデータとして、レンズの種類ごとに記憶部12に格納しておいてもよい。変換部23は、この場合に変換を行うときには、変換行列を用いてレンズ部分内の画像を写像する。この処理は、例えばOpenCV等において、remap関数による処理等として広く知られているので詳しい説明は省略する。
In addition, although a method of directly describing the corresponding pixel is adopted here, the present embodiment is not limited to this. If a so-called transformation matrix (affine transformation matrix, perspective transformation matrix, etc.) can be generated, a transformation matrix is generated, and the transformation matrix is stored in the
このような例による変換部23を用いるときには、変換部23は、記憶部12に格納されている、各レンズ種類に対応する変換テーブルデータを順次読み出して、レンズ部分内の画像をそれぞれの変換テーブルデータを用いて変換した後の画像を生成する。そして各生成した画像のうち、推定部22にて推定した各組ごとの、2つの不連続点に対応する画素の位置の差が最も小さくなる画像を選択して、元のレンズ部分内の画像を、当該選択した画像で置き換えればよい。つまり、抽出した輪郭線が連続となると判断される変換テーブルデータを選択して用いるようにすればよい。
また変換テーブルデータはさらに、眼鏡のレンズの種類ごと、かつ顔の向きごとに用意されてもよい。この例では、変換部23は、顔画像部分を検出したときの当該顔画像部分の角度の情報を取得する。この角度の情報の取得には例えば鼻の位置等により検出する方法等、広く知られた方法を採用すればよい。
変換部23は、当該取得した角度に対応する、各眼鏡のレンズの種類ごとの変換テーブルデータから、抽出した輪郭線が連続となると判断される変換テーブルデータを選択することとすればよい。
When the
Further, the conversion table data may be prepared for each type of eyeglass lens and for each face direction. In this example, the
The
この例によると、単純な拡大縮小に限られない変換が可能となるので、例えば遠近両用の眼鏡など複雑な像の歪みが生じ得る眼鏡にも対応が可能になる。また、変換テーブルデータの選択により、対応する眼鏡のレンズの種類が推定できるようになり、このレンズ種類の推定結果もまた、別の処理に利用可能となる。
また、変換テーブルデータの選択においては、予め人物ごとに、当該人物を特定する情報に関連付けて、当該人物が着用している眼鏡のレンズに対応する変換テーブルデータを関連付けて保持しておいてもよい。この例によれば、上記方法で変換テーブルデータを選択したときに、当該選択したテーブルデータに関連付けた情報を出力することで、当該情報により人物を特定するといった処理が可能となる。
あるいは、本実施の形態の画像処理装置1を、人物認証のために用いるのではなく、眼鏡着用時の違和感を軽減するといった目的で使用する場合、変換部23は、抽出した輪郭線が連続となると判断される変換テーブルデータを選択することに代え、あるいはそれに併せて、人物を眼鏡着用の状態で認識させ、あるいは当該人物を特定する情報を利用者に入力させ、当該認識の結果、あるいは入力された情報で特定される人物を特定する情報に関連付けられた変換テーブルデータを選択することとしてもよい。
この場合も、人物を特定する情報ごと、かつ顔の向きごとに変換テーブルデータが用意されてもよい。この場合も、変換部23は、顔画像部分を検出したときの当該顔画像部分の角度の情報を取得する。そして変換部23は、当該取得した角度に対応する、人物を特定する情報ごとの変換テーブルデータから、認識の結果、あるいは入力された情報で特定される人物を特定する情報に関連付けられた変換テーブルデータを選択することとすればよい。
According to this example, conversion that is not limited to simple enlargement / reduction is possible, and therefore, it is possible to deal with glasses that may cause complex image distortion, such as bifocal glasses. Further, by selecting the conversion table data, it is possible to estimate the lens type of the corresponding eyeglass, and the estimation result of this lens type can also be used for another process.
Further, in the selection of the conversion table data, for each person, the conversion table data corresponding to the lens of the glasses worn by the person may be stored in association with the information specifying the person in advance. Good. According to this example, when conversion table data is selected by the above method, information associated with the selected table data is output, so that processing such as specifying a person based on the information can be performed.
Alternatively, when the
Also in this case, conversion table data may be prepared for each piece of information for identifying a person and for each face direction. Also in this case, the
また、ここまでの説明の処理においては、顔画像部分を検出した後、顔画像部分を正面向きに変換する処理を行ってから、推定部22及び変換部23の処理を行ってもよい。またこの場合、変換後に元の角度に戻す処理を行ってもよい。このような顔を正面向き、あるいは任意の角度に変換する技術は、例えば向川康博、中村裕一、大田裕一「複数の顔画像の組合せによる任意方向・任意表情の顔画像の生成」,電子情報通信学会論文誌D-II, J80-D2(6): 1555-1562, 1997等の技術があり、これらを採用できる。なお、顔の向きは正中線と瞳との相対的な位置などにより推定する方法等、種々の方法が知られているのでここでの詳しい説明は省略する。
In the processing described so far, after the face image portion is detected, processing for converting the face image portion to the front direction may be performed, and then the processing of the
本発明の実施の形態の一例に係る画像処理装置1は、以上の構成を備えてなり、次のように動作する。処理の対象となった画像を受け入れた画像処理装置1は、図9に例示する処理を開始し、当該処理の対象となった画像のうちから顔部分を検出する(S1)。そして検出した顔部分のうち、未だ選択していない一つを注目部分として選択し(S2)、当該注目部分に含まれる顔の特徴量(瞳の位置の情報や輪郭線の情報など)の情報を生成するとともに(S3)、当該注目部分から眼鏡のレンズ部分内の画素がどれであるかを検出し、レンズ中心の推定を試みる処理を実行する(S4)。
The
この処理S4では、上述の通り、眼鏡のフレームを検出する処理や、明度差、あるいは輪郭線の不連続点等を用いてレンズ部分内の画素がどれであるかを検出することとなる。また、眼鏡のフレームを検出する処理や明度差を利用する処理により、レンズ部分の中心(眼鏡のレンズ中心に相当する位置、以下レンズ中心と呼ぶ)が推定できた場合は、当該レンズ中心の座標情報も併せて得ておくこととする。一般に眼鏡用レンズは、円形のレンズをフレームの形状に合わせて加工しているが、この加工前のレンズの円形の中心がここでのレンズ中心となる。レンズ中心に相当する位置は、通常、眼鏡着用者が正面を向いたときに、瞳の位置に重なるように加工・調整される。また、不連続点のみが検出できた場合は、レンズ中心までは推定できないので、この場合は輪郭線上の不連続点が、レンズ部分内の画素がどれであるかの検出結果となる。 In this process S4, as described above, the process of detecting the frame of the glasses, the difference in brightness, the discontinuity of the contour line, and the like are used to detect which pixel in the lens portion is. If the center of the lens part (position corresponding to the lens center of the glasses, hereinafter referred to as the lens center) can be estimated by the process of detecting the frame of the glasses or the process of using the brightness difference, the coordinates of the lens center Information will also be obtained. In general, a spectacle lens is formed by processing a circular lens in accordance with the shape of the frame, but the center of the lens before processing is the center of the lens. The position corresponding to the center of the lens is usually processed and adjusted so as to overlap the position of the pupil when the spectacle wearer faces the front. If only the discontinuous point can be detected, it is impossible to estimate the center of the lens. In this case, the discontinuous point on the contour line is a detection result indicating which pixel is in the lens portion.
画像処理装置1は、処理S4においてレンズ部分内の画素がどれであるかが検出できたか(不連続点が見出されるか、あるいはフレームが検出できたか)を調べ(S5)、検出できていたならば(Yesならば)、さらに、レンズ中心が見出されたか否かを判断する(S6)。
The
ここでレンズ中心が見出されていれば(Yesならば)、レンズ中心を中心として、レンズ内の画像を変換する変換処理を実行する(S7)。この処理S7の変換処理では、レンズ中心を中心として放射状に拡大縮小し、輪郭線上の不連続点の座標(不連続点の位置にある画素の位置)を変換し、輪郭線が連続するように変換する処理を行ってもよい。また、この処理S7の処理としては、画素値の写像先を直接表す情報により、輪郭線上の不連続点の座標(不連続点の位置にある画素の位置)を変換し、輪郭線が連続するように変換する処理を行ってもよい。さらに、この処理S7では、変換行列を用いた写像(map)の処理により、輪郭線上の不連続点の座標(不連続点の位置にある画素の位置)を変換し、輪郭線が連続するように変換する処理を行ってもよい。なお、眼鏡のレンズ部分は一般に顔の左右にあるので、画像処理装置1は、それぞれについて処理S4からS7の処理を実行する。
If the lens center is found here (if Yes), a conversion process for converting the image in the lens is executed around the lens center (S7). In the conversion processing of this processing S7, the lens is enlarged or reduced radially around the center of the lens, the coordinates of the discontinuous point on the contour line (the position of the pixel at the position of the discontinuous point) are converted, and the contour line is continuous. You may perform the process to convert. In addition, as processing of this processing S7, the coordinates of the discontinuous points on the contour line (pixel positions at the discontinuous points) are converted by the information directly representing the mapping destination of the pixel value, and the contour lines are continuous. The conversion process may be performed as described above. Further, in this processing S7, the coordinates of the discontinuous points on the contour line (the positions of the pixels at the discontinuous points) are converted by the mapping process using the transformation matrix so that the contour lines are continuous. You may perform the process converted into. Since the lens portions of the glasses are generally on the left and right sides of the face, the
画像処理装置1は、処理対象となった画像に含まれるすべての顔画像についての処理を終了したか否かを調べる(S8)。そしてすべての顔画像についての処理を終了したと判断すると(Yesの場合)、処理後の画像を表示部14や入出力部15を介して出力して(あるいは記憶部12に格納して)、処理を終了する。また処理S8において、未選択の顔画像があると判断すると(Noの場合)、処理S2に戻って処理を続ける。
The
また処理S5において、レンズ部分内の画素がどれであるかが検出できなかったと判断した場合(つまりNoならば)、処理S8に移行して処理を続ける。さらに処理S6においてレンズ中心が見出されていないと判断すると(Noならば)、瞳の位置を中心として、レンズ内の画像を変換する変換処理を実行する(S9)。この処理S9では例えば、瞳の位置を中心として放射状に拡大縮小し、輪郭線上の不連続点の座標(不連続点の位置にある画素の位置)を変換し、輪郭線が連続するように変換する処理を行う。なお、眼鏡のレンズ部分は一般に顔の左右にあるので、画像処理装置1は、それぞれについて処理S9の処理を実行することになる。そして画像処理装置1は、処理S8に移行して処理を続ける。
If it is determined in process S5 that it is not possible to detect which pixel in the lens portion is (that is, No), the process proceeds to process S8 and the process is continued. Further, if it is determined in step S6 that the lens center has not been found (if No), a conversion process for converting the image in the lens around the pupil position is executed (S9). In this process S9, for example, the enlargement / reduction is performed radially around the pupil position, the coordinates of the discontinuous points on the contour line (the position of the pixel at the position of the discontinuous point) are converted, and the contour line is converted to be continuous. Perform the process. Since the lens portions of the glasses are generally on the left and right sides of the face, the
本実施の形態によれば、レンズ中心が見出された場合、瞳の位置も含めて、眼鏡のレンズによる歪みを解消できるので、瞳の間隔など、人間の顔認識を行う際に利用されるパラメータも補正されることとなり、顔認識の精度を向上できる。また、眼鏡のレンズの種類を特定できる場合、顔画像に基づいて、現在利用している眼鏡のレンズの種類を推定する等の処理を実行できる。 According to the present embodiment, when the center of the lens is found, distortion caused by the lens of the glasses, including the position of the pupil, can be eliminated, so that it is used when performing human face recognition such as the pupil interval. Parameters are also corrected, and the accuracy of face recognition can be improved. When the type of spectacle lens can be specified, processing such as estimating the type of spectacle lens currently used can be executed based on the face image.
さらに、本実施の形態の上述の処理においては、一対の眼鏡のレンズのそれぞれについて輪郭線の不連続点が連続となるよう変換する処理を行っている。つまり、各レンズについて拡縮率(比m)を演算しているが、本実施の形態はこれに限られない。例えば、顔の向きにより一方のレンズにおいてのみ拡縮率が演算できる場合、他方のレンズにおいてもこの拡縮率を用いた変換を行うこととしてもよい。 Furthermore, in the above-described processing according to the present embodiment, processing is performed to convert the discontinuous points of the contour line for each of the pair of spectacle lenses. That is, the enlargement / reduction ratio (ratio m) is calculated for each lens, but the present embodiment is not limited to this. For example, when the enlargement / reduction ratio can be calculated only for one lens depending on the orientation of the face, conversion using this enlargement / reduction ratio may be performed for the other lens.
さらに、本実施の形態においては拡縮率に相当する比mが1を超える場合、つまり近眼用眼鏡レンズ(輪郭線が顔中心側へ歪む)の場合に限り変換部23による変換処理を行うこととしてもよい。
Furthermore, in the present embodiment, the conversion process by the
1 画像処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 入出力部、21 画像取得部、22 推定部、23 変換部。
DESCRIPTION OF
Claims (12)
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、及び、
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、
前記推定手段は、さらに、推定した眼鏡のレンズ部分のうちから、眼鏡のレンズ中心に相当する位置を推定し、
前記変換手段は、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行い、当該変換手段は、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定する変換手段であって、拡大または縮小を行う際に、前記推定された眼鏡のレンズ中心に相当する位置を中心として放射状に、拡大または縮小を行う画像処理装置。 Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles;
Conversion means for performing conversion to map pixels in the estimated lens portion of the spectacles to pixels at other positions in the lens portion of the spectacles; and
Extracting means for extracting the contour of the face imaged in the acquired image;
The estimating means further estimates a position corresponding to the lens center of the glasses from the estimated lens portion of the glasses,
The converting means performs conversion for mapping to pixels at other positions in the lens portion of the spectacles by enlarging or reducing an image portion in the lens portion of the spectacles, and the converting means converts the extracted contour line Conversion means for setting an enlargement or reduction ratio so as to be continuous, and when enlarging or reducing, image processing is performed to enlarge or reduce radially about a position corresponding to the estimated lens center of the eyeglasses apparatus.
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段、及び、
前記顔の部分のうちから、瞳の画像部分を検出する手段を含み、
前記変換手段は、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行い、当該変換手段は、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定する変換手段であって、拡大または縮小を行う際に、前記検出された瞳の画像部分の中心に相当する位置を中心として放射状に、拡大または縮小を行う画像処理装置。 Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles;
Conversion means for performing conversion for mapping pixels in the estimated lens portion of the spectacles to pixels at other positions in the lens portion of the spectacles;
Extraction means for extracting the contour of the face imaged in the acquired image; and
Means for detecting an image portion of the pupil from the face portion;
The converting means performs conversion for mapping to pixels at other positions in the lens portion of the spectacles by enlarging or reducing an image portion in the lens portion of the spectacles, and the converting means converts the extracted contour line Is a conversion means for setting an enlargement or reduction ratio so as to be continuous, and when enlargement or reduction is performed, enlargement or reduction is performed radially about a position corresponding to the center of the image portion of the detected pupil. Image processing device.
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、及び、
眼鏡のレンズの種類ごとに、当該レンズ部分内の像の写像に係るパラメータである変換テーブルデータを取得する手段を含み、
前記変換手段は、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズの種類に対応する前記変換テーブルデータを用いて、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う画像処理装置。 Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles;
Conversion means for performing conversion to map pixels in the estimated lens portion of the spectacles to pixels at other positions in the lens portion of the spectacles; and
For each type of eyeglass lens, including means for obtaining conversion table data that is a parameter relating to mapping of an image in the lens part,
The conversion unit maps the pixel in the estimated spectacle lens portion to a pixel at another position in the spectacle lens portion using the conversion table data corresponding to the type of the spectacle lens. An image processing apparatus that performs conversion.
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、
前記変換手段は、前記眼鏡のレンズの種類に対応する変換テーブルデータとして、前記取得した変換テーブルデータのうち、前記抽出した輪郭線が連続となると判断される変換テーブルデータを選択して用いる画像処理装置。 The image processing apparatus according to claim 3 ,
Extracting means for extracting the contour of the face imaged in the acquired image;
The conversion means selects and uses, as the conversion table data corresponding to the lens type of the eyeglasses, conversion table data that is determined to be continuous with the extracted contour line from the acquired conversion table data. apparatus.
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、及び、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、を含み、
前記変換手段は、前記画像に含まれる顔を正面向きに補正してから変換を行う画像処理装置。 Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles, and
The pixels in the lens portion of the estimated glasses, seen including converting means, the performing conversion to map the pixels of the other positions in the lens portion of the spectacles,
The image processing apparatus that performs conversion after correcting a face included in the image in a front direction.
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、Extracting means for extracting the contour of the face imaged in the acquired image;
前記変換手段は、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行い、当該変換手段は、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定する画像処理装置。The converting means performs conversion for mapping to pixels at other positions in the lens portion of the spectacles by enlarging or reducing an image portion in the lens portion of the spectacles, and the converting means converts the extracted contour line An image processing apparatus that sets an enlargement or reduction ratio so that the images are continuous.
前記変換手段は、前記画像に含まれる顔を正面向きに補正してから変換を行う画像処理装置。 The image processing apparatus according to any one of claims 1 to 4 , wherein:
The image processing apparatus that performs conversion after correcting a face included in the image in a front direction.
さらに、前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段を含み、
前記推定手段は、当該抽出された顔の輪郭線を用いて、前記取得した画像内に眼鏡のレンズ部分があると判断されたときに、当該眼鏡のレンズ部分内の画素がどれであるかを推定する画像処理装置。 The image processing apparatus according to any one of claims 1 to 7 ,
Furthermore, it includes an extracting means for extracting the contour line of the face imaged in the acquired image,
The estimation means uses the extracted facial contour line to determine which pixel is in the lens portion of the glasses when it is determined that there is a lens portion of the glasses in the acquired image. An image processing apparatus to be estimated.
推定手段が、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定するステップ、
変換手段が、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行うステップ、及び、
抽出手段が、前記取得した画像内に撮像された顔の輪郭線を抽出するステップを含み、
前記推定手段が、さらに、推定した眼鏡のレンズ部分のうちから、眼鏡のレンズ中心に相当する位置を推定し、
前記変換手段が、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定し、拡大または縮小を行う際に、前記推定された眼鏡のレンズ中心に相当する位置を中心として放射状に、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う画像処理方法。 An obtaining means for obtaining an image of the face imaged;
An estimating means, if there is a lens part of the spectacles in the acquired image, estimating which pixel is in the lens part of the spectacles;
Transforming means for mapping the pixels in the estimated lens portion of the spectacles to pixels at other positions in the spectacle lens portion; and
The extracting means includes a step of extracting a contour of the face imaged in the acquired image;
The estimating means further estimates a position corresponding to the lens center of the glasses from the estimated lens portion of the glasses;
When the conversion means sets an enlargement or reduction ratio so that the extracted contour line is continued, and performs enlargement or reduction, the eyeglasses radially center around a position corresponding to the estimated lens center of the eyeglasses. An image processing method for performing conversion for mapping to pixels at other positions in the lens portion of the spectacles by enlarging or reducing the image portion in the lens portion.
推定手段が、前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定するステップ、及び、The estimating means, if there is a lens part of the spectacles in the acquired image, estimating which pixel is in the lens part of the spectacles; and
変換手段が、前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行うステップ、を含み、Converting means for mapping a pixel in the estimated lens portion of the spectacles to a pixel at another position in the spectacle lens portion;
前記変換を行うステップでは、前記画像に含まれる顔を正面向きに補正してから変換を行う画像処理方法。An image processing method for performing conversion after correcting a face included in the image in a front direction in the step of performing the conversion.
顔が撮像された画像を取得する取得手段、
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、及び、
前記取得した画像内に撮像された顔の輪郭線を抽出する抽出手段として機能させ、
前記推定手段として機能させる際には、さらに、推定した眼鏡のレンズ部分のうちから、眼鏡のレンズ中心に相当する位置を推定させ、
前記変換手段として機能させる際には、前記眼鏡のレンズ部分内の画像部分を拡大または縮小することで、眼鏡のレンズ部分内の他の位置の画素に写像する変換を行わせ、当該変換手段として機能させる際には、前記抽出した輪郭線を連続させるよう拡大または縮小率を設定させ、拡大または縮小を行う際に、前記推定された眼鏡のレンズ中心に相当する位置を中心として放射状に、拡大または縮小を行わせるプログラム。 Computer
Obtaining means for obtaining an image of a face imaged;
If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles;
Conversion means for performing conversion to map pixels in the estimated lens portion of the spectacles to pixels at other positions in the lens portion of the spectacles; and
Function as an extracting means for extracting the contour line of the face imaged in the acquired image;
When functioning as the estimation means, further, from the estimated lens portion of the spectacles, the position corresponding to the lens center of the spectacles is estimated,
When functioning as the conversion means, by enlarging or reducing the image portion in the lens portion of the glasses, conversion is performed to map to pixels at other positions in the lens portion of the glasses, as the conversion means When functioning, the enlargement or reduction rate is set so that the extracted contour line is continuous, and when performing the enlargement or reduction, enlargement is performed radially around the position corresponding to the estimated lens center of the glasses. Or a program that causes reduction.
顔が撮像された画像を取得する取得手段、Obtaining means for obtaining an image of a face imaged;
前記取得した画像内に眼鏡のレンズ部分があれば、当該眼鏡のレンズ部分内の画素がどれであるかを推定する推定手段、及び、If there is a lens part of the spectacles in the acquired image, an estimation means for estimating which pixel is in the lens part of the spectacles, and
前記推定された眼鏡のレンズ部分内の画素を、当該眼鏡のレンズ部分内の他の位置の画素に写像する変換を行う変換手段、として機能させ、Functioning as a conversion means for performing conversion to map the pixels in the estimated lens part of the spectacles to pixels at other positions in the lens part of the spectacles;
前記変換手段として機能させる際には、前記画像に含まれる顔を正面向きに補正してから変換を行わせるプログラム。A program for performing conversion after correcting a face included in the image to face forward when functioning as the conversion means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262831A JP6244885B2 (en) | 2013-12-19 | 2013-12-19 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262831A JP6244885B2 (en) | 2013-12-19 | 2013-12-19 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015118617A JP2015118617A (en) | 2015-06-25 |
JP6244885B2 true JP6244885B2 (en) | 2017-12-13 |
Family
ID=53531256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013262831A Active JP6244885B2 (en) | 2013-12-19 | 2013-12-19 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6244885B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6899097B2 (en) | 2017-12-29 | 2021-07-07 | 京セラドキュメントソリューションズ株式会社 | Image processing device, image processing method and image processing program |
US11334972B2 (en) | 2020-09-30 | 2022-05-17 | Snap Inc. | Eyewear distortion correction |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3456513B2 (en) * | 1997-04-02 | 2003-10-14 | 日本電信電話株式会社 | Face direction detection glasses and glasses-mounted face image simulation apparatus |
JP2002056407A (en) * | 2000-08-10 | 2002-02-22 | Minolta Co Ltd | Image generation system |
JP2008250407A (en) * | 2007-03-29 | 2008-10-16 | Nikon Corp | Image processing program and image processor |
JP2015064768A (en) * | 2013-09-25 | 2015-04-09 | キヤノンマーケティングジャパン株式会社 | Imaging device, image modification device, and control method and program of imaging device and image modification device |
-
2013
- 2013-12-19 JP JP2013262831A patent/JP6244885B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015118617A (en) | 2015-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11250241B2 (en) | Face image processing methods and apparatuses, and electronic devices | |
EP3323249B1 (en) | Three dimensional content generating apparatus and three dimensional content generating method thereof | |
CN107507217B (en) | Method and device for making certificate photo and storage medium | |
CN107507216B (en) | Method and device for replacing local area in image and storage medium | |
CN108513668B (en) | Picture processing method and device | |
US20210044794A1 (en) | Gaze correction of multi-view images | |
CN107610202B (en) | Face image replacement method, device and storage medium | |
US10706613B2 (en) | Systems and methods for dynamic occlusion handling | |
CN107564080B (en) | Face image replacement system | |
US9141873B2 (en) | Apparatus for measuring three-dimensional position, method thereof, and program | |
JP5728080B2 (en) | Wrinkle detection device, wrinkle detection method and program | |
JP7119907B2 (en) | Training method and training device for face recognition model | |
JP5454737B2 (en) | Wrinkle detection device, wrinkle detection method and program | |
CN108346130B (en) | Image processing method and device and electronic equipment | |
CN106981078A (en) | Sight bearing calibration, device, intelligent meeting terminal and storage medium | |
JP6855872B2 (en) | Face recognition device | |
US11527026B2 (en) | Body measurement device and method for controlling the same | |
US10902561B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP6244885B2 (en) | Image processing apparatus, image processing method, and program | |
WO2018220963A1 (en) | Information processing device, information processing method, and program | |
US9323981B2 (en) | Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored | |
JP2008250407A (en) | Image processing program and image processor | |
JP2009251634A (en) | Image processor, image processing method, and program | |
CN115761827A (en) | Cosmetic progress detection method, device, equipment and storage medium | |
KR20170080112A (en) | Cosmetic surgery system using depth face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6244885 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |