JP7418386B2 - Face orientation determination system - Google Patents
Face orientation determination system Download PDFInfo
- Publication number
- JP7418386B2 JP7418386B2 JP2021202576A JP2021202576A JP7418386B2 JP 7418386 B2 JP7418386 B2 JP 7418386B2 JP 2021202576 A JP2021202576 A JP 2021202576A JP 2021202576 A JP2021202576 A JP 2021202576A JP 7418386 B2 JP7418386 B2 JP 7418386B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- person
- distance
- detection unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 168
- 210000003128 head Anatomy 0.000 claims description 97
- 230000001133 acceleration Effects 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 7
- 210000000887 face Anatomy 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 description 52
- 238000004364 calculation method Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 18
- 238000000034 method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000007423 decrease Effects 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000009434 installation Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Description
本発明は、顔向き判定システムに関する。 The present invention relates to a face orientation determination system.
従来、顔向き判定システムとして、例えば、特許文献1には、運転者の顔の特徴点として、運転者の眉、目尻、及び口元の少なくとも1つの3次元位置を検出することで運転者の顔向きを推定する運転者監視装置が記載されている。
Conventionally, as a face orientation determination system, for example,
ところで、上述の特許文献1に記載の運転者監視装置は、例えば、運転者が脇見した際に顔の特徴点の一部しか検出できない場合、運転者の顔向きを推定できないおそれがある。
By the way, the driver monitoring device described in
そこで、本発明は、上記に鑑みてなされたものであって、人物の顔の向きを適正に判定することができる顔向き判定システムを提供することを目的とする。 Therefore, the present invention has been made in view of the above, and an object of the present invention is to provide a face orientation determination system that can appropriately determine the orientation of a person's face.
上述した課題を解決し、目的を達成するために、本発明に係る顔向き検出システムは、人物の顔を撮像する撮像部と、前記撮像部により撮像された前記人物の顔の画像に基づいて、前記人物の目尻の位置を検出する目尻検出部と、前記目尻検出部により検出された前記目尻の位置と、前記人物の頭部を回旋する際の基準となる頭部回旋基準の位置とに基づいて、前記人物の顔の向きを検出する顔向き検出部と、を備えることを特徴とする。 In order to solve the above-mentioned problems and achieve the purpose, a face orientation detection system according to the present invention includes an imaging section that captures an image of a person's face, and a system based on an image of the person's face captured by the imaging section. , an eye corner detection unit that detects the position of the person's eye corner, a position of the eye corner detected by the eye corner detection unit, and a head rotation reference position that is a reference when rotating the person's head; and a face orientation detection unit that detects the orientation of the face of the person based on the information.
本発明に係る顔向き検出システムは、人物が脇見した際に片方の目尻しか検出できない場合でも人物の顔の向きを判定することができ、この結果、人物の顔の向きを適正に判定することができる。 The face orientation detection system according to the present invention can determine the orientation of a person's face even if only the corner of one eye can be detected when the person looks aside, and as a result, the orientation of the person's face can be determined appropriately. Can be done.
本発明を実施するための形態(実施形態)につき、図面を参照しつつ詳細に説明する。以下の実施形態に記載した内容により本発明が限定されるものではない。また、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれる。更に、以下に記載した構成は適宜組み合わせることが可能である。また、本発明の要旨を逸脱しない範囲で構成の種々の省略、置換又は変更を行うことができる。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Modes (embodiments) for carrying out the present invention will be described in detail with reference to the drawings. The present invention is not limited to the contents described in the following embodiments. Further, the constituent elements described below include those that can be easily assumed by those skilled in the art and those that are substantially the same. Furthermore, the configurations described below can be combined as appropriate. Further, various omissions, substitutions, or changes in the configuration can be made without departing from the gist of the present invention.
〔実施形態〕
図面を参照しながら実施形態に係る顔向き検出システム1について説明する。顔向き検出システム1は、人物の顔の向きを検出するものであり、例えば、車両に搭載され、当該車両の運転席に着座した運転者の顔の向きを検出する。顔向き検出システム1は、例えば、図1に示すように、撮像部としての顔映像取得カメラ10と、目尻検出部としての顔特徴点検出ユニット20と、顔向き計算ユニット30とを備える。
[Embodiment]
A face
ここで、運転者が正面を向いた状態で当該運転者の左右の目尻Eに沿った方向を左右方向Xと称し、上下に沿った方向を鉛直方向又は上下方向Yと称し、運転者が正面を向いた状態で当該運転者の視線に沿った方向を奥行き方向Zと称する。左右方向X、上下方向Y、及び、奥行き方向Zは、互いに交差し、典型的には直交する。 Here, the direction along the outer corners E of the left and right eyes of the driver when the driver is facing forward is referred to as the left-right direction X, and the direction along the upper and lower sides is referred to as the vertical direction or up-down direction Y. The direction along the line of sight of the driver when facing is referred to as the depth direction Z. The left-right direction X, the up-down direction Y, and the depth direction Z intersect with each other and are typically orthogonal to each other.
顔映像取得カメラ10は、運転者の顔を撮像するものであり、例えば、車両に搭載され、当該車両の運転席に着座した運転者の顔を撮像する。顔映像取得カメラ10は、運転者の前方、例えば、車両のダッシュボードや車両のルーフの前方等に配置され、運転者のアイリプスの中心が撮像範囲の中心になるように設けられ、車両の前方から運転者の顔を撮像する。顔映像取得カメラ10は、顔特徴点検出ユニット20に接続され、撮像した運転者の顔を表す画像(動画(映像)又は静止画)データを顔特徴点検出ユニット20に出力する。
The face
顔特徴点検出ユニット20は、画像データから顔の特徴点を検出するものである。顔特徴点検出ユニット20は、例えば、Open CV等の周知の画像認識技術(機械学習)を用いて画像データから顔の特徴点を検出する。顔特徴点検出ユニット20は、例えば、画像データから顔の特徴点として左右の目尻E、左右の瞳孔等を検出し、これらの顔の部位の位置を検出する。ここでは、顔特徴点検出ユニット20は、検出した顔の部位の位置の情報を座標上の情報として扱う。顔特徴点検出ユニット20は、顔向き計算ユニット30に接続され、検出した左右の目尻Eの位置を表す情報(左右の目尻Eの位置座標を表す情報)を顔向き計算ユニット30に出力する。
The facial feature
顔向き計算ユニット30は、運転者の顔の向きを計算するものであり、CPU、メモリを構成するROM、RAM及びインターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。顔向き計算ユニット30は、目尻距離演算部31と、記憶部32と、顔向き検出部33と、パラメータ更新部34とを含んで構成され、顔の部位の位置の情報を座標上の情報として扱う。
The face
目尻距離演算部31は、人物が正面を向いた状態での左右の目尻Eの距離d0(図3参照)を演算するものである。目尻距離演算部31は、顔特徴点検出ユニット20に接続され、当該顔特徴点検出ユニット20から出力された左右の目尻Eの位置を表す情報(左右の目尻Eの位置座標を表す情報)に基づいて、左右の目尻E(左目尻LE、右目尻RE)の距離d0を演算すると共に、左右の目尻Eの中央の位置を演算する。目尻距離演算部31は、例えば、図3に示すように、左目尻LEの位置座標(xLE0、yLE0)と右目尻REの位置座標(xRE0、yRE0)との距離d0を演算すると共に、左目尻LEの位置座標(xLE0、yLE0)と右目尻REの位置座標(xRE0、yRE0)との中央の位置座標(xC0、yC0)を演算する。目尻距離演算部31は、顔向き検出部33に接続され、演算した距離d0及び中央の位置座標(xC0、yC0)を顔向き検出部33に出力する。
The eye corner
記憶部32は、情報を記憶するものであり、例えば、RAM等の揮発性メモリや、ROM、フラッシュメモリ等の不揮発性メモリを含んで構成される。記憶部32は、例えば、顔向き計算ユニット30での各種処理に必要な条件や情報、顔向き計算ユニット30で実行する各種プログラムやアプリケーション、制御データ等が格納されている。そして、記憶部32は、人体の寸法を統計的に表した人体寸法データベースに基づいて予め定められた標準の人体の寸法を記憶している。記憶部32は、例えば、標準の人体の寸法として、図3に示すように、左右の目尻Eの標準距離d、左右の目尻Eの中央の位置と軸椎Gとの奥行き方向Zの標準距離w、左右の目尻Eの中央の位置と軸椎Gとの上下方向Yの距離h等を記憶している。すなわち、記憶部32は、標準の人体の寸法として、左右の目尻Eの標準距離d、左右の目尻Eの中央の位置と軸椎Gと標準距離w、及び、左右の目尻Eの中央の位置と軸椎Gとの標準距離hから定まる軸椎G(標準の頭軸P)の位置を記憶している。
The
顔向き検出部33は、運転者の顔向きを検出するものである。顔向き検出部33は、例えば、顔特徴点検出ユニット20により検出された目尻Eの位置と、頭部回旋基準としての頭軸Pの位置とに基づいて、運転者の顔の向きを検出する。ここで、頭軸Pは、運転者の頭部を回旋する際の基準となる部分であり、図2に示すように、軸椎Gと座骨Jとの間に設定される。言い換えれば、運転者の頭部は、頭軸Pを基準として旋回する。顔向き検出部33は、記憶部32に記憶された標準の頭軸Pを個人に合わせて調整するパーソナライズ処理を行う。具体的には、顔向き検出部33は、予め定められた標準の頭軸Pの位置を、運転者が正面を向いた状態で顔映像取得カメラ10により撮像された運転者の顔の画像から求まる運転者の左右の目尻Eの距離d0に応じて補正した補正後の頭軸Pの位置に基づいて、運転者の顔の向きを検出する。顔向き検出部33は、例えば、以下の式(1)を用いて、左目尻LEの位置座標(xLE0、yLE0)と右目尻REの位置座標(xRE0、yRE0)とから、頭軸PのX座標xA(xc0)を求める。また、顔向き検出部33は、以下の式(2)~(4)を用いて、頭軸PのY座標yAを求める。顔向き検出部33は、例えば、式(2)を用いて、左右の目尻Eの標準距離d、及び、目尻Eの位置(例えば、左右の目尻Eの中央の位置)と標準の頭軸Pとの上下方向Yの標準距離hからパラメータPhを求め、式(3)を用いて、左右の目尻Eの距離d0とパラメータPhとから補正後の距離h0を求め、式(4)を用いて、左目尻LEの位置座標(xLE0、yLE0)と右目尻REの位置座標(xRE0、yRE0)と補正後の距離h0とから頭軸Pの補正後のY座標yAを求める。つまり、顔向き検出部33は、左右の目尻Eの距離d0を用いて、頭軸PのY座標yAをパーソナライズ化している。また、顔向き検出部33は、以下の式(5)、(6)を用いて、左右の目尻Eの中央の位置と頭軸Pとの奥行き方向Zの距離w0を求める。顔向き検出部33は、例えば、式(5)を用いて、左右の目尻Eの標準距離d、及び、左右の目尻Eの中央の位置と標準の頭軸Pとの奥行き方向Zの標準距離wとからパラメータPwを求め、式(6)を用いて、左右の目尻Eの距離d0とパラメータPwとから補正後の距離w0を求める。つまり、顔向き検出部33は、左右の目尻Eの距離d0を用いて、頭軸PのZ座標をパーソナライズ化している。
The face
顔向き検出部33は、パーソナライズ化した頭軸P、すなわち補正後の頭軸Pに基づいて運転者の顔向きを検出する。顔向き検出部33は、例えば、図4、図5に示すように、目尻Eの位置座標(yRE1、zRE1)と頭軸Pの位置座標との上下方向Yの距離h1を検出する。顔向き検出部33は、検出した距離h1に基づき、以下の式(7)~(18)を用いて、顔の上下方向Yの角度を求める。以下の式(7)~(18)では、「k」は、直角三角形の斜辺を表し、「θP0」は、正面を向いたときの顔の目尻Eと頭軸Pとの角度を表し、「θP1」は、顔の上下方向Yの角度を表し、「θP2」は、奥行き方向Zと斜辺kとの角度を表す。この例では、頭軸Pの位置座標を原点(0,0)としている。顔向き検出部33は、式(7)を用いて、角度θP2を求める。このとき、三角関数により、角度θP2は、式(8)で表される。顔向き検出部33は、式(7)と式(8)とを組み合わせると、式(9)となり、式(9)~式(18)に示すように順番に演算を進めると、最終的に式(18)を取得することができ、この結果、顔の上下方向Yの角度θP1を得られる。
The face
顔向き検出部33は、例えば、図6、図7に示すように、右目尻REの位置座標(xRE1、zRE1)を検出する。顔向き検出部33は、検出した右目尻REの位置座標(xRE1、zRE1)に基づき、以下の式(19)~(28)を用いて、顔の左右方向Xの角度を求める。以下の式(19)~(28)では、「θY1」は、顔の左右方向Xの角度を表し、その範囲が0°≦θY1≦90°であり、「xc1」は、左右の目尻Eの中央の位置座標(X座標)を表し、「dE」は、目尻Eの変位を表す。この例では、頭軸Pの位置座標を原点(0,0)としている。顔向き検出部33は、式(19)を用いて、角度θY1を求める。このとき、式(19)の「xc1」は、式(20)で表され、式(20)を式(19)に代入すると、式(21)が得られる。式(21)において、未知の変数は、「dx」だけである。式(21)は、三角関数により、式(22)に変形することができ、式(22)は、式(23)、式(24)に変形することができる。そして、式(25)に示すように、変数を置き換えると、式(26)を導き出すことができ、式(26)から式(27)、式(28)を導き出すことができる。顔向き検出部33は、式(28)から「dx」を算出することができ、算出した「dx」を式(21)に代入することで、顔の左右方向Xの角度θY1を得られる。
The face
顔向き検出部33は、図8に示すように、右目尻REの位置座標(xRE1、zRE1)が、正面を向いたときの右目尻REの位置座標(xRE0、zRE0)よりも大きい場合、顔が左側を向いていると判定する。一方で、顔向き検出部33は、右目尻REの位置座標(xRE1、zRE1)が、正面を向いたときの右目尻REの位置座標(xRE0、zRE0)よりも小さい場合、顔が右側を向いていると判定する。
As shown in FIG. 8, the face
次に、パラメータ更新部34について説明する。パラメータ更新部34は、顔映像取得カメラ10の位置と運転者の位置との相対位置(位置ずれ)に応じて、上述したパラメータPh、パラメータPwを更新することで、人物が正面位置に対する顔映像取得カメラ10の相対位置に応じて標準の頭軸Pの位置を補正するものである。ここで、顔映像取得カメラ10は、車両の構造上、例えば、図9に示すように、運転者の正面からずれた位置に配置される場合が多い。この場合、顔映像取得カメラ10は、運転者が正面を視た際の正面方向Mから角度θaだけずれが生じた状態で運転者の顔を撮像する。このため、パラメータ更新部34は、顔向き検出部33により検出された顔の角度から、顔映像取得カメラ10のずれ量に相当する角度θaを減算する。これにより、理論上は、顔映像取得カメラ10のずれ量に相当する角度θaを相殺することができるが、顔映像取得カメラ10の取り付け精度の誤差、運転者の個人差(視線が正面を視ている状態で、顔が正面を向いてない可能性がある)等によって、顔向き検出部33により検出された顔の角度から、顔映像取得カメラ10のずれ量に相当する角度θaを減算しても、ゼロにならない場合がある。そこで、パラメータ更新部34は、顔向き検出部33により検出された顔の角度から、顔映像取得カメラ10のずれ量に相当する角度θaを減算した値の絶対値をゼロに近づける処理を行う。
Next, the parameter updating section 34 will be explained. The parameter update unit 34 updates the above-mentioned parameters P h and P w according to the relative position (positional deviation) between the position of the face
パラメータ更新部34は、例えば、図10に示すように、上述したパラメータPh、パラメータPw、すなわちパラメータD1~D4を段階的に増加させる。このとき、顔向き検出部33は、段階的に増加されたパラメータPh、パラメータPwに基づいて顔の角度をそれぞれ検出する。パラメータ更新部34は、図10に示すように、パラメータPh、パラメータPw、すなわちパラメータD1~D4を順番に大きくするに従って、顔向き検出部33により検出された顔の角度から、顔映像取得カメラ10のずれ量に相当する角度θaを減算した値の絶対値が徐々に小さくなり、パラメータD1~D4の中でパラメータD3が最も小さくなるので、当該パラメータD3が表す値(パラメータPh、パラメータPw)に更新する。
For example, as shown in FIG. 10, the parameter updating unit 34 increases the above-mentioned parameters P h and P w , that is, parameters D1 to D4 in a stepwise manner. At this time, the face
パラメータ更新部34は、図11に示すように、上述したパラメータPh、パラメータPw、すなわちパラメータD1~D4を段階的に減少させる。このとき、顔向き検出部33は、段階的に増加されたパラメータPh、パラメータPwに基づいて顔の角度をそれぞれ検出する。パラメータ更新部34は、図11に示すように、パラメータPh、パラメータPw、すなわちパラメータD1~D4を順番に小さくするに従って、顔向き検出部33により検出された顔の角度から、顔映像取得カメラ10のずれ量に相当する角度θaを減算した値の絶対値が徐々に小さくなり、パラメータD1~D4の中でパラメータD3が最も小さくなるので、当該パラメータD3が表す値(パラメータPh、パラメータPw)に更新する。パラメータ更新部34は、パラメータPh、パラメータPwを更新することで、例えば、図14に示すように、顔向き検出結果(角度)の平均誤差が「縦方向(Pitch)」において、改善前では「19.6」であったが、改善後では「4.5」と小さくなっており、また、顔向き検出結果(角度)の平均誤差が「横方向(Yaw)」において、改善前では「7.9」であったが、改善後では「3.8」と小さくなっている。なお、顔映像取得カメラ10のずれ量に相当する角度θa(図9参照)は、左右方向Xのずれ量であるが、通常、顔映像取得カメラ10のずれ量は、図12に示す左右方向Xの角度θCYaw、及び、図13に示す上下方向Yの角度θCPitchのずれ量を含む。パラメータ更新部34は、顔の上下方向Yの角度を求める場合には、上下方向Yの角度θCPitchのずれ量を減算し、顔の左右方向Xの角度を求める場合には、左右方向Xの角度θCYawを減算する。
As shown in FIG. 11, the parameter updating unit 34 decreases the above-mentioned parameters P h and P w , that is, the parameters D1 to D4 in a stepwise manner. At this time, the face
次に、脇見検出処理について説明する。図15は、実施形態に係る脇見検出処理を示すフローチャートである。顔向き検出システム1は、運転者の視線を検出する視線検出部40を備える。顔映像取得カメラ10は、車両の前方から運転者の顔を撮像し、撮像した運転者の顔を表す画像データを顔特徴点検出ユニット20に出力する。顔特徴点検出ユニット20は、画像データから顔を検出し(ステップS1)、検出した顔の特徴点として左右の目尻E、左右の瞳孔等の位置を検出し、左右の目尻Eの位置を表す情報(左右の目尻Eの位置座標を表す情報)を顔向き計算ユニット30に出力し、左右の瞳孔の位置を表す情報を視線検出部40に出力する(ステップS2)。顔向き計算ユニット30は、顔特徴点検出ユニット20から出力された左右の目尻Eの位置を表す情報に基づいて顔の向きを検出する(ステップS3;後述する図16のフローチャートで示す検出処理)。視線検出部40は、顔特徴点検出ユニット20から出力された左右の瞳孔の位置を表す情報に基づいて視線の向きを検出する(ステップS4)。脇見判定処理部(図示省略)は、顔向き計算ユニット30によって検出された顔の向き、及び、視線検出部40によって検出された視線の向きに基づいて運転者の脇見を判定する(ステップS5)。そして、脇見判定処理部は、運転者が脇見していると判定した場合、音声等で脇見運転していることを報知し(ステップS6)、運転者が脇見していないと判定した場合、当該報知を行わない。
Next, the inattentiveness detection process will be explained. FIG. 15 is a flowchart showing the inattentiveness detection process according to the embodiment. The face
次に、顔向き検出処理について説明する。図16は、実施形態に係る顔向き検出処理を示すフローチャートである。顔向き検出システム1において、目尻距離演算部31は、顔特徴点検出ユニット20から出力された左右の目尻Eの位置を表す情報(左右の目尻Eの位置座標を表す情報)に基づいて、左右の目尻Eの距離d0を演算すると共に、左右の目尻Eの中央の位置座標を演算し(ステップT1)、左右の目尻Eの中央の位置座標におけるX座標を頭軸PのX座標とする(ステップT2)。顔向き検出部33は、ステップT2の頭軸PのX座標を取得する。また、顔向き検出部33は、上述の式(2)を用いて、左右の目尻Eの標準距離d、及び、左右の目尻Eの中央の位置と標準の頭軸Pとの上下方向Yの標準距離hとから初期のパラメータPhを求め、式(5)を用いて、左右の目尻Eの標準距離d、及び、左右の目尻Eの中央の位置と標準の頭軸Pとの奥行き方向Zの標準距離wとから初期のパラメータPwを求める(ステップT3)。そして、顔向き検出部33は、式(3)を用いて、左右の目尻Eの距離d0とパラメータPhとから補正後の距離h0を求め、式(6)を用いて、左右の目尻Eの距離d0とパラメータPwとから補正後の距離w0を求め、これら初期の距離h0、距離w0に基づいて定まる補正後の頭軸Pに基づいて、顔の上下方向Yの角度(式(7)~(18))、及び、顔の左右方向Xの角度(式(19)~(28))を求める(ステップT4)。パラメータ更新部34は、予め定められた顔映像取得カメラ10の角度(角度θCPitch、角度θCYaw)を取得し(ステップT5)、顔向き検出部33により求めた初期の顔の角度が出力される(ステップT6)。そして、パラメータ更新部34は、顔向き検出部33により求めた初期の顔の角度から、顔映像取得カメラ10の角度(角度θCPitch、角度θCYaw)を減算した値の絶対値を求め、初期のパラメータPh、パラメータPwを増加又は減少させて更新する(ステップT7、T9)。顔向き検出部33は、式(3)を用いて、左右の目尻Eの距離d0と更新後のパラメータPhとから補正後の距離h0を求め、式(6)を用いて、左右の目尻Eの距離d0と更新後のパラメータPwとから補正後の距離w0を求め、これら更新後の距離h0、距離w0に基づいて定まる補正後の頭軸Pに基づいて、顔の上下方向Yの角度(式(7)~(18))、及び、顔の左右方向Xの角度(式(19)~(28))を求め(ステップT10)、顔の向きを出力する(ステップT11)。
Next, the face direction detection process will be explained. FIG. 16 is a flowchart showing face direction detection processing according to the embodiment. In the face
次に、頭軸Pの位置の計算処理について説明する。図17は、実施形態に係る頭軸Pの位置の計算処理を示すフローチャートである。顔映像取得カメラ10は、運転者の顔が正面を向いた状態で当該運転者の顔を撮像する(ステップU1、U2)。顔特徴点検出ユニット20は、顔映像取得カメラ10により撮像された画像データから顔を検出し(ステップU3)、当該顔の特徴点として左右の目尻E、左右の瞳孔等を検出し、これらの顔の部位の位置を検出する(ステップU4)。目尻距離演算部31は、顔特徴点検出ユニット20から出力された左右の目尻Eの位置を表す情報(左右の目尻Eの位置座標を表す情報)に基づいて、左右の目尻Eの距離d0を演算すると共に、左右の目尻Eの中央の位置を演算する(ステップU5)。顔向き検出部33は、予め定められた標準の頭軸Pの位置を、運転者が正面を向いた状態で顔映像取得カメラ10により撮像された運転者の顔の画像から求まる運転者の左右の目尻Eの距離d0に応じて補正して補正後の頭軸Pの位置を演算する(ステップU6)。
Next, the calculation process of the position of the head axis P will be explained. FIG. 17 is a flowchart showing calculation processing of the position of the head axis P according to the embodiment. The face
次に、パラメータ更新処理について説明する。図18は、実施形態に係るパラメータ更新処理を示すフローチャートである。顔向き検出部33は、初期のパラメータPh、パラメータPwを入力する(ステップL1)。そして、顔向き検出部33は、左右の目尻Eの距離d0とパラメータPwとから補正後の距離w0を求め、左右の目尻Eの距離d0とパラメータPhとから補正後の距離h0を求め、補正後の頭軸Pに基づいて、運転者の初期の顔の角度を演算する(ステップL2)。パラメータ更新部34は、顔向き検出部33により演算された初期の顔の角度と、顔映像取得カメラ10のずれ量に相当する角度θa(角度θCPitch、角度θCYaw)との初期の差分を演算する(ステップL3)。パラメータ更新部34は、パラメータPh、パラメータPwを増加させ(ステップL4)、顔向き検出部33は、左右の目尻Eの距離d0と増加後のパラメータPwとから補正後の距離w0を求め、左右の目尻Eの距離d0と増加後のパラメータPhとから補正後の距離h0を求め、補正後の頭軸Pに基づいて、運転者の顔の角度を演算する(ステップL5)。再度、パラメータ更新部34は、顔向き検出部33により演算された顔の角度と、顔映像取得カメラ10のずれ量に相当する角度θa(角度θCPitch、角度θCYaw)との差分を演算する(ステップL6)。パラメータ更新部34は、演算した差分が初期値(初期の差分)よりも小さい場合(ステップL7;Yes)、パラメータPh、パラメータPwを増加させる(ステップL8)。顔向き検出部33は、左右の目尻Eの距離d0と増加後のパラメータPwとから補正後の距離w0を求め、左右の目尻Eの距離d0と増加後のパラメータPhとから補正後の距離h0を求め、補正後の頭軸Pに基づいて、運転者の顔の角度を演算する(ステップL9)。パラメータ更新部34は、顔向き検出部33により演算された顔の角度と、顔映像取得カメラ10のずれ量に相当する角度θa(角度θCPitch、角度θCYaw)との差分を演算する(ステップL10)。パラメータ更新部34は、演算した差分が前回の差分よりも大きい場合(ステップL11;Yes)、前回のパラメータPh、パラメータPwを更新値とし(ステップL12)、処理を終了する。一方で、パラメータ更新部34は、演算した差分が前回の差分よりも小さい場合(ステップL11;No)、上述のステップL8に戻ってパラメータPh、パラメータPwを増加させる。
Next, parameter update processing will be explained. FIG. 18 is a flowchart showing parameter update processing according to the embodiment. The face
なお、上記ステップL7で、パラメータ更新部34は、演算した差分が初期値(初期の差分)よりも大きい場合(ステップL7;No)、パラメータPh、パラメータPwを減少させる(ステップL13)。顔向き検出部33は、左右の目尻Eの距離d0と減少後のパラメータPwとから補正後の距離w0を求め、左右の目尻Eの距離d0と減少後のパラメータPhとから補正後の距離h0を求め、補正後の頭軸Pに基づいて、運転者の顔の角度を演算する(ステップL14)。パラメータ更新部34は、顔向き検出部33により演算された顔の角度と、顔映像取得カメラ10のずれ量に相当する角度θa(角度θCPitch、角度θCYaw)との差分を演算する(ステップL15)。パラメータ更新部34は、演算した差分が前回の差分よりも大きい場合(ステップL16;Yes)、前回のパラメータPh、パラメータPwを更新値とし(ステップL17)、処理を終了する。一方で、パラメータ更新部34は、演算した差分が前回の差分よりも小さい場合(ステップL16;No)、上述のステップL13に戻ってパラメータPh、パラメータPwを減少させる。
Note that in step L7, if the calculated difference is larger than the initial value (initial difference) (step L7; No), the parameter updating unit 34 decreases the parameter P h and the parameter P w (step L13). The face
以上のように、実施形態に係る顔向き検出システム1は、顔映像取得カメラ10と、顔特徴点検出ユニット20と、顔向き検出部33とを備える。顔映像取得カメラ10は、人物の顔を撮像する。顔特徴点検出ユニット20は、顔映像取得カメラ10により撮像された人物の顔の画像に基づいて、人物の目尻Eの位置を検出する。顔向き検出部33は、顔特徴点検出ユニット20により検出された目尻Eの位置と、人物の頭部を回旋する際の基準となる頭軸Pの位置とに基づいて、人物の顔の向きを検出する。
As described above, the face
この構成により、顔向き検出システム1は、人物が脇見した際に片方の目尻しか検出できない場合やマスク等の装着物により顔の一部が覆われている場合でも、人物の顔の向きを判定することができる。また、顔向き検出システム1は、従来のように多数の顔の特徴点を用いた3次元の回転行列等を用いて顔の向きを検出せずに、2次元の座標データに基づいて顔の向きを検出するので、演算量が増加することを抑制することができ、処理負荷を軽減することができる。この結果、顔向き判定システムは、人物の顔の向きを適正に検出することができる。
With this configuration, the face
上記顔向き検出システム1において、顔向き検出部33は、上下方向Yにおける頭軸Pの位置と目尻Eの位置との間の距離h1に基づいて上下方向Yにおける人物の顔の向きを検出する。この構成により、顔向き検出システム1は、演算量が増加することを抑制した上で、人物の上下方向Yの顔の向きを適正に検出することができる。
In the face
上記顔向き検出システム1において、顔向き検出部33は、上下方向Yに交差する左右方向Xにおける頭軸Pの位置と目尻Eの位置(例えば、右目尻REの位置座標(xRE1、zRE1))とに基づいて左右方向Xにおける人物の顔の向きを検出する。この構成により、顔向き検出システム1は、演算量が増加することを抑制した上で、人物の左右方向Xの顔の向きを適正に検出することができる。
In the face
上記顔向き検出システム1において、顔向き検出部33は、頭軸Pの位置として、予め定められた標準の頭軸Pの位置を、人物が正面を向いた状態で顔映像取得カメラ10により撮像された人物の顔の画像から求まる人物の左右の目尻Eの距離d0に応じて補正した補正後の頭軸Pの位置に基づいて、人物の顔の向きを検出する。この構成により、顔向き検出システム1は、人物の個人差に応じて頭軸Pを補正することができるので、人物の顔の向きの検出精度を向上することができる。
In the face
上記顔向き検出システム1において、顔向き検出部33は、人物の左右の目尻Eの距離d0に応じて、上下方向Yにおける頭軸Pの位置と目尻Eの位置との間の距離h、及び、上下方向Yに交差する奥行き方向Zにおける頭軸Pの位置と左右の目尻Eの中央の位置との間の距離wを補正した補正後の頭軸Pの位置に基づいて、人物の顔の向きを検出する。この構成により、顔向き検出システム1は、人物の個人差に応じて頭軸Pを上下方向Y及び奥行き方向Zに沿って補正することができるので、人物の顔の向きの検出精度を向上することができる。
In the face
上記顔向き検出システム1において、顔向き検出部33は、頭軸Pの位置として、予め定められた標準の頭軸Pの位置を、人物が正面位置に対する顔映像取得カメラ10の相対位置に応じて補正した補正後の頭軸Pの位置に基づいて、人物の顔の向きを検出する。この構成により、顔向き検出システム1は、顔映像取得カメラ10の取り付け精度の誤差等を補正することができるので、人物の顔向きの検出精度の低下を抑制することができる。
In the face
上記顔向き検出システム1において、人物が正面位置に対する顔映像取得カメラ10の相対位置に応じて、上下方向Yにおける頭軸Pの位置と目尻Eの位置との間の距離h、及び、上下方向Yに交差する奥行き方向Zにおける頭軸Pの位置と左右の目尻Eの中央の位置との間の距離wを補正するパラメータ更新部34をさらに備える。この構成により、顔向き検出システム1は、上下方向Y及び奥行き方向Zにおいて、顔映像取得カメラ10の取り付け精度の誤差等を補正することができるので、人物の顔向きの検出精度の低下を抑制することができる。
In the face
〔変形例〕
次に、実施形態の変形例について説明する。なお、変形例では、実施形態と同等の構成要素には同じ符号を付し、その詳細な説明を省略する。図19は、実施形態の第1変形例に係る頭軸Pの位置の計算処理を示すフローチャートである。第1変形例に係る頭軸Pの位置の計算処理は、顔認証により固有の情報を記憶する点で実施形態に係る頭軸Pの位置の計算処理とは異なる。図19において、顔映像取得カメラ10は、運転者の顔が正面を向いた状態で当該運転者の顔を撮像する(ステップV1、V2)。顔特徴点検出ユニット20は、顔映像取得カメラ10により撮像された画像データから顔を検出し(ステップV3)、当該顔の特徴点として左右の目尻E、左右の瞳孔等を検出し、これらの顔の部位の位置を検出する(ステップV4)。目尻距離演算部31は、顔特徴点検出ユニット20から出力された左右の目尻Eの位置を表す情報(左右の目尻Eの位置座標を表す情報)に基づいて、左右の目尻Eの距離d0を演算すると共に、左右の目尻Eの中央の位置を演算する(ステップV5)。顔向き検出部33は、予め定められた標準の頭軸Pの位置を、運転者が正面を向いた状態で顔映像取得カメラ10により撮像された運転者の顔の画像から求まる運転者の左右の目尻Eの距離d0に応じて補正して補正後の頭軸Pの位置を演算する(ステップV6)。顔認証部(図示省略)は、運転者の顔の認証を行い(ステップV7)、顔画像、頭軸Pの位置、座席位置等を記憶部32に記憶する(ステップV8)。
[Modified example]
Next, a modification of the embodiment will be described. In addition, in the modified example, the same reference numerals are given to the same components as in the embodiment, and detailed explanation thereof will be omitted. FIG. 19 is a flowchart showing calculation processing of the position of the head axis P according to the first modification of the embodiment. The process of calculating the position of the head axis P according to the first modification differs from the process of calculating the position of the head axis P according to the embodiment in that unique information is stored through face authentication. In FIG. 19, the face
図20は、実施形態の第2変形例に係る頭軸Pの位置の計算処理を示すフローチャートである。顔向き検出システム1は、車両の加速度を検出する加速度センサー50と、運転者が正面を向いたことを判定する正面判定部60とを備える。図20において、顔向き検出システム1は、加速度センサー50により車両の加速度を検出する(ステップW1)。加速度センサー50は、検出した加速度を正面判定部60に出力する。正面判定部60は、加速度センサー50により車両の加速度が検出された場合(ステップW2;Yes)、車両が前進して運転者が正面を向いたと判定する。顔映像取得カメラ10は、正面判定部60により運転者が正面を向いたと判定された場合、運転者の顔が正面を向いた状態で当該運転者の顔を撮像する(ステップW3)。顔特徴点検出ユニット20は、顔映像取得カメラ10により撮像された画像データから顔を検出し(ステップW4)、当該顔の特徴点として左右の目尻E、左右の瞳孔等を検出し、これらの顔の部位の位置を検出する(ステップW5)。目尻距離演算部31は、顔特徴点検出ユニット20から出力された左右の目尻Eの位置を表す情報(左右の目尻Eの位置座標を表す情報)に基づいて、左右の目尻Eの距離d0を演算すると共に、左右の目尻Eの中央の位置を演算する(ステップW6)。顔向き検出部33は、予め定められた標準の頭軸Pの位置を、運転者が正面を向いた状態で顔映像取得カメラ10により撮像された運転者の顔の画像から求まる運転者の左右の目尻Eの距離d0に応じて補正して補正後の頭軸Pの位置を演算する(ステップW7)。なお、顔向き検出システム1は、加速度センサー50により加速度が検出されない場合(ステップW2;No)、ステップW1に戻って、再度、加速度を検出する。以上のように、顔向き検出システム1は、車両の加速度を検出する加速度センサー50と、加速度センサー50により検出された車両の加速度に基づいて運転者が正面を向いたことを判定する正面判定部60とを更に備える。顔映像取得カメラ10は、正面判定部60により判定された車両の加速度に基づく判定結果に基づいて運転者の顔を撮像する。この構成により、顔向き検出システム1は、車両の加速度に基づいて運転者が正面を向いたことを自動的に判定して運転者の正面の顔を撮像することができる。
FIG. 20 is a flowchart showing calculation processing for the position of the head axis P according to the second modification of the embodiment. The face
図21は、実施形態の第3変形例に係る頭軸Pの位置の計算処理を示すフローチャートである。図21において、顔向き検出システム1は、視線検出部40により運転者の視線を検出する(ステップF1)。視線検出部40は、検出した運転者の視線を正面判定部60に出力する。正面判定部60は、視線検出部40により検出された視線が正面を向いている場合(ステップF2;Yes)、運転者が正面を向いていると判定する。顔映像取得カメラ10は、正面判定部60により運転者が正面を向いたと判定された場合、運転者の顔が正面を向いた状態で当該運転者の顔を撮像する(ステップF3)。顔特徴点検出ユニット20は、顔映像取得カメラ10により撮像された画像データから顔を検出し(ステップF4)、当該顔の特徴点として左右の目尻E、左右の瞳孔等を検出し、これらの顔の部位の位置を検出する(ステップF5)。目尻距離演算部31は、顔特徴点検出ユニット20から出力された左右の目尻Eの位置を表す情報(左右の目尻Eの位置座標を表す情報)に基づいて、左右の目尻Eの距離d0を演算すると共に、左右の目尻Eの中央の位置を演算する(ステップF6)。顔向き検出部33は、予め定められた標準の頭軸Pの位置を、運転者が正面を向いた状態で顔映像取得カメラ10により撮像された運転者の顔の画像から求まる運転者の左右の目尻Eの距離d0に応じて補正して補正後の頭軸Pの位置を演算する(ステップF7)。なお、顔向き検出システム1は視線検出部40により検出した視線が正面を向いていない場合(ステップF2;No)、ステップF1に戻って、再度、視線を検出する。以上のように、顔向き検出システム1は、運転者の視線を検出する視線検出部40と、視線検出部40により検出された運転者の視線に基づいて運転者が正面を向いたことを判定する正面判定部60とを更に備える。顔映像取得カメラ10は、正面判定部60により判定された運転者の視線に基づく判定結果に基づいて運転者の顔を撮像する。この構成により、顔向き検出システム1は、運転者の視線に基づいて運転者が正面を向いたことを自動的に判定して運転者の正面の顔を撮像することができる。
FIG. 21 is a flowchart showing calculation processing for the position of the head axis P according to the third modification of the embodiment. In FIG. 21, the face
上記説明では、顔向き検出部33は、記憶部32に記憶された標準の頭軸Pを個人に合わせて補正するパーソナライズ処理を行う例について説明したが、これに限定されず、当該パーソナライズ処理を行わずに標準の頭軸Pに基づいて顔向きを検出してもよい。
In the above description, an example has been described in which the face
パラメータ更新部34は、記憶部32に記憶された標準の頭軸Pを顔映像取得カメラ10の相対位置に応じて補正するパラメータ更新処理を行う例について説明したが、これに限定されず、当該パラメータ更新処理を行わずに標準の頭軸Pに基づいて顔向きを検出してもよい。
Although an example has been described in which the parameter updating unit 34 performs a parameter updating process of correcting the standard head axis P stored in the
1 顔向き検出システム
10 顔映像取得カメラ(撮像部)
20 顔特徴点検出ユニット(目尻検出部)
33 顔向き検出部
34 パラメータ更新部
40 視線検出部
50 加速度センサー
E 目尻
P 頭軸(頭部回旋基準)
Y 上下方向(鉛直方向)
X 左右方向
Z 奥行き方向
h、h1、d0、w 距離
1 Face
20 Facial feature point detection unit (eye corner detection unit)
33 Face direction detection unit 34
Y Vertical direction (vertical direction)
X Horizontal direction Z Depth direction h, h 1 , d 0 , w Distance
Claims (9)
前記撮像部により撮像された前記人物の顔の画像に基づいて、前記人物の目尻の位置を検出する目尻検出部と、
前記目尻検出部により検出された前記目尻の位置と、前記人物の頭部を回旋する際の基準となる頭部回旋基準の位置とに基づいて、前記人物の顔の向きを検出する顔向き検出部と、を備えることを特徴とする顔向き検出システム。 an imaging unit that captures an image of a person's face;
an eye corner detection unit that detects the position of the person's eye corner based on an image of the person's face captured by the imaging unit;
Face orientation detection that detects the orientation of the person's face based on the position of the eye corner detected by the eye corner detection unit and a head rotation reference position that is a reference when rotating the person's head. A face orientation detection system comprising: and.
前記加速度センサーにより検出された前記車両の加速度に基づいて前記人物が正面を向いたことを判定する正面判定部とを更に備え、
前記撮像部は、前記正面判定部により判定された前記車両の加速度に基づく判定結果に応じて前記人物の顔を撮像する請求項1~7のいずれか1項に記載の顔向き検出システム。 an acceleration sensor that detects vehicle acceleration;
further comprising a frontal determination unit that determines that the person faces forward based on the acceleration of the vehicle detected by the acceleration sensor,
The face orientation detection system according to any one of claims 1 to 7, wherein the imaging unit images the face of the person according to a determination result based on the acceleration of the vehicle determined by the frontal orientation determination unit.
前記視線検出部により検出された前記人物の視線に基づいて前記人物が正面を向いたことを判定する正面判定部とを更に備え、
前記撮像部は、前記正面判定部により判定された前記人物の視線に基づく判定結果に応じて前記人物の顔を撮像する請求項1~8のいずれか1項に記載の顔向き検出システム。 a line of sight detection unit that detects the line of sight of the person;
further comprising a frontal determination unit that determines that the person is facing forward based on the person's line of sight detected by the line of sight detection unit;
9. The face orientation detection system according to claim 1, wherein the imaging unit images the face of the person according to a determination result based on the line of sight of the person determined by the frontal determination unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021202576A JP7418386B2 (en) | 2021-12-14 | 2021-12-14 | Face orientation determination system |
PCT/JP2022/042961 WO2023112606A1 (en) | 2021-12-14 | 2022-11-21 | Face direction determination system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021202576A JP7418386B2 (en) | 2021-12-14 | 2021-12-14 | Face orientation determination system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023087986A JP2023087986A (en) | 2023-06-26 |
JP7418386B2 true JP7418386B2 (en) | 2024-01-19 |
Family
ID=86774113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021202576A Active JP7418386B2 (en) | 2021-12-14 | 2021-12-14 | Face orientation determination system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7418386B2 (en) |
WO (1) | WO2023112606A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009104524A (en) | 2007-10-25 | 2009-05-14 | Hitachi Ltd | Gaze direction measuring method and gaze direction measuring device |
WO2015186519A1 (en) | 2014-06-06 | 2015-12-10 | シャープ株式会社 | Image processing device and image display device |
JP2018163411A (en) | 2017-03-24 | 2018-10-18 | アルプス電気株式会社 | Face direction estimation device and face direction estimation method |
JP2020144546A (en) | 2019-03-05 | 2020-09-10 | アルパイン株式会社 | Facial feature detection apparatus and facial feature detection method |
-
2021
- 2021-12-14 JP JP2021202576A patent/JP7418386B2/en active Active
-
2022
- 2022-11-21 WO PCT/JP2022/042961 patent/WO2023112606A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009104524A (en) | 2007-10-25 | 2009-05-14 | Hitachi Ltd | Gaze direction measuring method and gaze direction measuring device |
WO2015186519A1 (en) | 2014-06-06 | 2015-12-10 | シャープ株式会社 | Image processing device and image display device |
JP2018163411A (en) | 2017-03-24 | 2018-10-18 | アルプス電気株式会社 | Face direction estimation device and face direction estimation method |
JP2020144546A (en) | 2019-03-05 | 2020-09-10 | アルパイン株式会社 | Facial feature detection apparatus and facial feature detection method |
Non-Patent Citations (1)
Title |
---|
田中 良幸、外6名,"人間の眼球-関節運動特性に基づく自動車インテリア・パッケージの解析評価 ",計測自動制御学会論文集,日本,社団法人計測自動制御学会,2010年02月28日,Vol.46, No.2,pp.123-129 |
Also Published As
Publication number | Publication date |
---|---|
WO2023112606A1 (en) | 2023-06-22 |
JP2023087986A (en) | 2023-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4814669B2 (en) | 3D coordinate acquisition device | |
KR101787304B1 (en) | Calibration method, calibration device, and computer program product | |
JP4865517B2 (en) | Head position / posture detection device | |
US20160037032A1 (en) | Method for detecting mounting posture of in-vehicle camera and apparatus therefor | |
JP6840697B2 (en) | Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program | |
WO2015029443A1 (en) | Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system | |
JP6377970B2 (en) | Parallax image generation apparatus and parallax image generation method | |
JP6669182B2 (en) | Occupant monitoring device | |
JPWO2019163124A1 (en) | 3D position estimation device and 3D position estimation method | |
CN110537207B (en) | Face orientation estimating device and face orientation estimating method | |
JP4735361B2 (en) | Vehicle occupant face orientation detection device and vehicle occupant face orientation detection method | |
JP6897082B2 (en) | Computer program for face orientation estimation, face orientation estimation device and face orientation estimation method | |
JPWO2005024754A1 (en) | In-vehicle image processing device | |
JP2009139324A (en) | Travel road surface detecting apparatus for vehicle | |
JP7418386B2 (en) | Face orientation determination system | |
JP2018151930A (en) | Driver state estimation device and driver state estimation method | |
WO2015198592A1 (en) | Information processing device, information processing method, and information processing program | |
JP6202356B2 (en) | Image processing apparatus and method, and imaging apparatus | |
US10997861B2 (en) | Luminance control device, luminance control system, and luminance control method | |
JP2018136739A (en) | Calibration device | |
JP5098981B2 (en) | Face detection device | |
JP2018033035A (en) | Image processing apparatus, imaging device, program, instrument control system, and instrument | |
JP2021193340A (en) | Self-position estimation device | |
KR102479253B1 (en) | Method for compensating camera tolerance based on a camera image of a vehicle | |
JP7134384B1 (en) | Deviation amount detection device, deviation amount detection method, and driver monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7418386 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |