JP2006065673A - 顔中心位置検出装置及び方法並びにプログラム - Google Patents

顔中心位置検出装置及び方法並びにプログラム Download PDF

Info

Publication number
JP2006065673A
JP2006065673A JP2004249008A JP2004249008A JP2006065673A JP 2006065673 A JP2006065673 A JP 2006065673A JP 2004249008 A JP2004249008 A JP 2004249008A JP 2004249008 A JP2004249008 A JP 2004249008A JP 2006065673 A JP2006065673 A JP 2006065673A
Authority
JP
Japan
Prior art keywords
face
center position
detected
horizontal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004249008A
Other languages
English (en)
Other versions
JP4130820B2 (ja
Inventor
Nobumasa Shiraki
伸征 白木
Michinori Ando
道則 安藤
Yoshiki Ninomiya
芳樹 二宮
Takehiko Tanaka
勇彦 田中
Takeshi Hayashi
健 林
Junya Kasugai
純也 春日井
Yoshiyasu Adachi
省泰 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2004249008A priority Critical patent/JP4130820B2/ja
Priority to EP05018542A priority patent/EP1630718B1/en
Priority to DE602005002802T priority patent/DE602005002802T2/de
Priority to CN2005100965585A priority patent/CN100407221C/zh
Priority to US11/212,586 priority patent/US7522752B2/en
Publication of JP2006065673A publication Critical patent/JP2006065673A/ja
Application granted granted Critical
Publication of JP4130820B2 publication Critical patent/JP4130820B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 顔モデルデータを用いることなく演算負担を軽減して、顔中心位置を検出する。
【解決手段】 カメラ10からコンピュータ14内に顔画像を入力して(ステップS1)、ドライバの顔左右位置、つまりドライバの顔の両端位置を検出する(ステップS2)。次に、顔の両端の範囲内で、横エッジを横方向に投影してヒストグラムを作成して、ヒストグラムのピークに基づいて顔の上及び下位置を推定する(ステップS3)。そして、所定の閾値を用いて、縦方向に白→黒→白と変化する箇所である横エッジ(白黒白エッジ)を検出して(ステップS4)、横エッジを構成する各画素のx座標の平均値を算出して、その平均値を顔中心位置iFaceCenterとして検出する(ステップS5)。
【選択図】 図3

Description

本発明は、顔中心位置検出装置及び方法並びにプログラムに係り、特に、顔を撮像して得られた画像に基づいて顔の中心位置を検出する顔中心位置検出装置及び方法並びにプログラムに関する。
顔画像に基づいて人を識別したり、表情を読み取ったりするためには、顔の方向、つまり顔中心位置を検出することが重要となる。
従来、予め対象者の顔画像データを取得していなくても、不特定個人の顔画像からその顔方向を検出する画像処理装置が提案されている(例えば、特許文献1を参照。)。この画像処理装置は、複数のサンプル正面顔画像データに基づいて平均正面顔画像データを生成し、平均正面顔画像データを標準顔形状モデルデータにマッピングして、平均顔モデルデータを生成する。そして、平均顔モデルデータを所定角度から見たときの角度別平均顔画像データと、入力された画像との相関度に基づいて、入力画像における顔方向を検出する。
また、入力画像に対して、顔の輪郭と目の位置に相当する3D顔モデルを想定して用意しておき、そのモデルを様々な角度に回転させて、輪郭や目の位置が一致する角度を顔向き角度とする顔向き推定装置が提案されている(例えば、特許文献2を参照)。
特開2001−291108号公報 特開2004−94491号公報
しかし、特許文献1に記載された画像処理装置は、様々な大きさの顔、様々な向きの顔に対してテンプレートを用意したり、それらと入力画像とのマッチングの演算のために、非常に多大な負担がかかってしまう問題があった。
一方、特許文献2に記載された顔向き推定装置は、平易なテンプレートを用いているが、人の顔、特に髪型は個人差が大きいため、顔の輪郭や目の位置と一致しないことが多い。このため、一致させようとすると、多くの顔モデルを用意する必要があるため、処理量が増大する問題がある。
本発明は、上述した課題を解決するために提案されたものであり、顔モデルデータを用いることなく演算負担を軽減して、顔中心位置を検出することができる顔中心位置検出装置及び方法並びにプログラムを提供することを目的とする。
上述した課題を解決するため、本発明に係る顔中心位置検出装置は、顔を撮像して得られた画像を入力する画像入力手段と、前記画像入力手段により入力された画像に基づいて、所定の縦幅を有する横エッジを検出する横エッジ検出手段と、前記横エッジ検出手段により検出された横エッジの横位置情報の平均値を算出し、その平均値を顔中心位置として検出する顔中心位置検出手段と、を備えている。
本発明に係る顔中心位置検出方法は、顔を撮像して得られた画像に基づいて、所定の縦幅を有する横エッジを検出し、前記検出された横エッジの横位置情報の平均値を算出し、その平均値を顔中心位置として検出する。
本発明に係る顔中心位置検出プログラムは、コンピュータに、顔を撮像して得られた画像に基づいて、所定の縦幅を有する横エッジを検出し、前記検出された横エッジの横位置情報の平均値を算出し、その平均値を顔中心位置として検出する処理を実行させる。
画像入力手段は、顔を撮像して得られた画像を入力する。この画像は、被写体である人の顔だけでなく、その背景も含まれている。なお、画像入力手段は、人の顔を撮像して画像を生成する撮像手段から供給された画像を入力してもよい。
横エッジ検出手段は、画像入力手段により入力された画像に基づいて、所定の縦幅を有する横エッジを検出する。所定の縦幅とは、眉、目、鼻、口の顔部品に対応する縦幅をいう。これにより、ノイズによって生じた非常に短いエッジや、眉や目などの顔部品よりも大きなエッジを除去することができる。
顔中心位置検出手段は、検出された横エッジの横位置情報の平均値を算出する。ここで、検出された横エッジは、上記の顔部品にそれぞれ対応しているため、それぞれ左右対称に存在している。そこで、横エッジの横位置情報の平均値を算出すれば、その平均値が顔中心位置として検出される。
以上のように、本発明に係る顔中心位置検出装置及び方法並びにプログラムによれば、顔を撮像して得られた画像に基づいて所定の縦幅を有する横エッジを検出し、前記検出された横エッジの横位置情報の平均値を算出し、その平均値を顔中心位置として検出することにより、演算負担を少なくしつつ、高速かつ確実に顔中心位置を検出することができる。
また、上記顔中心位置検出装置は、前記画像入力手段により入力された画像に基づいて、顔の縦方向又は横方向の長さを検出する顔長さ検出手段を更に備え、前記横エッジ検出手段は、顔長さ検出手段により検出された前記顔の縦方向又は横方向の長さに基づいて、前記横エッジの縦幅又は横の長さの範囲を決定し、決定した範囲内の横エッジを検出してもよい。
上記顔中心位置検出方法は、前記顔を撮像して得られた画像に基づいて、顔の縦方向又は横方向の長さを検出し、前記検出された前記顔の縦方向又は横方向の長さに基づいて、前記横エッジの縦幅又は横の長さの範囲を決定し、決定した範囲内の横エッジを検出してもよい。
検出された横エッジの中には、ノイズによって生じた短い横エッジがあったり、顔部品より大きい部分(例えば髪など)の横エッジなどが存在する。このような横エッジが検出されると、正確に顔中心位置を検出できないことがある。
そこで、上記発明は、顔の縦方向又は横方向の長さを検出し、検出した長さに基づいて横エッジの縦幅の範囲を決定し、決定した範囲内の横エッジを検出することによって、顔部品以外の横エッジを除去して、最適な横エッジのみを検出することができる。
また、上記顔中心位置検出装置において、前記顔中心位置検出手段は、画像中心位置から画像両端方向へ向かうに従って重みが大きくなる重み係数を算出し、前記重み係数によって重み付けされた横位置情報の平均値を顔中心位置として検出してもよい。
上記顔中心位置検出方法において、画像中心位置から画像両端方向へ向かうに従って重みが大きくなる重み係数を算出し、前記重み係数によって重み付けされた横位置情報の平均値を顔中心位置として検出してもよい。
顔が横を向いた場合、横を向いた側の横エッジが欠けてしまい、横エッジが短くなってしまう。この場合、横エッジの横位置情報の平均値を算出しても、正確な顔中心位置が検出されない。
そこで、上記発明は、画像中心位置から画像両端方向へ向かうに従って重みが大きくなる重み係数を算出し、前記重み係数によって重み付けされた横位置情報の平均値を顔中心位置として検出することで、欠けてしまった横エッジの重みを大きくすることで、正確な顔中心位置を検出することができる。
また、上記顔中心位置検出装置において、前記顔中心位置検出手段は、前記横エッジが検出された画像の中から前記横エッジを構成する単位領域を検出する毎に、その単位領域の横位置情報を加算して横位置情報加算値を算出し、前記横位置情報加算値とその加算した回数とに基づいて、顔中心位置を検出してもよい。
上記顔中心位置検出方法において、前記横エッジが検出された画像の中から前記横エッジを構成する単位領域を検出する毎に、その単位領域の横位置情報を加算して横位置情報加算値を算出し、前記横位置情報加算値とその加算した回数とに基づいて、顔中心位置を検出してもよい。
これにより、上記発明は、横位置情報加算値とその加算した回数とに基づいて、横位置情報の平均値を算出することができるので、顔中心位置を検出することができる。
また、上記顔中心位置検出装置において、前記顔中心位置検出手段は、前記横エッジが検出された画像の中から前記横エッジを構成する単位領域を検出する毎に、その単位領域の前記重み係数によって重み付けされた横位置情報を加算して横位置情報加算値を算出すると共に、前記検出された単位領域の重み係数を加算して重み係数加算値を算出し、前記横位置情報加算値と前記重み係数加算値とに基づいて、顔中心位置を検出してもよい。
上記顔中心位置検出方法において、前記横エッジが検出された画像の中から前記横エッジを構成する単位領域を検出する毎に、その単位領域の前記重み係数によって重み付けされた横位置情報を加算して横位置情報加算値を算出すると共に、前記検出された単位領域の重み係数を加算して重み係数加算値を算出し、前記横位置情報加算値と前記重み係数加算値とに基づいて、顔中心位置を検出してもよい。
これにより、上記発明は、前記横位置情報加算値と前記重み係数加算値とに基づいて、重み付けされた横位置情報の平均値を算出することができるので、顔が横を向いた場合でも、演算負担をかけることなく、確実に顔中心位置を検出することができる。
本発明に係る顔中心位置検出装置及び方法並びにプログラムは、顔を撮像して得られた画像に基づいて所定の縦幅を有する横エッジを検出し、前記検出された横エッジの横位置情報の平均値を算出し、その平均値を顔中心位置として検出することにより、演算負担を少なくしつつ、高速かつ確実に顔中心位置を検出することができる。
以下、本発明を実施するための最良の形態について、図面を参照しながら詳細に説明する。本実施形態では、車両を運転するドライバの顔を撮像してドライバの顔の中心位置を検出する例を挙げて説明するが、本発明はドライバ以外の顔の中心位置を検出することも可能である。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る顔中心位置検出装置の構成を示す図である。顔中心位置検出装置は、ドライバの顔を撮影して顔画像を生成するカメラ10と、ドライバの顔を照明する照明光源12と、ドライバの顔中心位置を検出するコンピュータ14と、コンピュータ14に接続された表示装置16と、を備えている。
カメラ10によって生成される顔画像は、ドライバの顔だけでなく、その背景も含まれている。また、表示装置16は、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)で構成され、カメラ10で撮影された顔画像から抽出された2値化画像等を表示する。
図2は、コンピュータ14の構成を示すブロック図である。
コンピュータ14は、カメラ10で撮像された画像をディジタル信号に変換するアナログ/ディジタル(A/D)変換器21と、カメラ10により生成された顔画像を記憶する画像メモリ22と、顔中心位置を検出するためのプログラムが記憶されているROM23と、ROM23に記憶されたプログラムに基づいて所定の演算を行うCPU24と、データのワークエリアであるRAM25と、表示装置16の表示制御を行う表示制御器27と、光源12の点灯又は消滅を制御する発光制御器28と、を備えている。
図3は、ROM23に記憶された顔中心位置検出プログラムの処理ルーチンを示すフローチャートである。すなわち、CPU24は、この処理ルーチンに従ってステップS1からステップS5までを実行する。
ステップS1では、CPU24は、カメラ10からコンピュータ14内に顔画像を入力して、A/D変換器21を介して画像メモリ22に書き込んで、ステップS2に移行する。
ステップS2では、CPU24は、ドライバの顔左右位置、つまりドライバの顔の両端位置を検出する。例えば、CPU24は、顔画像の縦エッジを計算し、その縦エッジを縦方向に投影してヒストグラムを作成する。このとき、顔の両端部分にピークが現れるので、そのピークを顔の両端、すなわち左右位置として検出する。なお、ヒストグラム作成時には、時間差分や長さによる重み付けを行い、ノイズ成分(ヘッドレストや窓枠などの背景)を除去するとよい。その他、テンプレートマッチングや距離画像などを利用して顔左右位置を検出する手法もある。具体的にCPU24は、次の処理を実行すればよい。
図4は、ステップS2における顔左右位置検出ルーチンの一例を示すフローチャートである。図5(A)から(F)は、顔左右位置検出ルーチンの各工程で生成される画像を示す図である。
ステップS11では、CPU24は、画像メモリ22から顔画像(図5(A))を読み出し、この顔画像の画素値を横方向(水平方向)に微分する。具体的には、各画素の輝度とその画素に隣接する画素の輝度との差分を算出して、エッジ部抽出画像(図5(B))を生成して、ステップS12に移行する。同図において、波線は元画像の輪郭である。エッジ部抽出画像において、背景の縦エッジ31と顔画像の縦エッジ32のみが抽出され、波線で示した元画像の輪郭はほとんど残っていない。これらの縦エッジ31、32は、ドライバが動いていない場合でも、抽出される。
なお、エッジ部抽出画像の画素値(輝度の微分値)を縦方向(垂直方向)に投影した場合、図5(B)下部に示すように、ヒストグラムが得られる。このヒストグラムでは、すべてのエッジ部の強度がほぼ等しいことから、顔の両端位置を特定することはできない。
ステップS12では、CPU24は、画像メモリ22から顔画像(図5(A))を読み出し、この顔画像の画素値を時間で微分する。具体的には、ある時刻における各画素の輝度とその直前の各画素の輝度との差分を算出して、動く対象のみを強調した画素値時間微分画像(図5(C))を生成して、ステップS13に移行する。
ドライバは運転中に完全に静止するのではないので、画素値時間微分画像では、動いているものの輪郭、つまりドライバの輪郭が太く検出される。これに対して、窓、ピラー、ヘッドレスト等の背景は全く動かないため、ほとんど残っていない。但し、画素値時間分画像では、ドライバがよく動く場合には顔の輪郭が検出されるが、ドライバがほとんど動かない場合にはほとんど検出されない。そこで、次の処理が必要となる。
ステップS13及びS14では、CPU24は、エッジ部抽出画像と画素値時間微分画像とを合成して合成画像1(図5(D))を生成し、合成画像1の画素値(輝度)を縦方向に投影してヒストグラムを生成する。このように、合成画像1は、エッジ部抽出画像と画素値時間微分画像とが合成された画像である。よって、ドライバが動いていない場合でも動いている場合でも、合成画像1には、ドライバの縦エッジ又は輪郭が現れている。
なお、エッジ部抽出画像の画素値と画素値時間微分画像の画素値をそれぞれ縦方向に投影して2つのヒストグラムを生成し、この2つのヒストグラムを合計してもよい。そして、合成画像1のヒストグラムからピーク34、35を検出して、ステップS15に移行する。
ステップS15では、CPU24は、合成画像1のヒストグラムから検出された複数のピーク34、35の中から、人の顔幅に最も対応するピーク間隔となる2つのピークを検出し、この2つのピークを顔の左右位置として検出する。そして、顔左右位置検出ルーチンを抜けて、図3に示すステップS2に移行する。
なお、顔左右位置検出ルーチンは、上記の例に限定されるものではなく、例えば次のようなものでもよい。
例えば、CPU24は、ステップS12において、画素値の時間微分演算の対象として顔画像(図5(A))を用いたが、その代わりにエッジ部抽出画像(図5(B))を用いてもよい。つまり、ステップS12では、エッジ部抽出画像(図5(B))の画素値(輝度)を時間で微分して、エッジ部時間微分画像(図5(E))を生成してもよい。これにより、図5(B)に示すようにエッジ部抽出画像内の複数の縦エッジ31、32のうち、窓、ヘッドレスト等の全く動かない背景の縦エッジを消去して、図5(E)に示すように動きのある顔画像の中の縦エッジ33のみを抽出できる。
ステップS13以降は、上記と同様である。なお、ステップS13及びS14では、CPU24は、上記と同様に、エッジ部抽出画像とエッジ部時間微分画像とを合成して合成画像2(図5(F))を生成し、合成画像2の画素値(輝度)を縦方向に投影してヒストグラムを生成し、このヒストグラムからピーク34、35を検出すればよい。
図6は、ステップS2の処理によって顔左右位置が検出された状態及び後述の処理によって顔上下位置が検出された状態を示す図である。
CPU24は、同図に示すように、ヒストグラムの複数のピークから、人の顔幅に最も対応するピーク間隔となる2つのピークを検出し、この2つのピークを顔の左右位置として検出する。このため、CPU24は、顔左右位置検出ルーチンを実行することにより、人の背景や人の動きに影響されることなく、顔の両端位置を検出することができる。そして、図3に示すステップS3以降の処理を実行する。
ステップS3では、CPU24は、顔の両端の範囲内で、横エッジを横方向に投影してヒストグラムを作成する。このヒストグラムでは、眉、目、口に相当する部分にピークが生じている。そこで、図6に示すように、ヒストグラムのピークに基づいて顔の上及び下位置を推定して、ステップS4に移行する。
なお、顔の左右位置及び上下位置の検出方法は、上記の例に限定されるものではなく、その他テンプレートマッチングや距離画像を用いる手法であってもよい。
ステップS4では、CPU24は、カメラ10で撮像された状態で画像メモリ22に記憶されている顔画像に対して、所定の閾値を用いて、縦方向に白→黒→白と変化する箇所である横エッジ(白黒白エッジ)を検出して、ステップS5に移行する。ここで、白とは画素の輝度が所定の閾値より上のものであり、黒は画素の輝度が所定の閾値より下のものである。
図7は、白黒白エッジを説明するための図である。このように、白黒白エッジとは、単に白と黒の境界となるエッジではなく、白→黒→白と変化し、所定の幅を有する横エッジをいう。
図8(A)は入力画像を示す図であり、(B)は入力画像から得られた白黒白エッジを示す図である。ステップS4において具体的には、CPU24は、画像中の顔の縦幅が例えば60ピクセル程度の場合、縦方向に2〜4ピクセル幅の黒い画素、つまり輝度が低い画素を検出すればよい。これにより、1ピクセル幅の黒い画素を無視するのでノイズ成分を除去することができる。
また、検出幅を4ピクセル以下に限定することで、図8に示すように、顔部品(眉、目、鼻、口)に限定してエッジを検出することができる。なお、縦方向の検出幅は、上記の2〜4ピクセル幅に限定されるものではない。顔の縦幅が60ピクセルから大きく異なるときは、それに応じて変更すればよい。すなわち、顔の縦幅に応じて縦方向の検出幅を変えればよい。
さらに、CPU24は、ステップS2で検出した顔の左右位置から顔幅を算出し、白黒白エッジのうち横方向の長さが所定値以上(例えば、顔幅の10%以上)の白黒白エッジである白黒白長さエッジを検出する。
図9(A)は白黒白エッジを示す図であり、(B)は白黒白長さエッジを示す図である。図10は、顔画像全体の白黒白長さエッジを示す図である。これにより、ノイズによる短い横エッジを除去することができる。ここで、「10%以上」としたのは、顔画像の統計的データによると、顔幅に対する顔部品の幅は10%以上になるため、10%未満は顔部品ではないと考えられるからである。なお、本実施形態では「10%」としたが、横方向のノイズを除去できるものであれば、この数値に限定されるものでない。以下では、白黒白長さエッジを単に横エッジとして説明する。
ステップS5では、CPU24は、横エッジを構成する各画素のx座標の平均値を算出して、その平均値を顔中心位置iFaceCenterとして検出する。
図11は、ステップS5におけるx座標平均値算出ルーチンの一例を示すフローチャートである。すなわち、CPU24は、次のステップS21からステップS28までの処理を実行する。
ステップS21では、パラメータの初期設定を行う。具体的には、x=y=iXsum=iCount=0に設定して、ステップS22に移行する。
図12は、横エッジの顔画像にx座標及びy座標を設定した状態を示す図である。x及びX_MAXは、横エッジの画像全体のx座標及びその最大値である。y及びY_MAXは、横エッジの画像全体のy座標及びその最大値である。iXsumは横エッジが存在する画素のx座標を加算した値であり、iCountは横エッジが存在する画素をカウントしたときのカウント値である。
ステップS22では、座標(x,y)の画素に横エッジがあるか否か(Edge[x][y]=1又は0)を判定する。なお、Edge[x][y]は、座標(x,y)の画素に横エッジがあるか否かを示すビット値(0:エッジなし、1:エッジあり)である。そして、肯定判定のときはステップS23に移行し、否定判定のときはステップS24に移行する。
ステップS23では、iXsumにx座標を加算し(iXsum=iXsum+x)、iCountをインクリメントして(iCount=iCount+1)、ステップS24に移行する。
ステップS24では、y座標が最大値Y_MAXになったか否かを判定し、肯定判定のときはステップS26に移行し、否定判定のときはステップS25に移行する。ステップS25では、y座標をインクリメントして(y=y+1)、ステップS22に戻る。
ステップS26では、x座標が最大値X_MAXになったか否かを判定し、肯定判定のときはステップS28に移行し、否定判定のときはステップS27に移行する。ステップS27では、y座標を0に設定すると共に(y=0)、x座標をインクリメントして(x=x+1)、ステップS22に戻る。
このように、CPU24は、ステップS22からステップS26を繰り返し実行することによって、横エッジの画像全体をスキャンして、横エッジを構成する画素を検出したときはそのx座標を加算すると共に、その加算した回数をカウントする。
ステップS28では、横エッジの存在する画素のx座標の平均値を演算することで、顔中心位置iFaceCenterを求める。具体的には、式(1)を演算する。
Figure 2006065673
横エッジが存在する画素のx座標の平均値を求める理由は次の通りである。眉、目、鼻、口の顔部品は左右対称であるため、横エッジが存在する画素のx座標の平均値を求めれば、顔の中心位置を求めることができるからである。ステップS28の処理の結果、図12に示すように、顔中心位置iFaceCenterが求められる。
以上のように、第1の実施形態に係る顔中心位置検出装置は、顔画像から所定範囲内の幅を有する横エッジを検出し、横エッジのx座標の平均値を顔中心位置として検出することにより、非常に多くのテンプレートを予め用意してマッチングを行うことで顔中心位置を検出する場合に比べて、演算負担が小さく済み、高速かつ確実に顔中心位置を検出することができる。
[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位や処理については同一の符号を付し、重複する説明は省略する。
図13は、ドライバの顔が横向きのときに第1の実施形態に係る顔中心位置検出装置により検出された顔中心位置を示す図である。このように、上記顔中心位置検出装置は、ドライバがカメラ10に対して正面を向いていないときは、顔中心位置を正確に検出することができない。その理由は、顔が横向きの場合、顔が向いた方向の眉や目に相当する横エッジが短くなってしまい、その結果、横エッジのx座標の平均値であるiFaceCenterの値が、実際の顔中心位置とずれてしまうからである。
そこで、第2の実施形態に係る顔中心位置検出装置は、図11に示したx座標平均値算出処理ルーチンに代えて、重み付けx座標平均値算出処理ルーチンを実行する。
図14は、重み付けx座標平均値算出処理ルーチンを示す図である。コンピュータ14のCPU24は、図3に示すステップS5において、次のステップS31からステップS39までの処理を実行する。
ステップS31では、パラメータの初期設定を行う。具体的には、x=y=iXsum=iCount=0に設定して、ステップS22に移行する。
ステップS32では、x座標の重み係数iWeightを算出する。具体的には、次の式(2)を演算する。
Figure 2006065673
ここで、absは後続するパラメータの絶対値を求めるものであり、例えば
absX=|X|
である。
重み係数iWeightは、x座標が画像中心位置(x=X_MAX/2)にあるときは最小値1になり、x座標が画像の両端(x=0又はX_MAX)にあるときは最大値4になる。つまり、重み係数iWeightは、x座標が画像中心位置のときに最小値(極小値)をとり、画像中心位置から両端に移行するに従って単調増加する係数である。
なお、重み係数iWeightの最大値4は一例であり、試験をして最適な値に調整してもよい。すなわち、重み係数iWeightは、式(2)に限定されるものではなく、画像中心位置から両端に移行するに従って単調増加する係数であればよい。
図15は、重み係数によって顔中心位置を修正することを説明するための図である。重み係数は、画像中心位置から両端側に向かって単調に増加している。この重み係数を用いて横エッジのx座標の重み付けを行えば、顔の両端側の横エッジが重視されるので、顔中心位置を修正することができる。
ステップS33では、座標(x,y)に横エッジがあるか否か(Edge[x][y]=1又は0)を判定し、肯定判定のときはステップS34に移行し、否定判定のときはステップS35に移行する。
ステップS34では、iXsumに重み付けされたx座標を加算し(iXsum=iXsum+x*iWeight)、iCountに重み係数iWeightを加算して(iCount=iCount+iWeight)、ステップS35に移行する。なお、ステップS35からステップS39までの処理は、図11に示すステップS24からステップS28までの処理と同様である。
このように、CPU24は、画像中心位置から画像両端側に向かうに従って横エッジの重みを増大させながら、横エッジの重み付けされたx座標の平均値を求める。この結果、顔が横を向いて、眉や目に相当する横エッジが短くなってしまった場合でも、その短い横エッジに重みをおいてx座標の平均値を求めることによって、正確に顔中心位置を検出することができる。
図16(A)及び(B)は、本実施形態に係る顔中心位置検出装置により検出された顔中心位置を示す図である。同図(A)に示すように、第2の実施形態で検出される顔中心位置(太い点線)は、第1の実施形態で検出される顔中心位置(細い点線)に比べて、顔の向いている方向に移動しており、鼻や口に相当する横エッジのほぼ中心にある。また、同図(B)に示すように、さらに顔が横を向いている場合でも、顔中心位置は、鼻や口の横エッジのほぼ中心に検出される。
以上のように、第2の実施形態に係る顔中心位置検出装置は、顔画像から所定範囲内の幅を有する横エッジを検出し、画像中心位置から画像両端側に向かうに従って横エッジの重みを増大させながら、横エッジの重み付けされたx座標の平均値を算出して、この平均値を顔中心位置として検出する。これにより、顔が横を向いて横エッジの端が切れてしまって横エッジが短くなる場合でも、短い横エッジに重みをおいているので、演算負担を小さくさせつつ、高速かつ確実に顔中心位置を検出することができる。
本発明は、上述した第1及び第2の実施形態に限定されるものではなく、特許請求の範囲に記載した事項の範囲内で設計変更されたものについても適用可能である。
例えば、CPU24は、ROM23に記憶されたプログラムの代わりに、図示しない光ディスク又は磁気ディスクに記録されたプログラムを読み出して、このプログラムに基づいて、上述したように顔中心位置を検出してもよい。
また、上述した実施形態で説明した各フローチャートは、実施態様の一例であり、これらの処理ルーチンに限定されるものではないのは勿論である。
本発明の第1の実施形態に係る顔中心位置検出装置の構成を示す図である。 コンピュータの構成を示すブロック図である。 ROMに記憶された顔中心位置検出プログラムの処理ルーチンを示すフローチャートである。 ステップS2における顔左右位置検出ルーチンの一例を示すフローチャートである。 顔左右位置検出ルーチンの各工程で生成される画像を示す図である。 ステップS2の処理によって顔左右位置が検出された状態及び後述の処理によって顔上下位置が検出された状態を示す図である。 白黒白エッジを説明するための図である。 (A)は入力画像を示す図であり、(B)は入力画像から得られた白黒白エッジを示す図である。 (A)は白黒白エッジを示す図であり、(B)は白黒白長さエッジを示す図である。 顔画像全体の横エッジを示す図である。 ステップS5におけるx座標平均値算出ルーチンの一例を示すフローチャートである。 横エッジの顔画像にx座標及びy座標を設定した状態を示す図である。 ドライバの顔が横向きのときに第1の実施形態に係る顔中心位置検出装置により検出された顔中心位置を示す図である。 第2の実施形態の重み付けx座標平均値算出処理ルーチンを示す図である。 重み係数によって顔中心位置を修正することを説明するための図である。 (A)及び(B)は、第2の実施形態に係る顔中心位置検出装置により検出された顔中心位置を示す図である。
符号の説明
10 カメラ
12 光源
14 コンピュータ
16 表示装置
21 A/D変換器
22 画像メモリ
23 ROM
24 CPU
25 RAM
27 表示制御器
28 発光制御器

Claims (12)

  1. 顔を撮像して得られた画像を入力する画像入力手段と、
    前記画像入力手段により入力された画像に基づいて、所定の縦幅を有する横エッジを検出する横エッジ検出手段と、
    前記横エッジ検出手段により検出された横エッジの横位置情報の平均値を算出し、その平均値を顔中心位置として検出する顔中心位置検出手段と、
    を備えた顔中心位置検出装置。
  2. 前記画像入力手段により入力された画像に基づいて、顔の縦方向又は横方向の長さを検出する顔長さ検出手段を更に備え、
    前記横エッジ検出手段は、顔長さ検出手段により検出された前記顔の縦方向又は横方向の長さに基づいて、前記横エッジの縦幅又は横の長さの範囲を決定し、決定した範囲内の横エッジを検出する
    請求項1に記載の顔中心位置検出装置。
  3. 前記顔中心位置検出手段は、画像中心位置から画像両端方向へ向かうに従って重みが大きくなる重み係数を算出し、前記重み係数によって重み付けされた横位置情報の平均値を顔中心位置として検出する
    請求項1または請求項2に記載の顔中心位置検出装置。
  4. 前記顔中心位置検出手段は、前記横エッジが検出された画像の中から前記横エッジを構成する単位領域を検出する毎に、その単位領域の横位置情報を加算して横位置情報加算値を算出し、前記横位置情報加算値とその加算した回数とに基づいて、顔中心位置を検出する
    請求項1または請求項2に記載の顔中心位置検出装置。
  5. 前記顔中心位置検出手段は、前記横エッジが検出された画像の中から前記横エッジを構成する単位領域を検出する毎に、その単位領域の前記重み係数によって重み付けされた横位置情報を加算して横位置情報加算値を算出すると共に、前記検出された単位領域の重み係数を加算して重み係数加算値を算出し、前記横位置情報加算値と前記重み係数加算値とに基づいて、顔中心位置を検出する
    請求項3に記載の顔中心位置検出装置。
  6. 人の顔を撮像して画像を生成し、当該画像を前記画像入力手段に供給する撮像手段を更に備えた
    請求項1から請求項5のいずれか1項に記載の顔中心位置検出装置。
  7. 顔を撮像して得られた画像に基づいて、所定の縦幅を有する横エッジを検出し、
    前記検出された横エッジの横位置情報の平均値を算出し、その平均値を顔中心位置として検出する
    顔中心位置検出方法。
  8. 前記顔を撮像して得られた画像に基づいて、顔の縦方向又は横方向の長さを検出し、
    前記検出された前記顔の縦方向又は横方向の長さに基づいて、前記横エッジの縦幅又は横の長さの範囲を決定し、決定した範囲内の横エッジを検出する
    請求項7に記載の顔中心位置検出方法。
  9. 画像中心位置から画像両端方向へ向かうに従って重みが大きくなる重み係数を算出し、前記重み係数によって重み付けされた横位置情報の平均値を顔中心位置として検出する
    請求項7または請求項8に記載の顔中心位置検出方法。
  10. 前記横エッジが検出された画像の中から前記横エッジを構成する単位領域を検出する毎に、その単位領域の横位置情報を加算して横位置情報加算値を算出し、前記横位置情報加算値とその加算した回数とに基づいて、顔中心位置を検出する
    請求項7または請求項8に記載の顔中心位置検出方法。
  11. 前記横エッジが検出された画像の中から前記横エッジを構成する単位領域を検出する毎に、その単位領域の前記重み係数によって重み付けされた横位置情報を加算して横位置情報加算値を算出すると共に、前記検出された単位領域の重み係数を加算して重み係数加算値を算出し、前記横位置情報加算値と前記重み係数加算値とに基づいて、顔中心位置を検出する
    請求項9に記載の顔中心位置検出方法。
  12. コンピュータに、
    顔を撮像して得られた画像に基づいて、所定の縦幅を有する横エッジを検出し、
    前記検出された横エッジの横位置情報の平均値を算出し、その平均値を顔中心位置として検出する
    処理を実行させる顔中心位置検出プログラム。
JP2004249008A 2004-08-27 2004-08-27 顔中心位置検出装置及び方法並びにプログラム Expired - Lifetime JP4130820B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004249008A JP4130820B2 (ja) 2004-08-27 2004-08-27 顔中心位置検出装置及び方法並びにプログラム
EP05018542A EP1630718B1 (en) 2004-08-27 2005-08-25 Central location of a face detecting device, method and program
DE602005002802T DE602005002802T2 (de) 2004-08-27 2005-08-25 Anordnung, Verfahren und Programm zur Bestimmung der Zentralposition eines Gesichts
CN2005100965585A CN100407221C (zh) 2004-08-27 2005-08-26 面部中央位置检测设备、方法
US11/212,586 US7522752B2 (en) 2004-08-27 2005-08-29 Central location of a face detecting device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004249008A JP4130820B2 (ja) 2004-08-27 2004-08-27 顔中心位置検出装置及び方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2006065673A true JP2006065673A (ja) 2006-03-09
JP4130820B2 JP4130820B2 (ja) 2008-08-06

Family

ID=35169640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004249008A Expired - Lifetime JP4130820B2 (ja) 2004-08-27 2004-08-27 顔中心位置検出装置及び方法並びにプログラム

Country Status (5)

Country Link
US (1) US7522752B2 (ja)
EP (1) EP1630718B1 (ja)
JP (1) JP4130820B2 (ja)
CN (1) CN100407221C (ja)
DE (1) DE602005002802T2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7784943B2 (en) 2006-12-26 2010-08-31 Aisin Seiki Kabushiki Kaisha Eyelid detecting apparatus, eyelid detecting method and program thereof
US7916904B2 (en) 2007-03-19 2011-03-29 Aisin Seiki Kabushiki Kaisha Face region detecting device, method, and computer readable recording medium
US7936926B2 (en) 2007-03-13 2011-05-03 Aisin Seiki Kabushiki Kaisha Apparatus, method, and program for face feature point detection
US8224035B2 (en) 2006-12-06 2012-07-17 Aisin Seiki Kabushiki Kaisha Device, method and program for detecting eye
US8498449B2 (en) 2006-12-04 2013-07-30 Aisin Seiki Kabushiki Kaisha Eye detecting device, eye detecting method, and program

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4180027B2 (ja) * 2004-08-27 2008-11-12 株式会社豊田中央研究所 顔部品位置検出装置及び方法並びにプログラム
WO2006087791A1 (ja) * 2005-02-17 2006-08-24 Fujitsu Limited 画像処理方法、画像処理システム、画像処理装置及びコンピュータプログラム
JP4478093B2 (ja) * 2005-10-17 2010-06-09 富士フイルム株式会社 対象画像検索装置およびディジタル・カメラならびにそれらの制御方法
JP2008197722A (ja) * 2007-02-08 2008-08-28 Denso Corp 顔追跡装置
US8064655B2 (en) * 2007-04-20 2011-11-22 Panasonic Corporation Face image detection device, face image detection method and imaging apparatus
GB2471036B (en) 2008-03-03 2012-08-22 Videoiq Inc Object matching for tracking, indexing, and search
KR20100047521A (ko) * 2008-10-29 2010-05-10 삼성전자주식회사 가상 조명을 이용한 영상 표시 방법 및 이를 이용한 단말기
JP2010142592A (ja) * 2008-12-22 2010-07-01 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
EP2453383A1 (en) 2010-11-12 2012-05-16 ST-Ericsson SA Facial features detection
US9724597B2 (en) * 2012-06-04 2017-08-08 Sony Interactive Entertainment Inc. Multi-image interactive gaming device
CN105719269B (zh) * 2014-12-03 2018-09-28 高德软件有限公司 一种目标物体确定方法及装置
US10532659B2 (en) 2014-12-30 2020-01-14 Joyson Safety Systems Acquisition Llc Occupant monitoring systems and methods
US9533687B2 (en) 2014-12-30 2017-01-03 Tk Holdings Inc. Occupant monitoring systems and methods
US10614328B2 (en) 2014-12-30 2020-04-07 Joyson Safety Acquisition LLC Occupant monitoring systems and methods
USD751437S1 (en) 2014-12-30 2016-03-15 Tk Holdings Inc. Vehicle occupant monitor
CN105913487B (zh) * 2016-04-09 2018-07-06 北京航空航天大学 一种基于人眼图像中虹膜轮廓分析匹配的视线方向计算方法
JP2021114111A (ja) * 2020-01-17 2021-08-05 Necソリューションイノベータ株式会社 撮像支援装置、撮像支援方法、及びプログラム
CN112613459B (zh) * 2020-12-30 2022-07-15 深圳艾摩米智能科技有限公司 一种人脸敏感区域检测方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08297019A (ja) * 1995-04-27 1996-11-12 Nissan Motor Co Ltd 車両用視線方向計測装置
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
US5832115A (en) * 1997-01-02 1998-11-03 Lucent Technologies Inc. Ternary image templates for improved semantic compression
JP3436473B2 (ja) 1997-06-20 2003-08-11 シャープ株式会社 画像処理装置
JP3549013B2 (ja) * 1998-03-05 2004-08-04 日本電信電話株式会社 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体
JP4031122B2 (ja) * 1998-09-30 2008-01-09 本田技研工業株式会社 差分画像を用いた被写体の検出装置
JP3926507B2 (ja) * 1999-05-28 2007-06-06 沖電気工業株式会社 目位置及び顔位置検出装置
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
JP4476424B2 (ja) 2000-04-05 2010-06-09 本田技研工業株式会社 画像処理装置およびその方法ならびにプログラム記録媒体
JP2001331804A (ja) * 2000-05-18 2001-11-30 Victor Co Of Japan Ltd 画像領域検出装置及び方法
US7286692B2 (en) * 2001-12-27 2007-10-23 Amnart Kanarat Automatic celebrity face matching and attractiveness rating machine
US6937745B2 (en) * 2001-12-31 2005-08-30 Microsoft Corporation Machine vision system and method for estimating and tracking facial pose
AUPS170902A0 (en) * 2002-04-12 2002-05-16 Canon Kabushiki Kaisha Face detection and tracking in a video sequence
JP2004078778A (ja) * 2002-08-21 2004-03-11 Nissan Motor Co Ltd ドライバモニタ装置
JP4238542B2 (ja) 2002-08-30 2009-03-18 日本電気株式会社 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム
JP3990619B2 (ja) * 2002-10-11 2007-10-17 株式会社東海理化電機製作所 顔の向き検知装置
JP4180027B2 (ja) 2004-08-27 2008-11-12 株式会社豊田中央研究所 顔部品位置検出装置及び方法並びにプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498449B2 (en) 2006-12-04 2013-07-30 Aisin Seiki Kabushiki Kaisha Eye detecting device, eye detecting method, and program
US8224035B2 (en) 2006-12-06 2012-07-17 Aisin Seiki Kabushiki Kaisha Device, method and program for detecting eye
US7784943B2 (en) 2006-12-26 2010-08-31 Aisin Seiki Kabushiki Kaisha Eyelid detecting apparatus, eyelid detecting method and program thereof
US7936926B2 (en) 2007-03-13 2011-05-03 Aisin Seiki Kabushiki Kaisha Apparatus, method, and program for face feature point detection
US7916904B2 (en) 2007-03-19 2011-03-29 Aisin Seiki Kabushiki Kaisha Face region detecting device, method, and computer readable recording medium

Also Published As

Publication number Publication date
JP4130820B2 (ja) 2008-08-06
US20060045317A1 (en) 2006-03-02
CN100407221C (zh) 2008-07-30
CN1741038A (zh) 2006-03-01
DE602005002802D1 (de) 2007-11-22
DE602005002802T2 (de) 2008-07-17
EP1630718B1 (en) 2007-10-10
US7522752B2 (en) 2009-04-21
EP1630718A1 (en) 2006-03-01

Similar Documents

Publication Publication Date Title
JP4130820B2 (ja) 顔中心位置検出装置及び方法並びにプログラム
JP4307496B2 (ja) 顔部位検出装置及びプログラム
CN107948517B (zh) 预览画面虚化处理方法、装置及设备
US9852323B2 (en) Facial image display apparatus, facial image display method, and facial image display program
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
JP4445454B2 (ja) 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
JP4180027B2 (ja) 顔部品位置検出装置及び方法並びにプログラム
JP4739870B2 (ja) サングラス検出装置及び顔中心位置検出装置
KR20120006493A (ko) 얼굴특징점 검출 장치 및 프로그램
JP3993029B2 (ja) 化粧シミュレーション装置、化粧シミュレーション方法、化粧シミュレーションプログラム及びそのプログラムを記録した記録媒体
JP2007272435A (ja) 顔特徴抽出装置及び顔特徴抽出方法
KR20100121817A (ko) 눈의 영역을 추적하는 방법
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP4996943B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP3963789B2 (ja) 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法
JP4664805B2 (ja) 顔端検出装置、顔端検出方法、及び、プログラム
JP4831361B2 (ja) 目の位置の検出方法および検出システム
JP2020195127A (ja) 画像処理装置、画像処理方法、撮像装置、プログラム、記憶媒体
JP2001209810A (ja) エッジ検出方法
JP2011138558A (ja) 目の位置の検出方法および検出システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080523

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4130820

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130530

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130530

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140530

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250