JP2021043946A - 画像処理方法、画像処理装置、及び画像処理プログラム - Google Patents

画像処理方法、画像処理装置、及び画像処理プログラム Download PDF

Info

Publication number
JP2021043946A
JP2021043946A JP2020093190A JP2020093190A JP2021043946A JP 2021043946 A JP2021043946 A JP 2021043946A JP 2020093190 A JP2020093190 A JP 2020093190A JP 2020093190 A JP2020093190 A JP 2020093190A JP 2021043946 A JP2021043946 A JP 2021043946A
Authority
JP
Japan
Prior art keywords
region
detected
pupil
information
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020093190A
Other languages
English (en)
Other versions
JP6757949B1 (ja
Inventor
寿和 大野
Toshikazu Ono
寿和 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Swallow Incubate Co Ltd
Original Assignee
Panasonic Corp
Swallow Incubate Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Swallow Incubate Co Ltd filed Critical Panasonic Corp
Priority to JP2020093190A priority Critical patent/JP6757949B1/ja
Application granted granted Critical
Publication of JP6757949B1 publication Critical patent/JP6757949B1/ja
Publication of JP2021043946A publication Critical patent/JP2021043946A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】瞳情報の検出精度のさらなる向上を図る。【解決手段】画像データを取得し、画像データから、人物の顔の少なくとも一部を含む顔領域を検出し、検出した顔領域において、人物の目の検出に用いられる第1領域を設定し、第1領域を所定の基準に基づいて絞りこむことにより、瞳孔又は虹彩が含まれると推定される第2領域を設定し、第2領域において、瞳孔又は前記虹彩を示す瞳情報を検出し、検出した前記瞳情報を出力する。【選択図】図2

Description

本開示は、瞳孔又は虹彩を示す瞳情報を検出する技術に関するものである。
視線検出技術は、人物の興味対象の推定、眠気などの人物の状態の推定、及び視線による機器への入力を行うユーザインターフェースといった種々の用途で用いられている。視線検出技術は、頭部装着型と非接触型とに大別される。頭部装着型の視線検出技術は、ヘッドマウントディスプレイなどの装置を人物の頭部に装着して視線を検出する技術である。非接触型の視線検出技術は人物に装置を装着することなく視線を検出する技術である。非接触型の視線検出技術は、頭部装着型の視線検出技術のように頭部に装置を装着する必要がないため、人物に煩わしさを与えない、人物の視界を遮らないといった利点がある。そこで、本開示では、非接触型の視線検出技術に着目している。
ここで、非接触型の視線検出技術は、瞳孔角膜反射法と三次元眼球モデルによる方法との2つに大別される。瞳孔角膜反射法とは、発光ダイオード(LED)で人間の目を照射し、目に投影された反射像の位置と、LEDの照射角度と、反射像の位置の移動量などによって視線を検知する方法である。
三次元眼球モデルによる方法は、例えば顔画像を解析することにより得られた眼球中心位置と虹彩中心位置とを結ぶ三次元ベクトルを視線方向と推定したり、瞳孔中心位置の接平面に対する法線を視線方向と推定したりする方法である。
ここで、非接触型の視線検出技術においては、眼鏡を装着している人物の視線検出が困難という課題がある。この課題を解決するために、特許文献1には人物が眼鏡を装着しているか否かを判定し、人物が眼鏡を装着していない場合は瞳孔角膜反射法により視線を検出し、人物が眼鏡を装着している場合は三次元眼球モデルを用いた方法により視線を検出する技術が開示されている。
特開2005−296382号公報
しかしながら、特許文献1では、三次元眼球モデルを用いて視線を検出するにあたり、可視光画像の画像データから運転者の顔又は眼球を検知対象物とした特徴量算出及び形状判別等の認識処理が行われているに過ぎず(段落0014)、眼鏡の存在を考慮した認識処理は行われていない。そのため、特許文献1では、眼鏡が瞳孔又は虹彩として検出される可能性があり、瞳孔又は虹彩など、視線検出をするうえで必要となる瞳情報を精度よく検出するためにはさらなる改善の必要がある。
本開示は、このような課題を解決するためになされたものであり、瞳情報の検出精度のさらなる向上を図ることを目的とする。
本開示の一態様は、画像処理装置が瞳情報を検出する画像処理方法であって、画像データを取得し、前記画像データから、人物の顔の少なくとも一部を含む顔領域を検出し、検
出した前記顔領域において、前記人物の目の検出に用いられる第1領域を設定し、前記第1領域を所定の基準に基づいて絞りこむことにより、瞳孔又は虹彩が含まれると推定される第2領域を設定し、前記第2領域において、前記瞳孔又は前記虹彩を示す瞳情報を検出し、検出した前記瞳情報を出力する。
本開示によれば、瞳情報の検出精度のさらなる向上を図ることができる。
本開示の実施の形態1に係る画像処理システムの全体構成の一例を示す図である。 実施の形態1に係る画像処理システムの詳細な構成の一例を示すブロック図である。 実施の形態1に係る画像処理装置の動作の一例を示すフローチャートである。 顔領域を示す図である。 第1領域を示す図である。 第1基準により設定された第2領域を示す図である。 第2基準により設定された第2領域を示す図である。 第3基準により設定された第2領域を示す図である。 二値化された第2領域を示す図である。 本開示の比較例を示す図であり、二値化された第1領域を示す図である。 第1領域の他の例を示す図である。 虹彩外縁検出処理を説明する図である。 顔領域に対して設定された顔の特徴点を示す図である。 顔向き情報を検出する処理の説明図である。 実施の形態2に係る画像処理システムの詳細な構成の一例を示すブロック図である。 実施の形態2に係る画像処理装置の動作の一例を示すフローチャートである。 実施の形態3に係る画像処理システムの詳細な構成を示すブロック図である。
(本開示の基礎となる知見)
三次元眼球モデルにより視線を検出する方法においては、瞳孔又は虹彩の中心位置に基づいて視線が検出される。瞳孔又は虹彩の中心位置は、例えば、顔を含む画像の画像データから人物の顔を含む顔領域を検出し、検出した顔領域から目を検出するための目検出領域を設定し、目検出領域を解析することにより得られる。ここで、目検出領域とは、目そのものを切り出した領域ではなく、目を含む例えば矩形状の領域である。
顔領域から目検出領域を設定する場合、例えば目検出領域を検出するために予め作成された分類器が用いられる。このような分類器を用いて目検出領域を検出する場合、分類器の性能に応じて検出される目検出領域の大きさに差が発生することがあるため、検出された目検出領域において、瞳孔又は虹彩を検出するために必要な特徴量が欠落する可能性がある。そのため、目検出領域は、目の大きさに比べて一定の余裕を持たせた大きさに設定される必要がある。
しかしながら、目検出領域を大きく設定した場合、例えば眼鏡のフレームといった、目の周辺に存在する、瞳孔又は虹彩に類似する物体が目検出領域に含まれることとなり、これら類似する物体が瞳孔又は虹彩と誤検出される可能性が高まるため、瞳孔又は虹彩を精度よく検出できないとの課題を本発明者は見いだした。
そこで、本発明者は、このような課題に対して詳細な検討を行った結果、目検出領域に対してそのまま瞳孔又は虹彩を検出する処理を実行するのではなく、目検出領域を所定の基準に基づいて絞り込み、絞り込んだ領域に対して瞳孔又は虹彩を検出する処理を実行すれば、瞳孔又は虹彩の検出精度を向上させ、ひいては視線検出の精度を向上できるとの知見を得て、下記に示す各態様を想到するに至った。
本開示の一態様に係る画像処理方法は、画像処理装置が瞳情報を検出する画像処理方法であって、画像データを取得し、前記画像データから、人物の顔の少なくとも一部を含む顔領域を検出し、検出した前記顔領域において、前記人物の目の検出に用いられる第1領域を設定し、前記第1領域を所定の基準に基づいて絞りこむことにより、瞳孔又は虹彩が含まれると推定される第2領域を設定し、前記第2領域において、前記瞳孔又は前記虹彩を示す瞳情報を検出し、検出した前記瞳情報を出力する。
本構成によれば、第1領域を所定の基準に基づいて絞り込むことによって、瞳孔又は虹彩が含まれると推定される第2領域が設定され、第2領域において、瞳孔又は虹彩を示す瞳情報が検出される。これにより、眼鏡のフレームのような、瞳孔又は虹彩として誤検出される可能性の高い情報が第1領域に含まれていたとしても、このような情報が第1領域から省かれた領域が第2領域として設定される可能性が高まるため、本構成は、瞳孔又は虹彩の検出精度を向上させることができる。その結果、本構成は、瞳孔又は虹彩の中心位置を正確に特定でき、ひいては視線の検出精度を向上させることができる。
また、本構成によれば、瞳情報の検出処理を、目検出領域から所定の基準で絞り込まれた領域に対して行うため、目検出領域全体に対して瞳情報の検出処理を行う場合と比較して処理負荷の軽減を実現することができる。
上記態様において、前記所定の基準は、前記第1領域において、前記第1領域の境界側から所定量の面積を除去するという基準であってもよい。
本構成によれば、第1領域の境界側から所定量の面積を除去することによって第2領域が設定される。そのため、本構成は、画像認識処理のような高負荷の処理を実行しなくても、眼鏡のフレームのような瞳孔又は虹彩として誤検出される可能性の高い情報を第1領域から省いた領域を第2領域として設定できる。
上記態様において、前記所定の基準は、前記第1領域の一部を除去することによって、前記第1領域の中心を含む所定形状の領域を前記第2領域として設定するという基準であってもよい。
本構成によれば、第1領域の中心を含む所定形状の領域が第2領域として設定される。そのため、本構成は、瞳情報を検出するうえで必要な情報を残存しつつ、不要な情報が省かれるように第2領域を設定できる。
上記態様において、さらに、検出した前記顔領域から目尻及び目頭を検出し、前記目尻及び前記目頭を検出できた場合、前記所定の基準は、前記第1領域の一部を除去することによって、前記目尻及び前記目頭を取り囲む領域を前記第2領域として設定してもよい。
本構成によれば、第1領域の一部を除去することによって得られる目尻及び目頭を取り囲む領域が第2領域として設定される。このように、第2領域は少なくとも目頭及び目尻
を含んでいるため、本構成は、瞳情報を検出するうえで可能な限り不要な情報を省きつつ必要な情報が残存されるように第2領域を設定できる。
上記態様において、さらに、検出した前記顔領域から目尻及び目頭を検出し、前記目尻及び前記目頭を検出できた場合、前記第1領域の設定では、前記目尻及び前記目頭を取り囲み、且つ前記目尻及び前記目頭を検出できなかった場合に設定される第1領域よりも小さな領域を前記第1領域として設定し、前記瞳情報の検出では、前記第1領域において、前記瞳情報を検出してもよい。
本構成によれば、顔領域から目尻及び目頭が検出できた場合、第1領域に対して瞳情報を検出する処理が実行される。そのため、本構成は、第2領域を設定することなく、第1領域に対して瞳情報を検出する処理を実行できる。また、第1領域は、目尻及び前記目頭を取り囲み、且つ目尻及び目頭を検出できなかった場合に設定される第1領域よりも小さな領域である。このように、第1領域は、少なくとも目頭及び目尻を含んでいるため、本構成は、瞳情報を検出するうえで可能な限り不要な情報を省きつつ必要な情報が残存されるように第1領域を設定できる。
上記態様において、さらに、検出した前記顔領域から顔の特徴点を検出し、さらに、前記顔の特徴点に基づき前記顔向き情報を検出し、さらに、検出した前記瞳情報と前記顔向き情報とに基づいて前記人物の視線を示す視線情報を検出し、さらに、検出した前記視線情報を出力してもよい。
本構成によれば、上述の処理を経て検出された瞳情報と、顔の特徴点から検出された顔向き情報とに基づいて人物の視線情報が検出されるため、視線情報を精度よく検出できる。
上記態様において、さらに、検出した前記顔領域からまゆげ及び口角の少なくとも一方を検出し、さらに、前記視線情報と、検出した前記まゆげの位置及び前記口角の位置の少なくとも一方に基づいて前記人物の関心度を推定してもよい。
本構成によれば、視線情報のみに基づいて関心度を推定する場合に比べて、より高精度に関心度を推定できる。
上記態様において、検出した前記まゆげの位置及び前記口角の位置の少なくとも一方に基づいて前記人物の表情を推定し、前記視線情報と、前記推定された表情を示す情報とに基づいて前記人物の関心度を推定してもよい。
本構成によれば、まゆげの位置及び口角の位置の少なくとも一方に基づいて推定された人物の表情を示す情報と視線情報とを用いて関心度が推定されているため、人物の関心度をさらに高精度に推定できる。
上記態様において、前記視線情報は、所定の対象面における前記人物の注視点を基準とする所定範囲の領域である注視面を示す情報を含んでもよい。
本構成によれば、人物及び注視対象物間の距離又は注視対象物の大きさに依存することなく注視対象物を適切に判定できる。
上記態様において、前記画像データは、可視光カメラにより撮影されたものであり、前記瞳情報は、前記虹彩の中心位置と前記虹彩の大きさとを示す情報を含んでもよい。
可視光カメラで撮影された画像データにおいては、瞳孔の外縁の輝度変化が明確に表れず、虹彩の外縁の輝度変化が明確に表れる傾向がある。本構成では、画像データは可視光カメラにより撮影されたものであるため、虹彩の外縁を正確に検出でき、それによって、虹彩の大きさを示す情報と虹彩の中心位置を示す情報とを瞳情報として正確に検出できる。
上記態様において、前記画像データは、赤外光カメラにより撮影されたものであり、前記瞳情報は、前記瞳孔の中心位置と前記瞳孔の大きさとを示す情報、及び、前記虹彩の中心位置と前記虹彩の大きさとを示す情報、の少なくとも一方を含んでもよい。
赤外光カメラで撮影された画像データにおいては、瞳孔及び虹彩のそれぞれの外縁の輝度変化が明確に表れる傾向がある。本構成では、画像データは赤外光カメラにより撮影されたものであるため、瞳孔及び虹彩のそれぞれの外縁を正確に検出でき、それによって瞳孔及び虹彩のそれぞれの大きさを示す情報と瞳孔及び虹彩のそれぞれの中心位置を示す情報とを瞳情報として正確に検出できる。
上記態様において、前記画像データは、太陽光のスペクトル強度が所定の第1波長よりも減衰した所定の第2波長の帯域の赤外光を用いる赤外光カメラで撮影された画像データであってもよい。
本構成によれば、太陽光のスペクトル強度が強い屋外においても精度よく視線検出を行うことができる。
上記態様において、さらに、前記顔領域から前記人物の顔の向きを示す顔向き情報を検出し、前記第2領域の設定では、前記顔向き情報が示す顔の右向き度合いが大きくなるにつれて、前記第1領域における右方の境界からの除外幅を狭くし、且つ、前記第1領域における左方の境界からの除外幅を広くし、前記顔向き情報が示す顔の左向き度合いが大きくなるにつれて、前記第1領域における左方の境界からの除外幅を狭くし、且つ、前記第1領域における右方の境界からの除外幅を広くしてもよい。
本構成によれば、例えば眼鏡のフレームのような物体を第1領域から正確に取り除き、且つ、瞳情報の検出に必要となる情報が欠落しないように第2領域を設定できる。
本開示は、このような画像処理方法に含まれる特徴的な各構成をコンピュータに実行させる画像処理プログラム、或いはこの画像処理プログラムによって動作する画像処理システムとして実現することもできる。また、このようなコンピュータプログラムを、CD−ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、全ての実施の形態において、各々の内容を組み合わせることもできる。
(実施の形態1)
図1は、本開示の実施の形態1に係る画像処理システム1の全体構成の一例を示す図である。画像処理システム1は、人物400を撮影し、得られた人物の画像データから人物の視線を示す視線情報を検出するシステムである。図1の例では、画像処理システム1は、表示装置300に表示された複数のオブジェクト301のうち、どのオブジェクト301を人物が注視しているかを特定している。但し、これは一例であり、画像処理システム1は、表示装置300の表示画面上に表示されたオブジェクト301のみならず、実空間内において人物400が注視するオブジェクト301を特定してもよい。
図1の例では、画像処理システム1はデジタルサイネージシステムに適用されている。したがって、表示装置300に表示されるオブジェクト301は、広告などのサイネージの画像となる。
画像処理システム1は、画像処理装置100、カメラ200、及び表示装置300を含む。画像処理装置100は、カメラ200及び表示装置300と所定の通信路を介して接続されている。所定の通信路は、例えば、有線LANなどの有線の通信路、又は無線LAN及びブルートゥース(登録商標)などの無線の通信路である。画像処理装置100は、例えば表示装置300の周囲に設置されたコンピュータで構成されている。但し、これは一例であり、画像処理装置100は、クラウドサーバで構成されてもよい。この場合、画像処理装置100は、カメラ200及び表示装置300とインターネットを介して接続される。画像処理装置100は、カメラ200で撮像された人物400の画像データから、人物400の視線情報を検出し、表示装置300に出力する。また、画像処理装置100は、カメラ200又は表示装置300にハードウェアとして組み込まれてもよい。また、カメラ200又は表示装置300がプロセッサを備え、画像処理装置100がソフトウェアとして組み込まれていてもよい。
カメラ200は、例えば所定のフレームレートで表示装置300の周囲の環境を撮影することにより、表示装置300の周囲に位置する人物400の画像データを取得する。カメラ200は、取得した画像データを所定のフレームレートで順次に画像処理装置100に出力する。カメラ200は、可視光カメラであってもよいし、赤外光カメラであってもよい。
表示装置300は、例えば液晶パネル又は有機ELパネルなどの表示装置で構成されている。図1の例では、表示装置300は、サイネージディスプレイである。なお、図1の例では、画像処理システム1は、表示装置300を含むとして説明したが、これは一例であり、表示装置300に代えて、別の機器が採用されてもよい。例えば、画像処理システム1が視線により機器への入力を受け付けるユーザインターフェースとして利用されるのであれば、画像処理システム1は例えば表示装置300に代えて、冷蔵庫、テレビ、及び洗濯機などの家電機器が採用されてもよい。例えば、画像処理システム1が車両に搭載されるのであれば、表示装置300に代えて、自動車などの車両が採用されてもよい。さらに、表示装置300に代えてハードディスクドライブ、ソリッドステートドライブなどの記憶装置が採用されてもよい。
図2は、実施の形態1に係る画像処理システム1の詳細な構成の一例を示すブロック図である。画像処理装置100は、プロセッサ110を含む。プロセッサ110は、CPU、FPGAなどの電気回路である。プロセッサ110は、瞳情報検出装置120、顔向き検出部130、及び視線情報検出部140を含む。
瞳情報検出装置120は、画像取得部121(取得部の一例)、顔検出部122、第1設定部123、第2設定部124、瞳情報検出部125、及び特徴点検出部126を含む。なお、プロセッサ110が備える各ブロックは、プロセッサ110がコンピュータを画像処理装置として機能させる画像処理プログラムを実行することで実現されてもよいし、専用の電気回路で構成されてもよい。
画像取得部121は、カメラ200が撮像した画像データを取得する。ここで、取得される画像データには、表示装置300の周囲の人物400の顔が含まれる。なお、画像取得部121が取得する画像データは、例えばウェブサイトに掲載された画像データであってもよいし、外部の記憶装置が記憶する画像データであってもよい。
顔検出部122は、画像取得部121が取得した画像データから人物400の顔の少なくとも一部を含む顔領域を検出する。詳細には、顔検出部122は、顔領域を検出するために予め作成された分類器を用いて顔領域を検出すればよい。ここで用いられる分類器は、例えばオープンソースによる画像処理ライブラリにおいて顔領域を検出するために予め作成されたハール(Haar)状のカスケード分類器である。顔領域は、例えば顔の全体を含む程度のサイズを持つ矩形状の領域である。但し、これは一例であり、顔領域の形状は矩形以外の例えば、3角形、5角形、6角形、又は8角形などであってもよい。なお、顔検出部122は、パターンマッチングにより顔領域を検出してもよい。
第1設定部123は、顔検出部122により検出された顔領域において、人物400の目の検出に用いられる第1領域を設定する。第1設定部123が第1領域を設定する手法としては、例えば、目検出領域を検出するために予め作成された分類器を用いる手法が考えられる。ここで用いられる分類器は、例えばオープンソースによる画像処理ライブラリにおいて目検出領域を検出するために予め作成されたハール状のカスケード分類器である。第1領域(目検出領域)は、目の大きさに所定のマージンを加えた程度のサイズを持つ矩形状の領域である。但し、これは一例であり、第1領域の形状は矩形以外の、例えば、3角形、5角形、6角形、又は8角形などであってもよい。顔領域に人物400の2つの目が含まれている場合、第1設定部123は2つの目のそれぞれに対応する2つの第1領域を設定する。なお、第1設定部123はパターンマッチングにより第1領域を設定してもよい。本実施の形態において、目とは、図5に示すように上瞼の境界53と下瞼の境界54とによって取り囲まれる、白目と、黒目などの有色の部分とを含む領域を指す。
第2設定部124は、第1設定部123が設定した第1領域を所定の基準に基づいて絞りこむことにより、瞳孔又は虹彩が含まれると推定される第2領域を設定する。第2領域は、第1領域よりも小さい例えば矩形状の領域である。但し、これは一例であり、第2領域の形状は、矩形以外の、例えば、3角形、5角形、6角形、又は8角形などであってもよい。
本実施の形態では、所定の基準は下記に示す3つの基準のうちいずれか1つの基準が採用される。なお、所定の基準が下記3つの例に限らないことは言うまでもない。
第1基準は、第1領域において、第1領域の境界側から所定量の面積を除去するという基準である。第2基準は、第1領域の一部を除去することによって、第1領域の中心を含む所定形状の領域を第2領域として設定するという基準である。第3基準は、第1領域の一部を除去することによって、目尻及び目頭取り囲む領域を第2領域として設定するという基準である。なお、第3基準は、顔領域から目尻及び目頭が検出できた場合に適用される。顔領域から目尻及び目頭が検出できなかった場合、第2設定部124は、第3基準に代えて第1基準又は第2基準を用いて第2領域を設定すればよい。
なお、第2設定部124は、特徴点検出部126が検出した顔の特徴点に基づいて目尻及び目頭を検出すればよい。詳細には、第2設定部124は、特徴点検出部126が検出した顔の特徴点において、目尻及び目頭のそれぞれに対応する予め定められたランドマーク点番号を持つ特徴点がある場合、目尻及び目頭が検出できたと判定すればよい。なお、目尻及び目頭の検出処理の具体例については後述する。
瞳情報検出部125は、第2設定部124により設定された第2領域において、瞳孔又は虹彩を示す瞳情報を検出する。
本実施の形態において、瞳とは、図5に示すように、瞳孔55と、瞳孔55を取り囲むドーナツ状の虹彩56とを含む有色の部分を指す。
瞳情報検出部125が瞳孔を検出する場合、瞳情報には、例えば瞳孔の外縁を示す座標データ又は瞳孔の外縁の半径若しくは直径などの長さ(例えば、ピクセル)示す情報と、瞳孔の中心の座標データとが含まれる。瞳情報検出部125が虹彩を検出する場合、瞳情報には、例えば虹彩の外縁を示す座標データ又は虹彩の半径若しくは直径などの長さ(例えばピクセル)を示す情報と、虹彩の中心の座標データとが含まれる。ここで、座標データとは、画像取得部121が取得した画像データにおける2次元の座標データを指す。なお、瞳孔又は虹彩の外縁を示す座標データ又は半径若しくは直径などの長さを示す情報は、瞳孔又は虹彩の大きさを示す情報の一例である。
カメラ200として可視光カメラが採用された場合、瞳孔と虹彩との輝度変化が明確に表れない場合もあるため、瞳情報検出部125は、瞳孔と虹彩とを区別することが困難となる。したがって、カメラ200として可視光カメラが採用された場合、瞳情報検出部125は、虹彩を検出する。一方、カメラ200として赤外光カメラが採用された場合、瞳孔と虹彩との輝度変化が明確に表れるため、瞳情報検出部125は、瞳孔を検出できる。したがって、カメラ200として赤外光カメラが採用された場合、瞳情報検出部125は、瞳孔を検出する。
なお、カメラ200として赤外光カメラが採用された場合、瞳情報検出部125は、虹彩も検出できる。したがって、カメラ200として赤外光カメラが採用された場合、瞳情報検出部125は瞳孔に加えて虹彩を検出してもよい。この場合、瞳情報には、例えば瞳孔の外縁を示す座標データ及び瞳孔の中心の座標データ又は瞳孔の外縁の半径若しくは直径を示す情報に加えて、虹彩の外縁を示す座標データ又は虹彩の外縁の半径若しくは直径を示す情報が含まれてもよい。また、この場合、瞳情報には、例えば瞳孔の中心の座標データに代えて又は加えて虹彩の中心の座標データが含まれてもよい。ここで、座標データとは、画像取得部121が取得した画像データにおける2次元の座標データを指す。
特徴点検出部126は、顔検出部122が検出した顔領域から顔の特徴点を検出する。顔の特徴点とは、例えば目尻、目頭、顔の輪郭、鼻筋、口角、及び眉毛などの顔を構成する複数の部品のそれぞれにおいて、特徴的な位置にある1又は複数の点である。特徴点はランドマークとも呼ばれる。特徴点検出部126は、例えば機械学習のフレームワークのモデルファイルを利用したランドマーク検出処理を実行することで顔の特徴点を検出すればよい。
顔向き検出部130は、顔検出部122が検出した顔領域から顔の特徴点を検出し、検出した特徴点の配置パターンから人物400の顔の向きを示す顔向き情報を検出する。なお、顔向き検出部130は、特徴点検出部126が検出した顔の特徴点を利用して顔向き情報を検出してもよい。なお、顔向き情報の検出処理の具体例は後述する。
視線情報検出部140は、瞳情報検出部125によって検出された瞳情報と、顔向き検出部130によって検出された顔向き情報とに基づいて、人物400の視線を示す視線情報を検出し、表示装置300に出力する。視線情報検出部140は、瞳情報と顔向き情報とに対して、例えば3次元眼球モデルにより視線を検出する公知の視線検出処理を適用することにより視線情報を検出すればよい。ここで、視線情報には、人物400の視線の方向を3次元的に示すベクトルが含まれてもよいし、所定の対象面(例えば表示装置300
)における注視点の座標データが含まれてもよい。注視点は、例えば対象面と視線を示すベクトルとが交差する位置である。
視線情報検出部140は、表示装置300で表示されているオブジェクト301の情報を取得し、取得した情報と注視点の座標データとから人物400が注視するオブジェクト301(注視オブジェクト)を特定し、特定結果を表示装置300に出力してもよい。
例えば、表示装置300に対して、視線情報として注視点の座標データが出力された場合、表示装置300は、座標データに対応する位置に、視線位置を示すマーカーを表示中の画像に重畳して表示させるといった処理を行う。例えば、表示装置300に対して、注視オブジェクトの特定結果が出力された場合、表示装置300は、注視オブジェクトを示すマーカーを表示中の画面に重畳して表示させるといった処理を行ってもよい。
カメラ200は、図1で説明したため、ここでは説明を省略する。
表示装置300は、例えば視線情報検出部140から出力された視線情報を示すマーカーを表示する。表示装置300は、例えば視線情報検出部140から出力された人物400が注視するオブジェクト301を示すマーカーを表示してもよい。
なお、画像処理システム1が、表示装置300に代えて家電機器で構成される場合、家電機器は視線情報から人物400の入力を受け付ける。また、画像処理システム1が、表示装置300に代えて記憶装置で構成される場合、記憶装置は、視線情報を記憶する。この場合、記憶装置は視線情報にタイムスタンプを対応付けて記憶してもよい。
次に、画像処理装置100の動作について説明する。図3は、実施の形態1に係る画像処理装置100の動作の一例を示すフローチャートである。
ステップS1では、画像取得部121は、カメラ200から画像データを取得する。ステップS2では、顔検出部122は、顔領域を検出するための分類器に画像データを入力することにより、画像データから顔領域を検出する。図4は、顔領域40を示す図である。図4に示すように、顔検出部122は、額の上部と顎の下部と、耳の生え際とを含む矩形状の領域を顔領域40として検出している。ここでは、顔領域40は髪の全体を含んでいないが、髪の全体を含む領域であってもよい。図4では、画像データは人物400を正面から撮影した画像データであるため、左目と右目とが含まれている。本実施の形態では、説明の便宜上、右目とは人物400を正面から見て右側にある目のことを指し、左目とは人物400を正面から見て左側にある目のことを指す。但し、これは一例であり、人物400から見て右側にある目を右目、人物400から見て左側にある目を左目としてもよい。また、本実施の形態では、紙面の右側の方向を右方、紙面の左側の方向を左方とする。
図3に戻る。ステップS3では、第1設定部123は、第1領域を検出するための分類器にステップS2で検出された顔領域を入力し、第1領域を設定する。図5は、第1領域50を示す図である。図5に示すように、第1領域50は、目の全域を含み、目の大きさに多少のマージンが加えられた矩形状の領域であることが分かる。なお、第1領域50の境界を目に対してどの位置に設定するかは、分類器の性能に依存する。したがって、分類器の性能に応じて第1領域50のサイズは相違する。例えば、第1領域50の上側の境界が上瞼の眉毛付近にまで及ぶこともあり得る。また、第1領域50の鼻側の境界が鼻付近にまで及び、第1領域50の耳側の境界がこめかみ付近にまで及ぶこともあり得る。
図5の例では、顔領域40に左右の目が含まれていたため、第1設定部123は、右目
及び左目のそれぞれに対応する2つの第1領域50を設定している。
図3に参照を戻す。ステップS4では、第2設定部124は、上述した第1基準〜第3基準のいずれかを用いて第1領域50を絞り込むことで第1領域50から第2領域を設定する。目に対して大きめのサイズに第1領域50が設定された場合、人物400が眼鏡を装着していると、その眼鏡が第1領域50に含まれる可能性がある。図11は、第1領域50の他の例を示す図である。図11の例では、人物400が眼鏡を装着しており、第1領域50の境界が眼鏡にまで及んでいることが分かる。このような場合、眼鏡のフレームが瞳情報であると誤検出され、瞳情報の検出精度が低下する可能性がある。
そこで、本実施の形態では、第1領域50を絞り込むことによって第2領域を設定する。図6は、第1基準により設定された第2領域70を示す図である。図6に示すように第2領域70は、第1領域50を、第1領域50の境界510側から第1領域50の所定量の面積を除去することによって設定される。所定量の面積は、第1領域50の面積の例えば5%、10%、20%などの適宜の値が採用できる。所定量の面積は、第1設定部123が設定する第1領域50のサイズの傾向に応じて予め定められた値が採用される。例えば、第1設定部123が設定する第1領域50のサイズが目に対して大きくなる傾向を示す場合、その傾向に応じて所定量の面積は大きな値が採用される。
図6の例では、第2設定部124は、第2領域70が第1領域50と相似形を保つように、境界510の4辺に接する矩形状の枠領域520であって所定量の面積を持つ枠領域520を設定し、枠領域520を第1領域50から除去することによって第2領域70を設定する。これにより、第1領域50が境界510の4辺側から第1領域50の中心に向けて狭められるようにして第2領域70が設定される。そのため、第2設定部124は、例えば第1領域50の境界510に沿って現れる傾向がある眼鏡のフレームを第2領域70から省くことができる。
なお、人物400の顔が右方を向いているか、左方を向いているかに応じて、第1領域50において眼鏡のフレームが現れる位置が相違することがある。例えば、顔が右方を向いている場合、第1領域50の境界510の左辺側に現れる眼鏡のフレームは、境界510の右辺側に現れる眼鏡のフレームよりも横幅が広く表れる傾向がある。一方、顔が左方を向いている場合、第1領域50の境界510の右辺側に現れる眼鏡のフレームは、境界510の左辺側に現れる眼鏡のフレームよりも横幅が広く表れる傾向がある。
そこで、第2設定部124は、顔向き検出部130が検出した顔向き情報が示す顔の向きに応じて枠領域520の形状を変更してもよい。詳細には、第2設定部124は、顔の向きが右向きの場合、枠領域520の右側部の幅H1を、顔の向きを考慮しない場合の幅H1に比べて狭く設定し、枠領域520の左側部の幅H2を顔の向きを考慮しない場合の幅H2に比べて広く設定してもよい。この場合、第2設定部124は、顔向き情報が示す顔の右向き度合いが大きくなるにつれて、幅H1を狭く設定し、且つ、幅H2を広く設定すればよい。なお、顔の右向き度合いの算出方法については後述する。
一方、第2設定部124は、顔の向きが左向きの場合、枠領域520の左側部の幅H2を、顔の向きを考慮しない場合の幅H2に比べて狭く設定し、枠領域520の右側部の幅H1を、顔の向きを考慮しない場合の幅H1に比べて広く設定すればよい。この場合、第2設定部124は、顔向き情報が示す顔の左向きの度合いが大きくなるにつれて、幅H2を狭く設定し、且つ、幅H1を広く設定すればよい。なお、顔の左向き度合いの算出方法については後述する。
このように、顔の向きに応じて枠領域520の幅H1,H2を変更することで、眼鏡の
フレームがより正確に取り除かれ、且つ、瞳情報の検出に必要となる情報が欠落しないように第2領域70を設定できる。
次に、第2基準について説明する。図7は、第2基準により設定された第2領域80を示す図である。図7に示すように第2領域80は、第1領域50の中心530を含み、目の形状を近似した横長円形状(例えば楕円形状)を有している。第2設定部124は、例えば第1領域50の境界510の縦辺H3を所定の割合α(0<α<1)で縮小することで第2領域80の縦幅を設定とともに、境界510の横辺H4を所定の割合β(0<β<1)で縮小することで第2領域80の横幅を設定する。そして、第2設定部124は、設定した縦幅を短軸とし、横幅を長軸とする楕円であって、楕円の中心が第1領域50の中心530に位置し、長軸が横辺H4と平行な楕円を第2領域80として設定すればよい。
或いは、第2設定部124は、第1領域50の面積よりも所定量の面積だけ小さな面積を持ち、且つ予め定められた目を近似する横長円形状を持つ図形を第2領域80として設定してもよい。所定量の面積は、第1基準で説明したものを採用できる。この場合も、第2設定部124は、横長円形状を持つ図形の中心が中心530に位置するように第2領域80を設定してもよい。第2基準では、第2領域80は目を近似する形状を持つため、瞳情報を検出するうえで必要な情報を残存しつつ、不要な情報が省かれるように第2領域80を設定できる。
次に、第3基準について説明する。図8は、第3基準により設定された第2領域90を示す図である。図8に示すように、第2領域90は、目頭92及び目尻93を取り囲む領域であって、第1領域50よりもサイズの小さな領域である。図8の例では、第2領域90は矩形であるが、これは一例であり、三角形、五角形などの矩形以外の多角形であってもよい。或いは、第2領域90は、目頭92及び目尻93を通る楕円などの長円であってもよい。図8の例では、第2領域90の目頭92側の縦辺J1は目頭92を通り、目尻93側の縦辺J2は目尻93を通っている。但し、これは一例であり、縦辺J1は目頭92に対して多少鼻側に設定されてもよいし、縦辺J2は目尻93に対して多少耳側に設定されてもよい。
第2設定部124は、第2領域90の上側の横辺J3を第1領域50の上側の横辺H4に対して下側に所定距離離れた位置に設定し、第2領域90の下側の横辺J4を第1領域50の下側の横辺H5に対して上側に所定距離離れた位置に設定すればよい。
第3基準では、第2領域90は少なくとも目頭92及び目尻93を含んでいるため、瞳情報を検出するうえで可能な限り不要な情報を省きつつ必要な情報が残存されるように第2領域90を設定できる。以下、第2領域70、80、90を総称して第2領域60と記述する。
図3に参照を戻す。ステップS5では、瞳情報検出部125は、第2領域60から瞳情報を検出する。以下、瞳情報が検出される処理の詳細について説明する。まず、瞳情報検出部125は、第2領域60を二値化する。図9は、二値化された第2領域60を示す図である。ここでは、例えば大津の二値化と呼ばれる手法が採用されている。また、輝度が閾値より低い箇所が白、輝度が閾値以上の箇所が黒で表されている。
次に、瞳情報検出部125は、二値化された第2領域60に現れる白の島にラベリング番号を付与するラベリング処理を行う。図9の例では、上睫毛の左側が1つの島61とみなされ、島61に「1」のラベリング番号が付与されている。また、上睫毛の右側が1つの島62とみなされ、島62に「2」のラベリング番号が付与されている。また、瞳孔が1つの島63とみなされ、島63に「3」のラベリング番号が付与されている。また、下
睫毛が一つの島64とみなされ、島64に「4」のラベリング番号が付与されている。
次に、瞳情報検出部125は、ラベリングした島61〜64のそれぞれに対して、所定の判定条件を満たすか否かを判定し、判定条件を満たす島を瞳孔として判定する。判定条件としては、所定の瞳孔最小面積以上、所定の瞳孔最大面積以下という条件が採用できる。瞳孔最小面積とは、画像データにおいて想定される瞳孔の最小面積であり、瞳孔最大面積とは、画像データにおいて想定される瞳孔の最大面積である。なお、判定条件を満たす島が複数ある場合、瞳情報検出部125は、例えば面積が最大の島を瞳孔と判定してもよい。ここでは、島63が瞳孔と判定される。
次に、瞳情報検出部125は、瞳孔の中心を検出する。ここでは、瞳孔の島63の例えば重心が瞳孔の中心として検出される。
図9に示す画像は、赤外光カメラによって撮影された画像である。赤外光カメラで撮影された画像データでは、瞳孔と虹彩との間に大きな輝度変化が現れる。そのため、図9の例では、二値化によって瞳孔の島63が検出されている。一方、可視光カメラで撮影された画像データでは、瞳孔と虹彩との間に大きな輝度変化が現れず、虹彩と白眼との境界で大きな輝度変化が現れる。
そこで、瞳情報検出部125は、例えばカメラ200が赤外光カメラである場合、二値化した第2領域60から瞳孔を検出する。一方、瞳情報検出部125は、例えばカメラ200が可視光カメラである場合、二値化した第2領域60から虹彩を検出する。この場合、瞳情報検出部125は、判定条件として、所定の虹彩最小面積以上、所定の虹彩最大面積以下という条件を採用すればよい。なお、ここで言う、虹彩最小面積及び虹彩最大面積とは、ドーナツ状である虹彩そのものの面積を指すのではなく、虹彩に瞳孔を含めた領域、すなわち瞳の最大面積及び最小面積のことを指す。この場合、瞳情報検出部125は、虹彩の中心を検出すればよい。虹彩の中心としては、虹彩を示す島の例えば重心が採用できる。
図10は、本開示の比較例を示す図であり、二値化された第1領域50を示す図である。図10に示すように、第1領域50に対してそのまま二値化処理を行うと、人物400が眼鏡を装着している場合、第1領域50内に眼鏡のフレームを示す島65が現れる可能性がある。さらに、人物400によっては、第1領域50内にホクロ(又は痣)を示す島66が現れる可能性もある。このような場合、眼鏡のフレーム又はホクロの大きさによっては、眼鏡のフレームの島65又はホクロの島66が瞳孔又は虹彩と誤検出される可能性がある。
これに対して、第2領域60は第1領域50を絞り込むことによって設定された領域であるため、図9に示すように眼鏡のフレームの島65及びホクロの島66が含まれていない可能性が高まる。そのため、本実施の形態では、瞳情報を精度よく検出できるのである。
次に、瞳情報検出部125は、瞳孔の外縁を検出する瞳孔外縁検出処理を実行する。瞳孔外縁検出処理としては、John G. Daugmanの提唱する手法(以下、「ドーグマンアルゴリズム」と呼ぶ。)の一部を利用した瞳孔外縁検出処理を採用すればよい。ドーグマンアルゴリズムは、「High Confidence Visual Recognition of Persons by a Test of Statistical Independence: John G. Daugman(1993)」の文献にて開示されている。
具体的には、瞳孔外縁検出処理において、まず、瞳情報検出部125は、二値化した第2領域60から検出した瞳孔の中心を円の中心として、所定の瞳孔最小半径を持つ円を設定する。次に、瞳情報検出部125は、設定した円の円周上の輝度の合計値を周回積分により求める。次に、瞳情報検出部125は、直前に設定した円の半径を1ピクセル分、径方向に広げた円に対して周回積分を行うことにより輝度の合計値を求める。次に、瞳情報検出部125は、この処理を、所定の瞳孔最大半径まで繰り返し実行する。これにより、複数の半径と、複数の半径のそれぞれに対応する輝度の合計値との関係を示す関数が得られる。次に、瞳情報検出部125は、この関数を半径について偏微分して、隣り合う半径同士の輝度の合計値の最大変化量を求め、この最大変化量が検出された位置の半径の円を瞳孔外縁として検出する。
なお、画像データが可視光カメラで撮影された画像データである場合、瞳情報検出部125は、二値化された第2領域60に対して瞳孔外縁検出処理を適用することによって虹彩外縁を検出する。したがって、画像データが可視光カメラで撮影された画像データである場合、ステップS5に示す瞳情報を検出する処理はここで終了となる。この場合、瞳情報には、虹彩外縁の座標データと、虹彩の中心の座標データとが含まれることになる。
一方、画像データが赤外光カメラで撮影された画像データである場合、以下に示す虹彩外縁を検出する虹彩外縁検出処理が実行されてもよい。虹彩外縁検出処理としては、ドーグマンアルゴリズムの一部を利用した虹彩外縁検出処理が採用できる。
図12は、虹彩外縁検出処理を説明する図である。具体的には、虹彩外縁検出処理において、瞳情報検出部125は、二値化される前の第2領域60を用いる。まず、瞳情報検出部125は、瞳孔検出処理によって検出した瞳孔外縁621と瞳孔の中心622とを第2領域60に設定する。次に、瞳情報検出部125は、中心622を通る水平線623を基準に探索範囲を設定する。探索範囲は、例えば、瞳孔外縁621から所定の虹彩最大半径の円までの領域であって、水平線623の上下22.5度の範囲内の領域である。
次に、瞳情報検出部125は、探索範囲内において、瞳孔外縁621を中心に径方向に微小幅の領域を設定する。次に、瞳情報検出部125は、設定した微小幅の領域の輝度の合計値を重積分によって求める。次に、瞳情報検出部125は、直前に設定した微小幅の領域を1ピクセル分、径方向に広げて微小幅の領域を設定し、この微小幅の領域の輝度の合計値を重積分により求める。次に、瞳情報検出部125は、この処理を、所定の虹彩最大半径まで繰り返し実行する。これにより、複数の半径と、複数の半径のそれぞれに対応する輝度の合計値との関係を示す関数が得られる。次に、瞳情報検出部125は、この関数を半径について偏微分して、隣り合う半径同士の輝度の合計値の最大変化量を求め、この最大変化量が検出された位置の半径の円を虹彩外縁624として検出する。以上により、画像データが赤外光カメラで撮影された画像データである場合における、ステップS5に示す瞳情報を検出する処理は終了となる。この場合、瞳情報には、例えば虹彩外縁検出処理によって検出された虹彩外縁の座標データ及び虹彩の中心の座標データと、瞳孔検出処理によって検出された瞳孔外縁の座標データとが含まれてもよいし、これらのデータに加えてさらに瞳孔の中心の座標データが含まれてもよい。
従来、瞳孔外縁検出処理としてはハフ(Haugh)円検出処理が広く用いられている。しかし、画像データに含まれる人物400の瞳孔は正円ばかりではなく、いびつに変形しているケースもある。また、画像データに含まれる人物400が細目のケース及び顔を横に向けているケースもある。これらのケースでは瞳孔が正円ではなくなるため、ハフ円検出処理では瞳孔外縁を正確に検出できない可能性がある。このことは、虹彩外縁検出処理においてハフ円検出処理を適用した場合についても同様である。
そこで、本実施の形態では、ドーグマンアルゴリズムの一部を利用した瞳孔外縁検出処理及び虹彩外縁検出処理を採用する。これにより、本実施の形態では、瞳孔が正円からいびつに変形したケース、細目のケース、及び顔の向きが横向きのケースというような様々なケースにおいて、瞳孔外縁検出処理及び虹彩外縁検出処理に対するロバスト性が高められている。
しかしながら、ドーグマンアルゴリズムを利用した瞳孔外縁検出処理及び虹彩外縁検出処理の弊害として、眼鏡のフレームのような瞳孔又は虹彩に類似する物体が瞳孔外縁又は虹彩外縁と誤検出されることがある。そこで、本実施の形態は、第1領域50を絞り込むことによって設定された第2領域60に対して、瞳情報を検出する処理を実行する。これにより、本実施の形態では上記の弊害の克服が図られている。
図3に参照を戻す。ステップS6では、視線情報検出部140は、ステップS5で検出した瞳情報を出力する。ここでは、瞳情報は、視線情報検出部140に出力される。但し、これは一例であり、瞳情報は、表示装置300に出力されてもよい。
ステップS7では、視線情報検出部140は、瞳情報と、ステップS9で検出された顔向き情報が示す顔の向きとに基づいて視線情報を検出する。視線情報の検出処理の具体例は前述の通りである。ステップS8では、視線情報検出部140は、視線情報を表示装置300に出力する。
ステップS9では、顔向き検出部130は、顔向き情報を検出する。顔向き検出部130は以下の処理により顔向き情報を検出する。なお、ステップS9はステップS3〜S6の処理と並列に行われる。特に、第2領域の設定に第3基準を用いる場合、ステップS9は、ステップS3の処理と並列に行うようにしてもよい。図13は、顔領域に対して設定された顔の特徴点9Xを示す図である。図13に示すように、顔領域に対してランドマーク検出処理が適用されることにより、複数の特徴点9Xが顔領域から検出されている。図13の例では、ランドマーク検出処理によって検出される特徴点9Xのうち、視線情報の検出に必要となる特徴点9Xが示されている。図13の例では、鼻筋上に位置する例えば5個の特徴点9Xと、鼻の下側に位置する例えば2個の特徴点9Xと、顔の輪郭上に位置する例えば17個の特徴点9Xとが検出されている。さらに、図13の例では、左右の目頭92に位置する2個の特徴点9Xと、左右の目尻93に位置する2個の特徴点9Xとが検出されている。なお、特徴点9Xは、それぞれランドマーク点番号が付与されており、どのランドマーク点番号の特徴点が顔のどの部位を示すかは予め定められている。例えば、ランドマーク点番号が「2」の特徴点9Xは左の目尻93を示し、ランドマーク点番号が「0」の特徴点は左の目頭92を示すというように、各特徴点9Xにはランドマーク点番号が設定されている。そのため、顔向き検出部130は、ランドマーク点番号から特徴点9Xが顔のどの部位を示しているのかを特定できる。
次に、顔向き検出部130は、顔の特徴点9Xの配列パターンから下記の処理を実行して顔向き情報を検出する。図14は、顔向き情報を検出する処理の説明図である。まず、顔向き検出部130は、顔領域40に設定された顔の特徴点9Xから縦方向の縦中心線131と横方向の横中心線132とを設定する。例えば、顔向き検出部130は、鼻筋の中心を示す特徴点133を通り、且つ顔領域40の縦の辺と平行な直線を縦中心線131として設定すればよい。特徴点133は、例えば鼻筋を示す5個の特徴点9Xのうち、上から3番目の特徴点9Xである。また、顔向き検出部130は、例えば特徴点133を通り、且つ顔領域40の横の辺と平行な直線を横中心線132として設定すればよい。なお、縦中心線131及び横中心線132は、鼻筋の中心の特徴点133を通るとして説明したが、例えば鼻筋の下端の特徴点134を通るように設定されてもよいし、鼻筋の上端の特徴点135を通るように設定されてもよい。
次に、顔向き検出部130は、横中心線132を特徴点133で区画し、右区間K1と左区間K2との長さを求める。次に、顔向き検出部130は、横中心線132の長さを100%としたときの右区間K1と左区間K2との割合を求め、この割合に基づいて顔向き度合いを求める。顔向き度合いは、右区間K1の割合をK1、左区間K2の割合をK2とすると、例えば、−(K1−K2)により算出できる。この式において先頭のマイナスは、右向きの場合に顔向き度合いを正にするための符号である。例えば、K1=30%、K2=70%とすると、顔向き度合いは−(30−70)=40となる。例えば、K1=70%、K2=30%とすると、顔向き度合いは−(70−30)=−40となる。例えば、K1=50%、K2=50%とすると、顔向き度合いは、−(50−50)=0となる。
したがって、顔向き度合いの値がプラスの方向に増大するにつれて、顔の向きはより右方を向いていることを示し、顔向き度合いの値がマイナスの方向に増大するにつれて、顔の向きはより左方を向いていることを示す。また、顔向き度合いが0の場合、顔の向きは正面方向であることを示す。
顔向き検出部130は、このようにして得られた顔向き度合いの値を顔向き情報として検出する。なお、ここでは、−(K1−K2)により顔向き度合いは算出されたが、これは一例にすぎず、他の数式が採用されてもよい。例えば、左向きを正にするべく、−(K2−K1)によって顔向き度合いは算出されてもよい。このように顔向き度合いの演算式は顔の向きの程度を示すことができる式であれば、どのような式が採用されてもよい。
以上説明したように、本実施の形態によれば、第1領域50を第1〜第3の基準に基づいて絞り込むことによって、瞳孔又は虹彩が含まれると推定される第2領域60が設定され、第2領域60において、瞳情報が検出される。これにより、眼鏡のフレームのような、瞳孔又は虹彩として誤検出される可能性の高い情報が第1領域50に含まれていたとしても、このような情報が第1領域50から省かれた領域が第2領域60として設定される可能性が高まる。そのため、本実施の形態は、瞳孔又は虹彩の検出精度を向上させることができる。その結果、本実施の形態は、瞳孔又は虹彩の中心位置を正確に特定でき、ひいては、これらの情報を用いて行われる視線の検出精度を向上させることができる。
(実施の形態2)
実施の形態2は、顔領域40から目尻及び目頭が検出できた場合、目尻及び目頭を取り囲む囲み、且つ目尻及び目頭が検出されなかった場合に設定される第1領域50よりも小さな領域を第1領域50として設定するものである。本実施の形態2おいて、実施の形態1と同一の構成要素については同一の符号を付し、説明を省略する。図15は、実施の形態2に係る画像処理システム1Aの詳細な構成の一例を示すブロック図である。なお、図15において、図2と同一名称であるが、機能が異なるブロックには末尾にAの符号が付されている。
瞳情報検出装置120Aは、画像処理装置100Aのプロセッサ110Aに設けられている。瞳情報検出装置120Aにおいて、図2との相違点は、第1設定部123A及び瞳情報検出部125Aにある。第1設定部123Aは、特徴点検出部126が顔領域において検出した特徴点の中に目尻及び目頭を示す特徴点が含まれているか否かを判定する。ここで、第1設定部123Aは、特徴点検出部126が検出した特徴点において目尻及び目頭のそれぞれに対応するランドマーク点番号を持つ特徴点がある場合、目尻及び目頭が検出できたと判定すればよい。そして、第1設定部123Aは、目尻及び目頭を検出できた場合、顔領域40において目尻及び目頭を取り囲む領域を第1領域50として設定すればよい。ここで、設定される第1領域50は、目尻及び目頭が検出されなかった場合に設定
される第1領域50よりも小さい。
目尻及び目頭が検出できた場合の第1領域50の設定手法は、第3基準による第2領域90の設定手法に準じた手法が採用できる。図8を参照する。例えば、第1設定部123Aは、縦辺J1が目頭92を通り、縦辺J2が目尻93を通るように第1領域50を設定すればよい。このとき、第1設定部123Aは、横辺J3を横辺H4に対して下側に所定距離離れた位置に設定してもよいし、横辺J3を横辺H4上に設定してもよい。さらに、第1設定部123Aは、横辺J4を横辺H5に対して上側に所定距離離れた位置に設定してもよいし、横辺J4を横辺H5上に設定してもよい。或いは、第1設定部123Aは、縦辺J1を目頭92に対して多少鼻側に設定してもよいし、縦辺J2を目尻93に対して多少耳側に設定してもよい。
瞳情報検出部125は、第1設定部123Aにおいて目尻及び目頭が検出された場合、その検出結果に基づいて設定された第1領域50に対して瞳情報を検出する処理を実行する。一方、第1設定部123Aにおいて目尻及び目頭が検出されなかった場合、実施の形態1と同様、第2領域60に対して瞳情報を検出する処理を実行する。
次に、画像処理装置100Aの動作について説明する。図16は、実施の形態2に係る画像処理装置100Aの動作の一例を示すフローチャートである。ステップS21及びS22の処理は、図3のステップS1及びS2と同じである。
ステップS23では、第1設定部123Aは、特徴点検出部126により検出された特徴点を用いて、顔領域40から目尻及び目頭を検出する。
ステップS24では、第1設定部123Aは、目尻及び目頭を検出できたか否かを判定する。目尻及び目頭が検出できた場合(ステップS24でYES)、第1設定部123Aは、目尻及び目頭を取り囲む領域を第1領域50として設定する(ステップS25)。
ステップS26において、瞳情報検出部125Aは、ステップS5で設定された第1領域50から瞳情報を検出する。
一方、ステップS24において目尻及び目頭が検出されなかった場合(ステップS24でNO)、第1設定部123Aは、処理をステップS30に進める。ステップS30〜S32の処理は、図3のステップS3〜S5と同じである。ステップS27〜S29、S33の処理は、図3のステップS6〜S8、S9と同じである。
以上説明したように、実施の形態2によれば、顔領域40から目尻及び目頭が検出できた場合、第1領域50に対して瞳情報を検出する処理が実行される。そのため、本実施の形態は、第2領域60を設定することなく、第1領域50に対して瞳情報を検出する処理を実行できる。また、第1領域50は、目尻及び目頭を取り囲む領域である。そのため、本実施の形態は、眼鏡のフレームのような瞳孔又は虹彩として誤検出される可能性の高い情報が省かれた領域を第1領域50として設定でき、瞳情報を精度よく検出できる。さらに、目尻及び目頭が検出される場合には実施の形態2の手法により瞳情報の検出を行い、目尻及び目頭が検出されない場合は、実施の形態1の手法により瞳情報の検出を行うといったように、目尻及び目頭が検出されたか否かに応じて瞳情報の検出手法を適応的に切り替え、瞳情報を精度よく検出することができる。
(実施の形態3)
実施の形態3は、人物400の関心度を推定するものである。図17は、実施の形態3に係る画像処理システム1Bの詳細な構成を示すブロック図である。なお、本実施の形態
において実施の形態1、2と同一の構成要素には同一の符号を付し、説明を省略する。また、図17において、図2と名称が同一であるが機能が異なるブロックには末尾にBの符号が付されている。
プロセッサ110Bは、さらに関心度推定部150を含む。関心度推定部150は、以下の処理により人物400の関心度を推定する。まず、関心度推定部150は、特徴点検出部126により検出された顔の特徴点9Xを用いて、顔領域40からまゆげ及び口角を検出する。ここで、関心度推定部150は、特徴点検出部126により検出された顔の特徴点9Xにおいて、まゆげ及び口角のそれぞれに対応するランドマーク点番号が付された特徴点9Xを特定することで、まゆげ及び口角を検出すればよい。
次に、関心度推定部150は、視線情報検出部140により検出された視線情報と、検出したまゆげの位置及び口角の位置とに基づいて人物400の関心度を推定し、表示装置300に出力する。具体的には、関心度推定部150は、例えば、人が喜び、驚き、怒り、悲しみ、及び無表情等の各種表情をしている際のまゆげ及び口角の標準的な位置が予め記述されたパターンデータを例えばメモリ(図略)から取得する。そして、関心度推定部150は、検出した人物400のまゆげ及び口角の位置と、パターンデータとを照合し、人物400の表情を推定する。そして、関心度推定部150は、推定した人物400の表情と視線情報が示す視線とを用いて、人物400の視線がどの方向にある、又は人物400の注視点がどの位置にあるときに人物400がどのような表情を行ったかを特定する。すなわち、関心度推定部150は、人物400視線情報と人物400の表情とを対応付けたデータを人物400の関心度として特定する。なお、ここでは、関心度推定部150は、まゆげ及び口角に基づいて関心度を推定するとして説明したが、これは一例であり、まゆげ及び口角の一方に基づいて関心度を推定してもよい。
以上説明したように、本実施の形態によれば、視線情報に加えてまゆげ及び口角をさらに用いて人物400の関心度が推定されているため、視線情報のみに基づく関心度推定に比べてより高精度に関心度を推定できる。
(変形例)
(1)カメラ200として赤外光カメラが採用された場合、赤外光カメラは、太陽光のスペクトル強度が所定の第1波長よりも減衰した所定の第2波長の帯域の赤外光を用いる赤外光カメラで構成すればよい。所定の第1波長は、例えば850nmである。所定の第2波長は、例えば940nmである。第2波長の帯域は、例えば850nmを含まず、且つ940nmを基準(例えば中心)とする所定幅の帯域である。近赤外光を撮影する赤外光カメラとして、850nmの赤外光を用いるものが知られている。しかし、850nmでは太陽光のスペクトル強度が十分に減衰していないため、太陽光のスペクトル強度が強い屋外において高精度な視線検出ができない可能性がある。そこで、本開示は、赤外光カメラとして例えば940nmの帯域の赤外光を用いるカメラを採用する。これにより、太陽光のスペクトル強度が強い屋外においても高精度な視線検出を行うことができる。ここでは、所定の第2波長は940nmとしたが、これは一例であり、940nmから多少ずれた波長であってもよい。なお、第2波長の赤外光を用いる赤外光カメラは、例えば第2波長の赤外光を照射する投光器を備えるカメラである。
(2)上記実施の形態では、視線情報は注視点を示す座標データを含むとして説明したが、本開示はこれに限定されない。例えば、視線情報は、注視点を基準(例えば中心)とする所定サイズの所定形状(例えば円、四角形など)の領域である注視面を示す座標データを含んでいてもよい。これにより、人物及び注視対象物間の距離又は注視対象物の大きさに依存することなく注視対象物を適切に判定できる。
(3)実施の形態1において、第3基準を用いて第2領域90を設定する場合、第2設定部124は、左右の目のうち一方の目において目尻及び目頭が検出でき、他方の目において目尻及び目頭が検出できないこともある。この場合、第2設定部124は、目尻及び目頭が検出できなかったと判定してもよい。或いは、第2設定部124は、一方の目に対してのみ第3基準で第2領域90を設定し、他方の目に対しては第1基準又は第2基準で第2領域60を設定すればよい。
(4)実施の形態2において、目尻及び目頭を取り囲むように第1領域50を設定する場合、左右の目のうち一方の目において目尻及び目頭が検出でき、他方の目において目尻及び目頭が検出できないこともある。この場合、第1設定部123Aは、目尻及び目頭が検出できなかったと判定してもよい。或いは、第1設定部123Aは、一方の目に対してのみ実施の形態2で説明した手法で第1領域50を設定し、他方の目に対しては実施の形態1で説明した手法を用いて第1領域50を設定すればよい。
本開示は、瞳情報及び視線情報を高精度に検出できるため、瞳情報を用いた虹彩認証、視線情報を用いた人物の興味対象の推定、人物の状態推定、及び視線を用いたユーザインターフェースなどにおいて有用である。
1 :画像処理システム
100 :画像処理装置
110 :プロセッサ
120 :瞳情報検出装置
121 :画像取得部
122 :顔検出部
123 :第1設定部
124 :第2設定部
125 :瞳情報検出部
126 :特徴点検出部
130 :顔向き検出部
140 :視線情報検出部
150 :関心度推定部
200 :カメラ
300 :表示装置
301 :オブジェクト
400 :人物

Claims (12)

  1. 画像処理装置における瞳情報を検出する画像処理方法であって、
    画像データを取得し、
    前記画像データから、人物の顔の少なくとも一部を含む顔領域を検出し、
    検出した前記顔領域において、前記人物の目の検出に用いられる第1領域を設定し、
    前記第1領域を所定の基準に基づいて絞りこむことにより、瞳孔又は虹彩が含まれると推定される第2領域を設定し、
    前記第2領域において、前記瞳孔又は前記虹彩を示す瞳情報を検出し、
    検出した前記瞳情報を出力し、
    さらに、検出した前記顔領域から目尻及び目頭を検出し、
    前記目尻及び前記目頭を検出できた場合、
    前記第1領域の設定では、前記目尻及び前記目頭を取り囲み、且つ前記目尻及び前記目頭を検出できなかった場合に設定される第1領域よりも小さな領域を前記第1領域として設定し、前記瞳情報の検出では、前記第1領域において、前記瞳情報を検出する、
    画像処理方法。
  2. 前記所定の基準は、前記第1領域の一部を除去することによって、前記第1領域の中心を含む所定形状の領域を前記第2領域として設定するという基準である、
    請求項1記載の画像処理方法。
  3. さらに、検出した前記顔領域から目尻及び目頭を検出し、
    前記目尻及び前記目頭を検出できた場合、前記所定の基準は、前記第1領域の一部を除去することによって、前記目尻及び前記目頭を取り囲む領域を前記第2領域として設定するという基準である、
    請求項1記載の画像処理方法。
  4. さらに、検出した前記顔領域から顔の特徴点を検出し、
    さらに、前記顔の特徴点に基づき前記人物の顔の向きを示す顔向き情報を検出し、
    さらに、検出した前記瞳情報と前記顔向き情報とに基づいて前記人物の視線を示す視線情報を検出し、
    さらに、検出した前記視線情報を出力する、
    請求項1記載の画像処理方法。
  5. さらに、検出した前記顔領域からまゆげ及び口角の少なくとも一方を検出し、
    さらに、前記視線情報と、検出した前記まゆげの位置及び前記口角の位置の少なくとも一方に基づいて前記人物の関心度を推定する、
    請求項4記載の画像処理方法。
  6. 検出した前記まゆげの位置及び前記口角の位置の少なくとも一方に基づいて前記人物の表情を推定し、
    前記視線情報と、前記推定された表情を示す情報とに基づいて前記人物の関心度を推定する、
    請求項5記載の画像処理方法。
  7. 前記視線情報は、所定の対象面における前記人物の注視点を基準とする所定範囲の領域である注視面を示す情報を含む、
    請求項4〜6のいずれかに記載の画像処理方法。
  8. 前記画像データは、可視光カメラにより撮影されたものであり、
    前記瞳情報は、前記虹彩の中心位置と前記虹彩の大きさとを示す情報を含む、
    請求項1記載の画像処理方法。
  9. 前記画像データは、赤外光カメラにより撮影されたものであり、
    前記瞳情報は、前記瞳孔の中心位置と前記瞳孔の大きさとを示す情報、及び、前記虹彩の中心位置と前記虹彩の大きさとを示す情報、の少なくとも一方を含む、
    請求項1記載の画像処理方法。
  10. 前記画像データは、太陽光のスペクトル強度が所定の第1波長よりも減衰した所定の第2波長の帯域の赤外光を用いる赤外光カメラで撮影された画像データである、
    請求項9に記載の画像処理方法。
  11. 画像データを取得する取得部と、
    前記画像データから、人物の顔の全部または一部を含む顔領域を検出する顔検出部と、
    検出した前記顔領域において、前記人物の目の検出に用いられる第1領域を設定する第1設定部と、
    前記第1領域を所定の基準に基づいて絞りこむことにより、瞳孔又は虹彩が含まれると推定される第2領域を設定する第2設定部と、
    前記第2領域において、前記瞳孔又は前記虹彩を示す瞳情報を検出し、前記瞳情報を出力する瞳情報検出部とを備え、
    前記第1設定部は、検出した前記顔領域から目尻及び目頭を検出し、前記目尻及び前記目頭を検出できた場合、前記目尻及び前記目頭を取り囲み、且つ前記目尻及び前記目頭を検出できなかった場合に設定される第1領域よりも小さな領域を前記第1領域として設定し、
    前記瞳情報検出部は、前記第1設定部が前記目尻及び前記目頭を検出できた場合、前記第1領域において、前記瞳情報を検出する、
    画像処理装置。
  12. 画像データを取得する取得部と、
    前記画像データから、人物の顔の全部または一部を含む顔領域を検出する顔検出部と、
    検出した前記顔領域において、前記人物の目の検出に用いられる第1領域を設定する第1設定部と、
    前記第1領域を所定の基準に基づいて絞りこむことにより、瞳孔又は虹彩が含まれると推定される第2領域を設定する第2設定部と、
    前記第2領域において、前記瞳孔又は前記虹彩を示す瞳情報を検出し、前記瞳情報を出力する瞳情報検出部としてコンピュータを機能させ、
    前記第1設定部は、検出した前記顔領域から目尻及び目頭を検出し、前記目尻及び前記目頭を検出できた場合、前記目尻及び前記目頭を取り囲み、且つ前記目尻及び前記目頭を検出できなかった場合に設定される第1領域よりも小さな領域を前記第1領域として設定し、
    前記瞳情報検出部は、第1設定部が前記目尻及び前記目頭を検出できた場合、前記第1領域において、前記瞳情報を検出する、
    画像処理プログラム。
JP2020093190A 2020-05-28 2020-05-28 画像処理方法、画像処理装置、及び画像処理プログラム Active JP6757949B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020093190A JP6757949B1 (ja) 2020-05-28 2020-05-28 画像処理方法、画像処理装置、及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020093190A JP6757949B1 (ja) 2020-05-28 2020-05-28 画像処理方法、画像処理装置、及び画像処理プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019167213A Division JP6717477B1 (ja) 2019-09-13 2019-09-13 画像処理方法、画像処理装置、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP6757949B1 JP6757949B1 (ja) 2020-09-23
JP2021043946A true JP2021043946A (ja) 2021-03-18

Family

ID=72517926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020093190A Active JP6757949B1 (ja) 2020-05-28 2020-05-28 画像処理方法、画像処理装置、及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6757949B1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129665A (ja) * 2006-11-17 2008-06-05 Sony Corp 画像処理装置、撮影装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法
WO2015136908A1 (ja) * 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 視線検出装置
JP2016206885A (ja) * 2015-04-21 2016-12-08 日本電信電話株式会社 視線計測装置、視線計測方法、およびプログラム
JP2017054503A (ja) * 2015-09-07 2017-03-16 三星電子株式会社Samsung Electronics Co.,Ltd. 視点追跡方法及び装置
US20170134643A1 (en) * 2014-06-30 2017-05-11 Foundation Of Soongsil University-Industry Cooperation Gaze tracking device and method and recording medium for performing the same
WO2018030515A1 (ja) * 2016-08-12 2018-02-15 国立大学法人静岡大学 視線検出装置
JP2018025987A (ja) * 2016-08-10 2018-02-15 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
JP2018088236A (ja) * 2016-11-21 2018-06-07 矢崎総業株式会社 画像処理装置、画像処理方法および画像処理プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129665A (ja) * 2006-11-17 2008-06-05 Sony Corp 画像処理装置、撮影装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法
WO2015136908A1 (ja) * 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 視線検出装置
US20170134643A1 (en) * 2014-06-30 2017-05-11 Foundation Of Soongsil University-Industry Cooperation Gaze tracking device and method and recording medium for performing the same
JP2016206885A (ja) * 2015-04-21 2016-12-08 日本電信電話株式会社 視線計測装置、視線計測方法、およびプログラム
JP2017054503A (ja) * 2015-09-07 2017-03-16 三星電子株式会社Samsung Electronics Co.,Ltd. 視点追跡方法及び装置
JP2018025987A (ja) * 2016-08-10 2018-02-15 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
WO2018030515A1 (ja) * 2016-08-12 2018-02-15 国立大学法人静岡大学 視線検出装置
JP2018088236A (ja) * 2016-11-21 2018-06-07 矢崎総業株式会社 画像処理装置、画像処理方法および画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中村一博, 外5名: ""環境適応可能なリアルタイム視線推定LSIの設計と評価"", 第15回 回路とシステム(軽井沢)ワークショップ 論文集, JPN6020009257, 23 April 2002 (2002-04-23), JP, pages 293 - 298, ISSN: 0004322679 *

Also Published As

Publication number Publication date
JP6757949B1 (ja) 2020-09-23

Similar Documents

Publication Publication Date Title
US11250241B2 (en) Face image processing methods and apparatuses, and electronic devices
Santini et al. PuRe: Robust pupil detection for real-time pervasive eye tracking
JP6885935B2 (ja) 眼の特徴を用いる眼ポーズ識別
Fuhl et al. Fast and robust eyelid outline and aperture detection in real-world scenarios
JP6930223B2 (ja) 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
Ji et al. Eye and mouth state detection algorithm based on contour feature extraction
Lee et al. Blink detection robust to various facial poses
US9939893B2 (en) Eye gaze tracking
US20220270287A1 (en) Eye gaze detection method, eye gaze detection device, and non-transitory computer readable storage medium
KR20220049600A (ko) 안경용 가상 피팅 시스템 및 방법
JP5578603B2 (ja) 視線制御装置、視線制御方法、及びそのプログラム
TWI694809B (zh) 檢測眼球運動的方法、其程式、該程式的記憶媒體以及檢測眼球運動的裝置
JP2022538669A (ja) 眼追跡待ち時間向上
US20220075983A1 (en) Image processing method, image processing device, and non-transitory computer readable storage medium
CN110619303A (zh) 注视点追踪方法、装置、终端及计算机可读存储介质
Chen et al. Real-time eye localization, blink detection, and gaze estimation system without infrared illumination
Wojciechowski et al. Single web camera robust interactive eye-gaze tracking method
JPWO2018220963A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6745518B1 (ja) 視線検出方法、視線検出装置、及び制御プログラム
Wang et al. Edge-guided near-eye image analysis for head mounted displays
JP6757949B1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
Nair et al. Rit-eyes: realistically rendered eye images for eye-tracking applications
WO2021095278A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
KR100651104B1 (ko) 시선기반 컴퓨터 인터페이스 장치 및 방법
WO2022137605A1 (ja) 虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200803

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200803

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6757949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250