JP5103682B2 - インタラクティブ看板システム - Google Patents

インタラクティブ看板システム Download PDF

Info

Publication number
JP5103682B2
JP5103682B2 JP2007275944A JP2007275944A JP5103682B2 JP 5103682 B2 JP5103682 B2 JP 5103682B2 JP 2007275944 A JP2007275944 A JP 2007275944A JP 2007275944 A JP2007275944 A JP 2007275944A JP 5103682 B2 JP5103682 B2 JP 5103682B2
Authority
JP
Japan
Prior art keywords
area
user
signboard
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007275944A
Other languages
English (en)
Other versions
JP2009104426A (ja
Inventor
朋子 米澤
大丈 山添
章 内海
伸治 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007275944A priority Critical patent/JP5103682B2/ja
Publication of JP2009104426A publication Critical patent/JP2009104426A/ja
Application granted granted Critical
Publication of JP5103682B2 publication Critical patent/JP5103682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Description

この発明はインタラクティブ看板システムに関し、特に、たとえばレストランなどの前に設置した看板型メニュー、複数の店を紹介したり地図を表示したりしている案内看板、ポスターセッションなどの展示看板(以下、これらを総称して「看板」と呼ぶ。)を見ているユーザの視線を検出し、ユーザに対してインタラクティブに反応する、新規なインタラクティブ看板システムに関する。
電子的にメッセージ情報を表示することができる電子看板システムが特許文献1などで知られている。そして、たとえば特許文献2には、そのような電子看板の表示装置におけるユーザの注視点あるいは注視タイミングに情報を表示する、看板システムが開示されている。
特許文献1や特許文献2に開示された看板システムでは、ユーザに対して効果的な広告情報の提供が可能になるという効果を期待できるものの、依然として、ユーザは看板を見るだけで、看板からは何の反応もユーザに対して起こさない。
これに対して、たとえば特許文献3には、ユーザが看板広告の中味についてより詳しい情報を望むときはその情報を電子看板装置の表示装置上に呼び出すことができる、インタラクティブな電子看板システムが開示されている。
特開2004−70232号公報[G09F 19/00 G06F 3/14 G09G 5/00] 特開平11−24603号公報[G09F 9/00 A61B 3/113 G09F 27/00] 登録実用新案公報第3102437号公報[G09F 19/00 G09F 15/00]
ただし、特許文献3の看板システムは、ユーザが望む情報をユーザがタッチパネルなどを操作してその電子看板装置に内蔵されているコンピュータを用いて情報を取得するだけで、いわば、コンピュータをユーザに一時的に操作可能に提供するだけのことである。しかも、この特許文献3の看板システムではユーザが欲しい情報を提供できるだけで、看板本来の機能を強化するものではない。
それゆえに、この発明の主たる目的は、新規な、看板システムを提供することである。
この発明の他の目的は、ユーザに対してインタラクティブに反応することによって誘引効果を強化できる、インタラクティブ看板システムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために後述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、複数の領域を有しかつユーザが視認できる位置に配置した看板と、看板に関連して設けられるカメラと、看板の近傍に配置される擬人化媒体とを含み、擬人化媒体は看板の領域を指差す指差し手段および音声を出力する音声出力手段を有する、インタラクティブ看板システムであって、カメラの映像に基づいてユーザの視線の位置を検出する視線位置検出手段、視線位置に基づいてユーザが見ている看板の領域を特定する領域特定手段、領域特定手段が特定した領域が擬人化媒体が指差した領域かどうか判断する第1判断手段、および看板の領域毎に各領域に表示した可視情報に関連する音声情報を記憶した記憶手段を備え擬人化媒体は、第1判断手段が領域特定手段が特定した領域が擬人化媒体が指差した領域であると判断したとき、領域特定手段が特定した領域に関連する音声情報を記憶手段から読み出して音声メッセージとして音声出力手段によって出力する、インタラクティブ看板システムである。
第2の発明は、第1の発明に従属し、第1判断手段が、領域特定手段が特定した領域が擬人化媒体が指差した領域ではないと判断したとき、視線位置に基づいてユーザが同じ領域を所定時間以上見たかどうか判断する第2判断手段をさらに備え、擬人化媒体は、第2判断手段がユーザが同じ領域を所定時間以上見たと判断したとき、領域特定手段が特定した領域に関連する音声情報を記憶手段から読み出して音声出力手段によって出力する、インタラクティブ看板システムである。
第3の発明は、第1または第2の発明に従属し、記憶手段は、さらに、キョロキョロしているユーザに対する第1音声メッセージをさらに記憶しておき、第1判断手段が、領域特定手段が特定した領域が擬人化媒体が指差した領域ではないと判断したとき、そのときの領域特定手段が特定した領域が前回と同じ領域かどうか判断する第3判断手段をさらに備え、擬人化媒体は、第3判断手段が前回と同じではないと判断したとき記憶手段から読み出した第1音声メッセージを音声出力手段によって出力する、インタラクティブ看板システムである。
第4の発明は、第1ないし第3の発明のいずれかに従属し、記憶手段は、さらに、ちょっと見たユーザに対する第2音声メッセージをさらに記憶しておき、第1判断手段が、領域特定手段が特定した領域が擬人化媒体が指差した領域ではないと判断したとき、同じ領域を所定時間以上見たかどうか判断する第4判断手段をさらに備え、擬人化媒体は、第4判断手段が所定時間以上でないと判断したとき記憶手段から読み出した第2メッセージを出力する第2音声メッセージを音声出力手段によって出力する、インタラクティブ看板システムである。
なお、この発明の看板は、可視情報を固定的に表示したものであってよく、あるいは電子看板のように視情報を変更できる看板であってもよい。
この発明によれば、ユーザが看板のどの領域を見ているかによって、その領域に関連する関連情報を出力するようにしているため、看板と関連情報とを組み合わせることによって、看板のユーザに対する吸引または誘引機能を一層増進させることができる。
この発明の上述の目的,その他の目的,特徴,および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1に示すこの発明の一実施例のインタラクティブ看板システム(以下、単に「看板システム」と呼ぶこともある。)10は、ユーザ12の視線を検出することによって、ユーザ12が注視しているメニュー看板14の位置または領域がどこであるか判断し、その位置または領域に関連する関連情報をたとえば音声メッセージとして出力するものである。
ユーザ12の視線方向または位置は、後に詳しく説明するように、視線サーバ18がカメラ16からの顔画像データまたは信号を処理することによって、リアルタイムで検出または判定する。
看板14は図2に示すように、複数の(実施例では13個の)領域A1‐A13に区分でき、各領域A1‐A13には、個別の可視情報V1‐V13が固定的に表示されている。つまり、この看板14は、その表示面に可視情報を描いたまたは印刷した一般的な看板であってよく、表示内容を可変する電子看板でなくてもよい。ただし、電子看板の使用を排除するものではない。
看板14は、実施例では、レストランや食堂の前に立てかけられる看板型メニューであり、したがって、その表示面に表示されている可視情報V1‐V13はいずれもそのレストラン等が提供できる食事や食品の画像(絵や写真)である。たとえば、領域A1の可視情報V1は「ビール」の絵であり、領域A2の可視情報V2は「ビフテキ」の絵であり、…、領域A13の可視情報V13は「唐揚」の絵である。
ただし、このような看板14の上に設定される領域の数やそれらの領域に個別に表示される可視情報は、その看板が何の目的の看板であるかによって、当然、任意に変更され得ることは容易に理解されよう。
この実施例の看板システム10では、ユーザ12の主として顔を撮影するカメラ16を用いて、ユーザ12の視線の方向や位置をリアルタイムで検出し、その視線の方向や位置に応じて、擬人的媒体の一例である、ぬいぐるみ型コミュニケーションロボット(以下、単に「ぬいぐるみ」と呼ぶこともある。)20の発話や動作を通じて、看板14の領域A1‐A13の個別の関連情報を、メッセージ22として出力することによって、ユーザ12に対してインタラクティブな看板システムを実現する。
なお、実施例では擬人的媒体としてぬいぐるみ20を利用するが、擬人的媒体とは、人間のように発話できたり、あるいは人間のような動作ができたりする媒体のことであり、他の形式のヒューマノイドやコミュニケーションロボットなども、この擬人的媒体として十分機能できる。
図3は図1実施例を俯瞰した状態を図解する図解図であり、図4はそれを側面から見た図解図である。これらの図からわかるように、ユーザ12の前方に、ユーザ12が視認できるように看板14が設置される。そして、カメラ16はユーザ12の顔前面を撮影できるように設置されている。
ユーザ12の視線12Aが、看板14に正対する方向の線vlineに対してずれている角度が旋回角αであり、視線12Aが水平線hlineに対してずれている角度が俯仰角βとして図1の視線サーバ18によってリアルタイムに計算される。そして、ぬいぐるみ20に関連して設けられる(内蔵される)コンピュータ32(図6)がその検出角度αおよびβからその視線12Aの方向または位置を特定し、その視線12Aの方向または位置に応じて、ぬいぐるみ20の動作および/または発話によって、ユーザ12に対して領域関連情報を出力するのである。
図5にはぬいぐるみ20が図示される。このぬいぐるみ20は、頭部21とそれを支える胴体23とを含む。胴体23の上部に左右の左腕24Lおよび右腕24Rが設けられ、頭部21には、前面に口26が配置され、その口26の上方には眼球28が設けられる。頭部21の上部側面は耳30が取り付けられている。
頭部21は胴体23によって、旋回・俯仰可能に支持され、また、眼球28も可動的に保持されている。口26にはスピーカ48(図5)が内蔵されていて、耳30にはマイク50(図6)が内蔵されている。なお、マイク50を両方の耳30にそれぞれ内蔵すれば、ステレオマイクとして機能し、それによって、そのステレオマイクに入力された音声の位置を必要に応じて特定することができる。
図6はぬいぐるみ14の制御回路を示すブロック図であり、この図6に示すように、実施例のぬいぐるみ20にはコンピュータ32が内蔵されていて、このコンピュータ32が、通信路の一例であるバス34を通して、図1に示す視線サーバ18に結合される。したがって、コンピュータ32は、視線サーバ18が特定または検出したユーザ12の視線方向や位置を示すデータをこのバス34を通して刻々受け取ることができる。ただし、通信路はバス34であっても、その他の形式の通信路であっても、さらには無線であっても、有線であってもよい。
コンピュータ32には、バス34を介してメモリ36が結合される。このメモリ36には図示しないROMやRAMが組み込まれていて、ROMには主として、後述のフローチャート(図21)で表現されるプログラムが予め記憶されているとともに、ぬいぐるみ20の各フェーズ(内部状態)の動作と発話(音声)とを対応的に設定している、領域‐関連情報テーブルの一例であるメッセージテーブル36Aが予め設定されている。このメッセージテーブル36Aは、ぬいぐるみ20から関連情報として出力する発話や動作を各領域に対応させて設定したものである。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
モータ制御ボード38は、たとえばDSP(Digital Signal Processor)で構成され、図5に示すぬいぐるみ20の各腕や頭部の各軸モータを制御する。すなわち、モータ制御ボード38は、コンピュータ32からの制御データを受け、右腕24R(図5)を前後や左右に動かすことができるように、X,YおよびZ軸のそれぞれの角度を制御する3つのモータ(図6ではまとめて、「右腕モータ」として示す。)40Rの回転角度を調節する。また、モータ制御ボード38は、左腕24Lの3つのモータ(図6ではまとめて、「左腕モータ」として示す。)40Lの回転角度を調節する。モータ制御ボード38は、また、頭部21の旋回角や俯仰角を制御する3のモータ(図6ではまとめて、「頭部モータ」として示す。)42の回転角度を調節する。モータ制御ボード38は、また、眼球28を動かす眼球モータ44も制御する。
なお、上述のモータは、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、直流モータであってよい。
スピーカ48には音声入力/出力ボード46を介して、コンピュータ32から、合成音声データが与えられ、それに応じて、スピーカ48からはそのデータに従った音声または声が関連情報として出力される。そして、マイク50からの音声入力が、必要に応じて、音声入力/出力ボード46を介して、コンピュータ32に取り込まれる。
センサ入力/出力ボード52も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでコンピュータ32に与えるが、実施例ではあまり関係がないので、ここでは、そのセンサなどの詳細な説明は省略する。
また、この実施例では、ぬいぐるみ20が自律的に自己の動作や発話を制御する図6のような制御回路を持つものとして説明するが、1台またはそれ以上のコンピュータを制御回路として、ぬいぐるみ20とは別に設けるようにしてもよい。
図7には関連情報テーブルすなわち実施例のメッセージテーブル36Aの一例が図解される。このメッセージテーブル36Aには、看板14の領域A1‐A13にそれぞれ対応する記憶場所が設定されていて、各記憶場所には、領域Aの範囲を示す座標データが設定されていて、その座標データは、たとえば領域A1は、X座標(看板14の横方向)の範囲がxn1‐xn2でY座標(看板14の縦方向)の範囲がym1−ym2であることを示す。そして、各記憶場所には関連情報SMを示すデータがまた個別に設定されている。先に説明したように、この実施例では、看板14のたとえば領域A1には、可視情報V1として「ビール」の絵が描かれているので、関連情報でSM1としてはたとえば「暑いですね。冷たいビールで一杯」という発話データが設定されている。このように関連情報はその領域に表示されている商品に関連していて、かつその商品の特性や詳細をユーザに対して訴求する音声メッセージおよび/または動作メッセージである。
ただし、このメッセージテーブル36Aには、ユーザ12の視線が一点(1つの領域)を注視せず、「キョロキョロ」しているときに出力するための図示したメッセージ(発話/動作)が関連情報として設定されている。
実施例ではさらにまた、ユーザ12の視線がちょっとだけ看板14を見たときにユーザ12を勧誘するための図示した発話/動作メッセージが関連情報の一種として設定されている。
このような実施例において、まず、ユーザ12の視線を推定する方法について説明する。この実施例では、以下に説明するように、ユーザ12の視線方向を推定または検出するために1つのカメラ(単眼カメラ)を用いるユニークな方法を採用している。しかしながら、ユーザ12の視線12A(図3,図4)を検出する方法としては、2以上のカメラを利用する従来からの一般的な方法が採用されてもよいことは、勿論である。つまり、この発明では、ユーザ12の視線を推定したり検出したりする必要はあるが、その具体的な方法は重要な意味を持たず、どのような公知の方法が用いられてもよい。
図1に示すように、ユーザ12の前方に、たとえばCCD(Charge Coupled Device)
またはCMOS(Complementary Metal-Oxide Semiconductor)センサのような固体撮像
素子を含むカメラ16が設置され、このカメラ16からの顔画像信号が視線サーバ18に取り込まれ、視線サーバ18が画像処理することによって、視線12Aの角度αおよびβを推定する。
図8に示すように、カメラ16により撮影された画像は、視線サーバ18に附属して設けたディスプレイ54(図1では図示せず)の撮影画像表示領域56にリアルタイムに動画として表示される。特に限定されないが、たとえば、撮影画像表示領域56上に、視線方向を示す指標として、眉間から視線方向に延びる線分を表示してもよい。
視線サーバ18は、一般的なコンピュータであり、特に変わったハードウェア構成ではないので、ハードウェア自体は説明しないが、視線方向や視線位置の推定は、いかに説明するソフトウェアにより実現される。
視線サーバ18では、特徴点の追跡処理の安定性を確保するため、同一特徴点に関して異なるフレームにおける複数の観測テクスチャを保持している。初期校正過程では、これらの特徴点と虹彩中心の関係から顔特徴点と眼球中心の相対関係を求める。視線推定過程では、校正過程で得られた関係を元に現フレームで得られている特徴点群から眼球中心位置を推定し、その位置と虹彩中心位置から視線方向を決定する。
視線方向の推定処理の動作の前提として、まず、たとえば6分割矩形フィルタを利用して、顔検出処理が実行される。
視線サーバ18では、特に限定されないが、たとえば、顔を連続撮影したビデオ画像を処理するにあたり、横が顔幅、縦がその半分程度の大きさの矩形フィルタで画面を走査する。矩形は、たとえば、3×2に6分割されていて、各分割領域の平均明るさが計算され、それらの相対的な明暗関係がある条件を満たすとき、その矩形の中心を眉間候補とする。
連続した画素が眉間候補となるときは、それを取囲む枠の中心候補のみを眉間候補として残す。残った眉間候補を標準パターンと比較してテンプレートマッチング等を行うことで、上述した手続きで得られた眉間候補のうちから、偽の眉間候補を捨て、真の眉間を抽出する。以下、さらに詳しく説明する。
図9は、眉間候補領域を検出するためのフィルタを説明するための概念図であり、図9(a)は、上述した3×2に6分割された矩形フィルタ(以下、「6分割矩形フィルタ」
と呼ぶ)を示す。
6分割矩形フィルタは、(1) 鼻筋は両目領域よりも明るい、(2) 目領域は頬部よりも暗い、という顔の特徴を抽出し、顔の眉間位置を求めるフィルタである。たとえば、1点(x、y)を中心として、横i画素、縦j画素(i,j:自然数)の矩形の枠を設ける。そして、図9(a)のように、この矩形の枠を、横に3等分、縦に2等分して、6個のブロックS1〜S6に分割する。
このような6分割矩形フィルタを顔画像の両目領域および頬部に当てはめてみると、図9(b)のようになる。
ただし、図9の6分割フィルタは書く矩形領域が等分されたものであったが、このフィルタは図10に示すように変形されてもよい。
鼻筋の部分が目の領域よりも通常は狭いことを考慮すると、ブロックS2およびS5の横幅w2は、ブロックS1,S3,S4およびS6の横幅w1よりも狭い方がより望ましい。好ましくは、幅w2は幅w1の半分とすることができる。図10は、このような場合の6分割矩形フィルタの構成を示す。また、ブロックS1、S2およびS3の縦幅h1と、ブロックS4、S5およびS6の縦幅h2とは、必ずしも同一である必要もない。
図10に示す6分割矩形フィルタにおいて、それぞれのブロックSi(1≦i≦6)について、画素の輝度の平均値「バーSi」(Siに上付きの“−”をつける)を求める。
ブロックS1に1つの目と眉が存在し、ブロックS3に他の目と眉が存在するものとすると、以下の関係式(1)および(2)が成り立つ。
そこで、これらの関係を満たす点を眉間候補(顔候補)として抽出する。
矩形枠内の画素の総和を求める処理には、公知の文献(P. Viola and M. Jones, “ Rapid Object Detection using a Boosted Cascade of Simple Features,” Proc. Of IEEE
Conf. CVPR, 1, pp.511-518, 2001)において開示されている、インテグラルイメージ(Integral Image)を利用した計算の高速化手法を取り入れることができる。インテグラルイメージを利用することでフィルタの大きさに依らず高速に実行することができる。多重解像度画像に本手法を適用することにより、画像上の顔の大きさが変化した場合にも顔候補の抽出が可能となる。
このようにして得られた眉間候補(顔候補)に対しては、両目の標準パターンとのテンプレートマッチングにより、真の眉間位置(真の顔領域)を特定することができる。
なお、得られた顔候補に対して、サポートベクトルマシン(SVM)による顔モデルに
よる検証処理を適用し顔領域を決定することもできる。髪型の違いや髭の有無、表情変化による認識率の低下を避けるため、たとえば、図11に示すように、眉間を中心とした画像領域を利用してSVMによるモデル化を行うことができる。なお、このようなSVMによる真の顔領域の決定については、文献:S. Kawato, N. Tetsutani and K. Hosaka: “Scale-adaptive face detection and tracking in real time with ssr fi1ters and support vector machine”, IEICE Trans.on Info. and Sys., E88−D, 12, pp.2857−2863(2005)に開示されている。6分割矩形フィルタによる高速候補抽出とSVMによる処理とを組み合わせることで実時間の顔検出が可能である。
続いて、目、鼻や虹彩中心の位置を、公知の文献、たとえば『川戸、内海、安部:「4つの参照点と3枚のキャリブレーション画像に基づく単眼カメラからの視線推定」画像の認識・理解シンポジウム(MIRU2005),pp.1337−1342(2005)』あるいは、『川戸慎二郎、鉄谷信二:鼻位置の検出とリアルタイム追跡:信学技報IE2002−263、pp.25−29(2003)』などの手法を用いて抽出する。
両目の位置については、前節の顔領域検出で眉間のパターンを探索しているため、眉間の両側の暗い領域を再探索することにより、大まかな両目の位置を推定することができる。しかし、視線方向の推定のためには、虹彩中心をより正確に抽出する必要がある。ここでは、上で求まった目の周辺領域に対して、ラプラシアンにより虹彩のエッジ候補を抽出し、円のハフ変換を適用することにより、虹彩および虹彩の中心の投影位置を検出する。
鼻の位置は、鼻先が凸曲面であるため周囲に対し明るい点として観測されやすいことと、両目の位置から鼻の存在範囲が限定できることを利用して抽出する。また、両目、鼻の位置を用いて、大体の顔の向きも推定できる。
図12は顔検出結果の例を示す図である。検出された顔において、虹彩中心や鼻先や口なども検出されている。たとえば、特徴点としては、鼻先や、左右の目の目尻や目頭、口の両端、鼻腔中心などを用いることができる。
視線の推定においては、視線方向は眼球中心と虹彩中心を結ぶ3次元直線として与えられるものとする。
図13は視線方向を決定するためのモデルを説明する概念図である。画像上での眼球半径をr、画像上での眼球中心と虹彩中心との距離をdとすると、視線方向とカメラ光軸と
のなす角θは次式(3)で表される。
式(3)により、視線方向を推定するためには、画像上での眼球半径と眼球中心・虹彩中心の投影位置が必要となる。ここで、虹彩中心の投影位置については、上述したとおり、ハフ変換を用いた手法により求めることができる。画像上での眼球直径rは、解剖学的なモデル(標準的な人の眼球直径)を用いてもよいし、別途キャリブレーションにより求めてもよい。
図14は、図13に示した状態からユーザがカメラを注視する状態に移行した後の虹彩中心、眼球中心および投影点の関係を示す概念図である。
眼球中心の投影位置については、一般には、画像から直接観測することはできない。しかし、ユーザ12がカメラ16を注視した場合について考えると、図14に示すとおり、カメラ、虹彩中心、眼球中心の3点が1直線上に並ぶため、画像では虹彩中心と眼球中心は同一点に投影されることがわかる。
そこで、この実施例での視線推定では、ユーザがカメラを注視しながら、顔の姿勢を変化させている画像フレーム列を撮影し、これらの画像列から虹彩位置と顔特徴点を抽出、追跡することにより、眼球中心と顔特徴点間の相対幾何関係を推定する。
後により詳しく説明するように、この実施例の視線方向の推定では、眼球中心と顔特徴点間の相対関係の推定処理と眼球中心の投影位置推定とを行なう。
視線方向の推定のための初期設定として、視線サーバ18は、図15に示すフローチャートで表現されるキャリブレーションを実行する。
まず、キャリブレーション用の画像列として、ユーザがカメラを注視しながら、顔の姿勢を変化させている画像フレーム列を撮影する(ステップS102)。図16は、このようにしてキャリブレーションにおいて撮影された4枚の画像フレームを示す。
ここでは、より一般に、N(N≧2)枚の画像列が得られたとする。各画像フレームを、フレームI1,…INとする。
次に、得られた各画像フレーム列に対して、上述したような方法によって顔検出処理を行い(ステップS104)、続いて、目や鼻の検出処理を行なう(ステップS106)。
さらに、視線サーバ18は、特徴点の抽出、追跡を行う(ステップS108)。なお、特徴点の抽出方法としては、上述したような方法の他に、たとえば、文献:J. Shi and C. Tomasi: “Good features to track”,Proc. CVPR94, pp. 593−600(1994)で提案された手法を用いることもできる。
ここで、各画像フレームIi(i=1,…,N)においてM(M≧4)点の特徴点pj(j=1,…,M)が検出・追跡できたとする。画像フレームIiにおける特徴点pjの2次元観測位置をxj(i)(太字)=[xj(i),yj(i)]t(i=1,…,N,j=1,…,M)とし、両目の虹彩中心の2次元観測位置をそれぞれxr(i)(太字)=[xr(i),yr(i)]t,xl(i)(太字)=[xl(i),yl(i)]t(i=1,…,N)とする。ここで、行列Wを以下のように定義する。
因子分解法により、特徴点の各フレームでの2次元観測位置を縦に並べた行列W(計測行列)は以下のように分解できる。
ここで、行列M(「撮影姿勢行列)と呼ぶ)にはカメラの姿勢に関する情報のみが、行列S(「相対位置関係行列」と呼ぶ)には観測対象物の形状に関する情報のみが含まれており、顔特徴点と眼球中心との3次元的な位置の相対関係は行列Sとして求まる(ステップS110)。すなわち、正射影を仮定すると、行列Mの各要素が画像フレームでのカメラの姿勢を表す単位ベクトルであって、それぞれの大きさが1であり相互には直交するとの拘束条件のもとで、行列Wは、特異値分解により一義的に行列Mと行列Sの積に分解できることが知られている。なお、このような計測行列Wを、因子分解により、カメラの運動の情報を表す行列と対象物の形状情報を表す行列へ分解する点については、文献:金出,ポールマン,森田:因子分解法による物体形状とカメラ運動の復元”,電子通信学会論文誌D−II,J76‐D−II,8,pp.1497−1505(1993)に開示がある。
図17は、リアルタイムの視線方向の推定処理のフローチャートを示す。
次に、以上で得られた結果を用いて、視線方向を推定する手順について説明する。
まず、カメラ16から画像フレームを取得すると(ステップS200)、キャリブレーション時と同様にして、顔の検出および目鼻の検出が行なわれ(ステップS202)、取得された画像フレーム中の特徴点が抽出される(ステップS204)。
画像フレームIkが得られたとする。ここで、眼球中心以外の特徴点のうちm点pj(j=j1,…,jm)が、それぞれ、xj(k)(太字)=[xj(k),yj(k)]tに観測されたとする。このとき、観測された特徴点について、上述したように特徴点近傍のテンプレートを用いたテンプレートマッチングを実施することで、キャリブレーション時に特定された特徴点と現画像フレーム中で観測された特徴点との対応付けが行なわれて、現画像フレーム中の特徴点が特定される(ステップS206)。
なお、上述のとおり、特徴点を特定するためのテンプレートは、キャリブレーションの時のものに限定されず、たとえば、最近の画像フレームの所定枚数について検出された特徴点の近傍の所定の大きさの領域内の画像を所定個数だけ保持しておき、これら所定枚数のテンプレートについてマッチングをした結果、もっとも一致度の高い特徴点に特定することとしてもよい。
顔特徴点pjの2次元観測位置xj(k)(太字)=[xj(k),yj(k)]tとキャリブレーションより求まった3次元位置sj(太字)=[Xj,Yj,Zj]t(j=1,…,M)の間には、M個の特徴点のうち観測されたm個の特徴点について注目すると、次式の関係が得られる。
ただし、行列P(k)は2×3の行列である。右辺の第2項の行列S(k)は行列Sのうち、観測された特徴点に対応する要素のみからなる部分行列である。上述の通り、カメラと顔は十分に離れているとし正射影を仮定している。ここで、4点以上の特徴点が観測されれば、行列P(k)は以下のように計算できる(ステップS208)。
画像フレームIkにおける眼球中心の投影位置xr(i)(太字),xl(i)(太字)は、行列P(k)を用いて以下のように計算できる(ステップS210)。
したがって、画像フレームIkにおいて特徴点として抽出した虹彩中心の投影位置とこの眼球中心の投影位置を用いると、視線の推定を行なうことができる(ステップS212)。
なお、行列PをQR分解により分解することで、顔の姿勢Rが、以下のように計算できる。
ただしr1、r2はそれぞれ1×3のベクトルである。このような顔の姿勢Rの検出については、文献:L.Quan: “Self-calibration of an affine camera from multiple views”,Int’l Journal of Computer Vision, 19, pp. 93−105(1996)に開示がある。
ユーザ等の指示により追跡が終了していると判断されれば(ステップS214)、処理は終了し、終了が指示されていなければ、処理はステップS202に復帰する。
以上説明した視線方向の推定装置の有効性を確認するため、実画像を用いた実験を行った結果について以下に説明する。
カメラはElmo社製PTC−400Cを用い、被験者から約150[cm]の位置に設置した。
まず、50フレームの画像列を用いて、眼球中心と顔特徴点のキャリブレーションを行った。キャリブレーション用の画像フレーム列と抽出した特徴点の例は、図15に示したとおりである。
キャリブレーション用画像フレーム列の撮影に要した時間は約3秒であった。(+印は抽出された虹彩中心(眼球中心))、×印は追跡した顔特徴点)。
次に、キャリブレーションにより求まった顔モデル(行列S)を用いて、視線推定を行った。ここで、被験者はそれぞれ右上、上、左下の方向を注視しながら、顔の位置・向きを変化させた。
図18〜図20は、視線推定結果を示す。図18は、右上方注視の状態であり、図19は、上方注視の状態であり、図20は、左下方向注視の状態である。ここで、視線方向は両目それぞれで計算された視線方向の平均値としている。結果より、顔の位置や向きの変化とは関係なく、視線方向が推定できた。
以上説明したとおり、この実施例の視線方向の推定方法では、単眼カメラの観測に基づいて顔特徴点を検出し、追跡することにより視線方向を推定する。つまり、まずキャリブレーションとして視線がカメラ方向を向いたまま顔の向きのみが異なる画像列から得られる虹彩位置と顔特徴点を利用することで、眼球中心と顔特徴点の関係をモデル化し(行列Sを特定し)、その後、その関係に基づいて推定された入力画像中の眼球中心位置と虹彩位置の関係から視線方向の角度α、βを決定する。
視線サーバ18が視線方向の角度α、βを検出した後、ぬいぐるみ20のコンピュータ32は図21に示すフローチャートを実行して、ぬいぐるみ20からの関連情報の出力(発話や動作)を制御する。ただし、この図21に示すフローチャートは、視線サーバ18からの視線角度データが入力される都度、すなわちフレーム毎に繰り返し実行される。
図21の最初のステップS1で、前述のようにして視線サーバ18が推定した視線角度αおよびβのデータが、ぬいぐるみ20のバス34(図6)を通してコンピュータ32に与えられる。
コンピュータ32では、次のステップS3で、その角度データから視線12A(図3,4)の座標(x,y)を計算する。
一方、図7に示すように、各領域A1‐A13のそれぞれを規定するX座標の範囲およびY座標の範囲がメッセージテーブル36Aに予め設定されている。そこで、次のステップS5で、コンピュータ32は、ステップS3で計算した視線の座標をメッセージテーブル36A内に蓄積されている各領域の座標と対照することによって、そのときユーザ12が見ている領域がどの領域かを特定する。
続くステップS7で、コンピュータ32は、その領域は先にぬいぐるみ20が指差しした領域かどうかを判定する。ぬいぐるみ20が先にどの領域を指差したかは、コンピュータ32自身がそのとき出力したモータ制御データを参照すれば、容易に把握できる。
もし、ステップS7で“YES”が判断されたとすると、コンピュータ32は次のステップS9において、その領域に対応する関連情報を出力する。実施例では、関連情報の出力は擬人的媒体、ぬいぐるみ20を通じて行なうので、その場合には、たとえば図7のメッセージテーブル36Aに設定している発話/動作メッセージをぬいぐるみ20が出力するように、モータ制御ボード36および音声入出ボード46へ必要なモータ制御データおよび音声データを与える。
ステップS7で“NO”を判断したときには、コンピュータ32は次のステップS11で、ステップS5で特定した領域が前回と同じ領域かどうか判断する。
ステップS11で“YES”のとき、コンピュータ32は続くステップS13で、同じ領域に視線を当てている状態が所定時間続いたかどうか、つまり、ユーザ12が1つの領域を注視したかどうか判断する。
そして、ステップS13で“YES”を判断したときには、先に説明したと同様にして、ステップS9で、当該領域の関連情報をたとえばぬいぐるみ20によって出力させる。
ただし、ステップS11で“NO”を判断したときは、コンピュータ32はユーザ12の視線が定まらず「キョロキョロ」している状態であると判断して、続くステップS15において、図7のメッセージテーブル36Aに「キョロキョロ」しているときのために設定されている発話/動作メッセージをぬいぐるみ20から出力する。たとえば、ぬいぐるみ20が看板14の特定の可視情報すなわち特定の領域を指差す動作をしながら、「いまが旬だよ」と発話するように、モータ制御ボード36および音声入出ボード46へ必要なモータ制御データおよび音声データを与える。
また、ステップS13で“NO”を判断したときは、コンピュータ32はユーザ12の視線が看板14をちょっと見た状態であると判断して、続くステップS17において、図7のメッセージテーブル36Aに「ちょっと見た」ときのために設定されている発話および/または動作メッセージをぬいぐるみ20から出力する。たとえば、ぬいぐるみ20がユーザ12に対して手招きするかのような動作をしながら、「ほかにもおいしいものがいっぱいあるよ」と発話するように、モータ制御ボード36および音声入出ボード46へ必要なモータ制御データおよび音声データを与える。
なお、上述の関連情報は単なる一例であり、看板14の領域やそれらの領域に関連する関連情報の内容、ぬいぐるみ20がどのような音声を発し、あるいはどのような動作をすべきかは、看板の目的や種類などによっての任意に変更され得る。
たとえば、ユーザの注視が安定しない場合には、各領域を決められた順番(お勧め順)で説明するのも、関連情報の出力の1つの態様である。同様に、ユーザの注視方向が看板ではない場合には、ユーザの興味を喚起するように、ぬいぐるみと看板とに交互にスポットライトを当てるようにする、なども考えられる関連情報の出力の仕方である。
また、他の関連情報の出力の態様は次のようであってよい。たとえば、ユーザが特定の領域を注視しているときには、その領域にスポットライト(図示せず)をあたるとともに、当該領域について説明する。さらには、ぬいぐるみ20がその領域を見つつ、時々ユーザの方向を向く。そして、説明の区切りではユーザの視線方向を検出し、注視の対象が他に移った場合には、説明対象を切り換える。
図22は図1実施例をポスターセッションに適用した例を簡単に示す図解図であり、この実施例において、看板14はポスターセッションとして展示されたポスターである。ここでは、わかり易く、1枚のポスターが「太陽」について説明したもので、1枚のポスターが「月」について説明したもので、残りの1枚のポスターが「星」について説明したものであるとする。この場合、3枚のポスターが全体として、看板14に相当し、各ポスターが領域A1,A2およびA3として区画できる。
なお、この実施例では、各ポスターは電子看板の態様を採り、展示内容は後方に設置したビデオプロジェクタ54によってポスター表面に投影表示される。そして、適宜の場所にカメラ16を設置してユーザがどのポスターすなわち領域を見ているかを検出するようにする。
そして、この実施例では関連情報出力のために擬人的媒体を用いない。したがって、たとえば、各ポスターの詳細な説明や補足情報を「関連情報」としてスピーカ(図示せず)から出力する。ただし、ユーザが見ているポスターの上かあるいはその近傍の適宜の場所にプロジェクタ54からまたは別のプロジェクタによって、映像として関連情報を出力するようにしてもよい。
なお、上述の実施例では、視線の履歴と現在の視線方向からたとえばキョロキョロしているとか、ちょっと見たという状態を判断するようにしたが、さらに複雑な履歴に基づいてユーザの状態を判断して必要な関連情報を出力するようにしてもよい。
さらに、上述の実施例ではいずれも、ユーザの視線が看板のどこを見たかによって音声などによって関連情報をインタラクティブに出力するようにした。さらに、視線だけでなく、ユーザの発話やユーザがしたジェスチャなどのさらに様々なモダリティの入力を考慮して関連情報を出力するようにしてもよい。
この発明の一実施例のインタラクティブ看板システムの概念を示す図解図である。 図1実施例における看板の一例を示す図解図である。 図1実施例におけるユーザとぬいぐるみとの平面的な位置関係およびユーザの視線角度を示す図解図である。 図1実施例におけるユーザとぬいぐるみとの側面的な位置関係およびユーザの視線角度を示す図解図である。 図1実施例において用いられるぬいぐるみの一例を示す図解図である。 図1実施例におけるぬいぐるみの制御回路の一例を示すブロック図である。 図6実施例におけるメッセージテーブル(領域-関連情報テーブル)の一例を示す図解図である。 図1実施例における視線サーバのディスプレイに表示されているユーザの顔画像の一例を示す図解図である。 図9は眉間候補領域を検出するためのフィルタを説明するための概念図である。 図10は6分割矩形フィルタの他の構成を示す概念図である。 図11は眉間を中心とした画像領域を利用してSVMによるモデル化を説明する図解図である。 図12は顔検出結果の例を示す図解図である。 図13は視線方向を決定するためのモデルを説明する概念図である。 図14はユーザがカメラを注視する状態に移行した後の虹彩中心、眼球中心および投影点の関係を示す概念図である。 図15は視線サーバによる初期設定の処理動作を示すフロー図である。 図16はキャリブレーションにおいて撮影された4枚の画像フレームを示す図解図である。 図17は視線サーバが実行するリアルタイム視線検出の処理動作を示すフロー図である。 図18は右上方注視の状態での視線推定結果を示す図解図である。 図19は上方注視の状態での視線推定結果を示す図解図である。 図20は左下方向注視の状態での視線推定結果を示す図である。 図1実施例におけるぬいぐるみのコンピュータの動作を示すフロー図である。 この発明の実施例で利用できる看板の他の例を示す図解図である。
符号の説明
10 …インタラクティブ看板システム
14 …看板
16 …カメラ
18 …視線サーバ
20 …ぬいぐるみ
32 …コンピュータ
36A …メッセージテーブル
A1-A13 …領域
V1-V13 …可視情報

Claims (4)

  1. 複数の領域を有しかつユーザが視認できる位置に配置した看板と、前記看板に関連して設けられるカメラと、前記看板の近傍に配置される擬人化媒体とを含み、前記擬人化媒体は前記看板の領域を指差す指差し手段および音声を出力する音声出力手段を有する、インタラクティブ看板システムであって、
    前記カメラの映像に基づいて前記ユーザの視線の位置を検出する視線位置検出手段、
    前記視線位置に基づいてユーザが見ている前記看板の領域を特定する領域特定手段、
    前記領域特定手段が特定した領域が前記擬人化媒体が指差した領域かどうか判断する第1判断手段、および
    前記看板の領域毎に各領域に表示した可視情報に関連する音声情報を記憶した記憶手段を備え、
    前記擬人化媒体は、前記第1判断手段が前記領域特定手段が特定した領域が前記擬人化媒体が指差した領域であると判断したとき、前記領域特定手段が特定した領域に関連する音声情報を前記記憶手段から読み出して音声メッセージとして前記音声出力手段によって出力する、インタラクティブ看板システム。
  2. 前記第1判断手段が、前記領域特定手段が特定した領域が前記擬人化媒体が指差した領域ではないと判断したとき、前記視線位置に基づいて前記ユーザが同じ領域を所定時間以上見たかどうか判断する第2判断手段をさらに備え、
    前記擬人化媒体は、前記第2判断手段が前記ユーザが同じ領域を所定時間以上見たと判断したとき、前記領域特定手段が特定した領域に関連する音声情報を前記記憶手段から読み出して前記音声出力手段によって出力する、請求項記載のインタラクティブ看板システム。
  3. 前記記憶手段は、さらに、キョロキョロしているユーザに対する第1音声メッセージをさらに記憶しておき、
    前記第1判断手段が、前記領域特定手段が特定した領域が前記擬人化媒体が指差した領域ではないと判断したとき、そのときの前記領域特定手段が特定した領域が前回と同じ領域かどうか判断する第3判断手段をさらに備え、
    前記擬人化媒体は、前記第3判断手段が前回と同じではないと判断したとき、前記記憶手段から読み出した前記第1音声メッセージを前記音声出力手段によって出力する、請求項または記載のインタラクティブ看板システム。
  4. 前記記憶手段は、さらに、ちょっと見たユーザに対する第2音声メッセージをさらに記憶しておき、
    前記第1判断手段が、前記領域特定手段が特定した領域が前記擬人化媒体が指差した領域ではないと判断したとき、同じ領域を所定時間以上見たかどうか判断する第4判断手段をさらに備え、
    前記擬人化媒体は、前記第4判断手段が所定時間以上でないと判断したとき、前記記憶手段から読み出した第2音声メッセージを前記音声出力手段によって出力する、請求項ないしのいずれかに記載のインタラクティブ看板システム。
JP2007275944A 2007-10-24 2007-10-24 インタラクティブ看板システム Active JP5103682B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007275944A JP5103682B2 (ja) 2007-10-24 2007-10-24 インタラクティブ看板システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007275944A JP5103682B2 (ja) 2007-10-24 2007-10-24 インタラクティブ看板システム

Publications (2)

Publication Number Publication Date
JP2009104426A JP2009104426A (ja) 2009-05-14
JP5103682B2 true JP5103682B2 (ja) 2012-12-19

Family

ID=40706028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007275944A Active JP5103682B2 (ja) 2007-10-24 2007-10-24 インタラクティブ看板システム

Country Status (1)

Country Link
JP (1) JP5103682B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10482298B2 (en) 2011-12-16 2019-11-19 Pixart Imaging Inc. Interactive electronic device
TWI526876B (zh) * 2011-12-16 2016-03-21 原相科技股份有限公司 互動式電子裝置
JP6014931B2 (ja) * 2012-09-06 2016-10-26 公立大学法人広島市立大学 視線計測方法
JP5836407B2 (ja) * 2014-02-05 2015-12-24 日本電信電話株式会社 広告表示制御方法、広告表示制御装置及びプログラム
JP6610349B2 (ja) * 2016-03-10 2019-11-27 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
JP6607092B2 (ja) * 2016-03-09 2019-11-20 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
CN112434741A (zh) * 2020-11-25 2021-03-02 杭州盛世传奇标识系统有限公司 一种互动介绍标识的使用方法、系统、装置和存储介质
CN116997918A (zh) * 2021-03-08 2023-11-03 日本电气株式会社 支付系统、支付方法和计算机程序

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03102437U (ja) * 1990-02-08 1991-10-24
JPH09251342A (ja) * 1996-03-15 1997-09-22 Toshiba Corp 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
JPH10207615A (ja) * 1997-01-22 1998-08-07 Tec Corp ネットワークシステム
JP2001162054A (ja) * 1999-09-30 2001-06-19 Microhouse:Kk 玩具及び玩具システム
JP2005131713A (ja) * 2003-10-28 2005-05-26 Advanced Telecommunication Research Institute International コミュニケーションロボット

Also Published As

Publication number Publication date
JP2009104426A (ja) 2009-05-14

Similar Documents

Publication Publication Date Title
JP5103682B2 (ja) インタラクティブ看板システム
US10157477B2 (en) Robust head pose estimation with a depth camera
US11736756B2 (en) Producing realistic body movement using body images
CN110363867B (zh) 虚拟装扮系统、方法、设备及介质
US10755438B2 (en) Robust head pose estimation with a depth camera
JP5728009B2 (ja) 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和系统
US9196093B2 (en) Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
US20170316582A1 (en) Robust Head Pose Estimation with a Depth Camera
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
CN110363133B (zh) 一种视线检测和视频处理的方法、装置、设备和存储介质
US20120194513A1 (en) Image processing apparatus and method with three-dimensional model creation capability, and recording medium
CN108416832B (zh) 媒体信息的显示方法、装置和存储介质
CN111527468A (zh) 一种隔空交互方法、装置和设备
JP6506443B1 (ja) 画像生成装置及び画像生成プログラム
Rocca et al. Head pose estimation by perspective-n-point solution based on 2d markerless face tracking
JP2010112979A (ja) インタラクティブ看板システム
US20190340773A1 (en) Method and apparatus for a synchronous motion of a human body model
JP6950644B2 (ja) 注意対象推定装置及び注意対象推定方法
CN111028318A (zh) 一种虚拟人脸合成方法、系统、装置和存储介质
JP4831750B2 (ja) コミュニケーション誘発システム
KR20140090538A (ko) 디스플레이 장치 및 제어 방법
JP2009244949A (ja) 操作対象の切替装置
JP5092093B2 (ja) 画像処理装置
WO2018170678A1 (zh) 一种头戴式显示装置及其手势动作识别方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120914

R150 Certificate of patent or registration of utility model

Ref document number: 5103682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250