JP4328136B2 - Interest level estimation device - Google Patents

Interest level estimation device Download PDF

Info

Publication number
JP4328136B2
JP4328136B2 JP2003174479A JP2003174479A JP4328136B2 JP 4328136 B2 JP4328136 B2 JP 4328136B2 JP 2003174479 A JP2003174479 A JP 2003174479A JP 2003174479 A JP2003174479 A JP 2003174479A JP 4328136 B2 JP4328136 B2 JP 4328136B2
Authority
JP
Japan
Prior art keywords
gaze
degree
passenger
line
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003174479A
Other languages
Japanese (ja)
Other versions
JP2005006897A (en
Inventor
佳久 足立
吉央 松本
司 小笠原
Original Assignee
国立大学法人 奈良先端科学技術大学院大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 奈良先端科学技術大学院大学 filed Critical 国立大学法人 奈良先端科学技術大学院大学
Priority to JP2003174479A priority Critical patent/JP4328136B2/en
Publication of JP2005006897A publication Critical patent/JP2005006897A/en
Application granted granted Critical
Publication of JP4328136B2 publication Critical patent/JP4328136B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、電動車椅子や自動車などの搭乗型移動体の搭乗者の視線を検出し、搭乗者の関心度を推定する技術に関する。
【0002】
【従来の技術】
人間の視線の動きは、人間の意図や注意と関係が深いことが知られている。近年、視線をキーボードやマウスの変わりの入力デバイスとして用いる研究が進められており、次世代ヒューマンインターフェイスとして注目されている。人間の視線は他のデバイスと比べて、例えば手を用いずに入力できる、すばやく移動させることができる、長時間用いても疲労が少ない等の利点を有している。
【0003】
【特許文献1】
特開平07−96768号公報
【特許文献2】
特開平11−139229号公報
【特許文献3】
特許3027786号公報
【0004】
【発明が解決しようとする課題】
ところで、電動車椅子などの搭乗型移動体の搭乗者は、移動したい場所に視線を向けて操縦するのが一般的である。そのため、視線に基づいて、搭乗者が現在どの物体に関心を有しているかを推定し、推定した物体の近傍に電動車椅子を移動させることも可能である。特に、手足が不自由な搭乗者にとって、かかる車椅子は有用である。
【0005】
本発明の目的は、搭乗者の視線に基づいて、搭乗者の注視の程度を示す注視度を算出し、搭乗者が関心を有している物体を推定する関心度推定装置を提供することである。
【0006】
【課題を解決するための手段】
本発明に係る関心度推定装置は、搭乗型移動体の搭乗者が周囲の物体のうちどの物体に関心を有しているかを推定する関心度推定装置であって、前記搭乗型移動体が移動する空間内に配置された物体と当該物体の位置とが関連付けられた前記空間の地図を記憶する地図記憶手段と、前記搭乗型移動体の前記空間内での現在位置を検出する位置検出手段と、前記空間内における前記搭乗者の視線方向を検出する視線方向検出手段と、前記位置検出手段によって検出された前記搭乗型移動体の現在位置と前記視線方向検出手段によって検出された視線方向と、前記視線方向上にある物体とを基に、搭乗者が注視している位置である注視点を特定し、当該注視点における注視の程度を示す注視度を算出する注視度算出手段とを備え、前記注視度算出手段は、前記搭乗者が同一箇所を注視した場合、時間が経過するにつれて注視度の値が減少する関数を用いて前記注視度を算出することを特徴とする。
【0007】
この構成によれば、搭乗型移動体の搭乗者の視線及び搭乗型移動体の空間内での現在位置が検出され、検出された視線、現在位置及び地図に基づいて、搭乗者が注視する注視点が特定されるとともに、当該注視点への搭乗者の注視度が算出されるため、搭乗者が搭乗型移動体の周囲のどの物体に関心を有しているかを推定することができる。
また、この構成によれば、同一箇所を注視した場合、その箇所に対する関心度は時間が経過するにつれて低くなるという人間の特性を加味して注視度が算出されるため、搭乗者が現在関心を有している物体をより正確に推定することができる。
【0008】
前記注視度算出手段は、前記搭乗者の視野の中心から視野の周囲に向かうにつれて、前記視野内の各方向に対する注視度の値が低くなる関数を用いて前記注視度算出することが好ましい。この構成によれば、視野の中心ほど関心が高いという人間の特性を加味して注視度が算出されるため、搭乗者が関心を有している物体をより正確に推定することができる。
【0010】
前記関数は、距離が大きくなるにつれて注視度の値が小さくなる関数であることが好ましい。この構成によれば、搭乗者は遠くの物体を見る場合、視野内には多くの物体が含まれるため、搭乗者が特定された注視点を注視している確率は低くなるが、搭乗者が近くの物体を見る場合、搭乗者が特定される注視点を注視している確率は高くなるという特性が加味されて注視度を算出することができる。
【0011】
前記搭乗者が注視する物体の位置の近傍に前記搭乗型移動体を移動させる走行制御手段をさらに備えることが好ましい。この構成によれば、搭乗者は、視線に基づいて、搭乗型移動体を操作することができる。
【0012】
操作前記搭乗者が注視する物体に関連する情報を音声で報知する音声報知手段をさらに備えることが好ましい。この構成によれば、搭乗者が目視している物体近傍に搭乗型移動体が移動するとともに、例えばその物体の説明など、目視している物体に関連する情報が音声によって搭乗者に報知されるため、搭乗型移動体を図書館や博物館などでのガイドロボットとして用いることができる。
【0013】
また、別の発明に係る関心度推定装置は、搭乗型移動体の搭乗者が周囲の物体のうちどの物体に関心を有しているかを推定する関心度推定装置であって、前記搭乗型移動体が移動する空間内に配置された物体と当該物体の位置とが関連付けられた前記空間の地図を記憶する地図記憶手段と、前記搭乗型移動体の前記空間内での現在位置を検出する位置検出手段と、前記空間内における前記搭乗者の顔方向を検出する顔方向検出手段と、前記位置手段によって検出された前記搭乗型移動体の現在位置と前記顔方向検出手段によって検出された顔方向と、前記顔方向上にある物体とを基に、前記搭乗者が注視している位置である注視点を特定し、当該注視点における注視の程度を示す注視度を算出する注視度算出手段とを備え、前記注視度算出手段は、前記搭乗者が同一箇所を注視した場合、時間が経過するにつれて注視度の値が減少する関数を用いて前記注視度を算出することを特徴とする。
【0014】
この構成によれば、搭乗型移動体の搭乗者の顔方向及び搭乗型移動体の空間内での現在位置が検出され、検出された顔方向、現在位置及び地図に基づいて、搭乗者が注視する注視点が特定されるとともに、当該注視点への搭乗者の注視度が算出されるため、搭乗者が搭乗型移動体の周囲のどの物体に関心を有しているかを推定することができる。
また、この構成によれば、同一箇所を注視した場合、その箇所に対する関心度は時間が経過するにつれて低くなるという人間の特性を加味して注視度が算出されるため、搭乗者が現在関心を有している物体をより正確に推定することができる。
【0015】
【発明の実施の形態】
図1は、本発明に係る関心度推定装置と電動車椅子1とを組み合わせ、学校等の図書室をガイドするガイド装置とした場合のそのガイド装置の外観図を示している。このガイド装置は、電動車椅子(搭乗型移動体)1と、搭乗者の操作指令に基づいて電動車椅子1の走行制御等を行なう関心度推定装置とから構成され、図書室内を移動し、搭乗者が目視する本やポスターなどの物体に関連する情報を搭乗者に音声で報知等する装置である。電動車椅子1は、電動車椅子1の搭乗者が座る椅子11と椅子11の下部に配設された駆動部12と、椅子11の手前に配設されたテーブル13と、椅子11の左右両側に配設された肘かけ14とを備えている。駆動部12は、電動車椅子1の動力源としての電動モータ(図略)と、ガイド装置を構成する種々の装置に電力を供給するバッテリー(図略)と、電動モータの駆動力に基づいて回転する一対の車輪15と、電動モータのトルクを車輪15に伝達するギア(図略)等から構成されている。椅子11の背もたれ部分の上部には、背後から電動車椅子1を前方に移動させる際に用いる取っ手16が配設されている。さらに車輪15の前側及び後側には、電動車椅子1の走行を安定させるための一対の補助車輪17が取り付けられている。
【0016】
椅子11の下側であって、駆動部12の手前位置には、電動車椅子1の現在位置を検出するためのレーザレンジファインダ2が配設されている。テーブル13の上部には、関心度推定装置を制御するためのコンピュータ3及び電動車椅子1の搭乗者の顔画像を撮影する2台のカメラ4が配設されている。駆動部12、レーザレンジファインダ2及びコンピュータ3により関心度推定装置が構成される。
【0017】
レーザレンジファインダ(laser range finder:LRF)2は距離計測装置の一種であり、前方180度の範囲内において、所定角度、例えば0.5度刻みで放射線状にレーザ光を照射し、レーザ光の反射光の強度を各角度毎に測定することにより、手前に位置する物体(障害物)と電動車椅子1との距離を測定する。本実施形態では、SICK社製LMS200が用いられており、測定可能範囲は80mであり、測定分解能は10mmである。
【0018】
コンピュータ3は、一般に市販されているノート型パソコンであり、CPU(中央演算装置)と、BIOS等を記憶するROM(リードオンリーメモリ)と、CPUの作業領域として用いられるRAM(ランダムアクセスメモリ)と、OS等のプログラムや種々のデータを記憶するハードディスクと、搭乗者の操作指令を受け付けCPUに出力するキーボード及びポインティングデバイスと、CPUの制御に基づいて種々のデータを画像として表示する液晶表示パネル等を備える。カメラ4を構成する2台のカメラはそれぞれカラー動画像を撮影する一般的なカメラである。
【0019】
図2は、関心度推定装置の電気的な構成を示したブロック図である。関心度推定装置は、処理部100及び記憶部200を備えている。記憶部200は、例えばハードディスクから構成され、地図記憶部201及び音声データ記憶部202を備えている。
【0020】
地図記憶部201は、本棚、図書室内の壁、壁に貼られたポスター等の物体及びガイド装置が走行可能な通路等の位置を示す地図を記憶している。この地図は、図書室を上から見た平面的な地図である。また、地図記憶部201は、各本棚について、その本棚がどのようなジャンルの書籍を主に収納している本棚であるかを示すジャンル情報を記憶している。
【0021】
音声データ記憶部202は、ジャンル情報毎に用意された音声データを記憶している。
【0022】
処理部100は、CPUがコンピュータ3を関心度推定装置の制御部として機能させるためのプログラムを実行することにより実現され、視線方向検出部101、位置検出部102、注視点特定部103、注視度算出部104、注視物体推定部105、走行制御部106及び音声出力部107を備えている。
【0023】
視線方向検出部101は、カメラ4で取得された搭乗者の顔の動画像を対し、例えば、論文(論文タイトル“顔・視線計測システムの開発と動作認識への応用”松本吉央、AlexanderZelinsky、小笠原司;ロボティクスシンポジア2003年)で示した処理を適用することによりガイド装置に対する搭乗者の視線方向を検出する。ここで、ガイド装置に対する視線方向とは、ガイド装置の進行方向に対する視線方向のことであり、ガイド装置の進行方向と搭乗者の視線方向とでなす角度によって特定される方向である。
【0024】
位置検出部102は、レーザレンジファインダ2の測定データと図書室の地図とに対し、例えばWeissのマッチング手法(論文タイトル“Keeping Track of Position and Orientation of Moving Indoor Systems by Correlation of Range-Finder Scans"(IROS'94,pp595-601著者G.Weiss,C.Wetzler,and E.V.Puttkamer)を適用することにより、ガイド装置の図書室での現在位置及び向きを特定する。ここで、ガイド装置の向きは、図書室の所定の基準方向(例えば北の方向)に対するガイド装置の進行方向のことであり、基準方向とガイド装置の進行方向とでなす角度によって特定される方向である。なお、位置検出部102は、GPS(global positioning system)を用いてガイド装置の現在位置を検出してもよい。
【0025】
注視点特定部103は、視線方向検出部101によって検出された視線方向とガイド装置の向きとによって特定される上記基準方向を基準としたときの視線方向(絶対視線方向)を特定し、現在位置から絶対視線方向に向けて引いた直線(視線直線)と視線直線上であって現在位置に最も近い場所に位置する物体との地図上の交点を求め、注視点として特定する。また、注視点特定部103は、視線方向を中心とする扇状の視野領域内において、現在位置から放射状に複数の直線(視野直線)を引き、各視野直線と各視野直線上であって現在位置に最も近い場所に位置する物体との地図上の交点を求め、これらの交点も注視点として特定する。なお、注視点は所定の周期Δt(例えば1/30秒)毎に特定される。
【0026】
注視度算出部104は、各注視点に対して、式(1)〜式(3)のいずれか1つの式を適用することにより各注視点の注視度を算出する。
Wi(t)=αWi(t−Δt)+1/L (|θ|≦5°)・・・式(1)
Wi(t)=αWi(t−Δt)+0.5/L (5°<|θ|≦10°)・・・式(2)
Wi(t)=αWi(t−Δt) (|θ|>10°)・・・式(3)
Wi(t):時刻tにおける注視点iの注視度
L:注視点iと現在位置との距離
α:注視度の減衰率
θ:視線直線に対する視野直線の角度
Δt:注視度を算出する周期
【0027】
Wi(t―Δt)は、注視点iにおけるΔt時間前の注視度を示しており、Wi(t−Δt)に減衰率α(0<α<1)を乗算しているため、時間が経過するにつれて、注視点iにおける注視度は減衰していく。その結果、同一箇所を注視した場合、その箇所における関心度は時間が経過するにつれて低くなるという特性が上記式(1)〜(3)には加味されている。
【0028】
注視物体推定部105は、注視度の値が最も大きな注視点を特定し、特定した注視点における注視度が所定の閾値よりも大きい場合、この注視点に位置する物体を搭乗者が関心を示している物体として推定する。
【0029】
走行制御部106は、ガイド装置の現在位置から注視物体推定部105によって推定された物体近傍の位置までガイド装置を走行するようにガイド装置の走行制御を行う。例えば、物体近傍の位置に近づくにつれて速度を低下させていき、物体近傍の位置で停止させるというようなガイド装置の走行制御を行う。
【0030】
音声出力部107は、注視物体推定部105によって推定された物体が本棚である場合、ガイド装置がその本棚の近傍の位置に到着乃至は所定の距離範囲内に近づいたとき、その本棚のジャンル情報に対応する音声データを音声データ記憶部202から読み出し、読み出した音声データを音声信号に変換してスピーカ5に出力する。
【0031】
なお、本実施形態では、カメラ4及び視線方向検出部101が視線方向検出手段の一例に相当し、レーザレンジファインダ2及び位置検出部102が位置検出手段の一例に相当し、地図記憶部201が地図記憶手段に相当し、注視点特定部103及び注視度算出部104が注視度算出手段に相当に相当する。
【0032】
次に、本関心度推定装置の処理について説明する。図3は、本関心度推定装置の処理を示すフローチャートである。ステップS1において、視線方向検出部101は、カメラ4によって取得された搭乗者の顔画像から搭乗者の視線方向を検出する。
【0033】
ステップS2において、位置検出部102は、レーザレンジファインダ2の測定データから、ガイド装置の図書室内での現在位置を検出する。
【0034】
ステップS3において、注視点特定部103は、ステップS1で検出された搭乗者の視線方向及びステップS2で検出されたガイド装置の現在位置から、視線直線に対する注視点と、視野直線に対する注視点とを特定する。図4(a)は、図書室において、搭乗者が現在位置PPから壁WLを注視している状態を模式的に示した図であり、(a)は立体図を示し(b)は平面図(地図)を示している。また、(a)において、X−Y平面は地面を表し、Z軸は高さ方向を示している。
【0035】
注視点特定部103は、まず、ステップS1で検出された視線方向から図書室の基準方向に対する搭乗者の視線方向である絶対視線方向SDを特定するとともに、ステップS2で検出された図書室でのガイド装置の現在位置から地図上におけるガイド装置の現在位置PPを特定する。次に、特定した現在位置PPから絶対視線方向SDに引いた視線直線SL1と壁WLとの地図上の交点を求め、この交点を注視点CPとして特定する。
【0036】
さらに、注視点特定部103は、現在位置PPから視線直線を中心として複数の視野直線SL2を引き、各視野直線SL2と、壁WLとの地図上の交点を求め、これらの交点も注視点CPとして特定する。
【0037】
ステップS4において、注視度算出部104は、ステップS3で特定された各注視点CPに対し、上記式(1)〜(3)のいずれかを適用することにより、各注視点CPの注視度を算出する。本実施形態では、視線直線SL1と視野直線SL2との角度をθとしたとき、|θ|≦5°の範囲内にある視野直線SL2に対応する注視点CPに対しては式(1)を用いて注視度を算出し、5°<|θ|≦10°の範囲内にある視野直線SL2に対応する注視点CPに対しては式(2)を用いて注視度を算出し、|θ|>10°の範囲内にある視野直線SL2に対しては、式(3)を用いて注視度を算出している。そのため、各注視点CPの注視度は、図4のブロック状の図形で示すように、搭乗者の視野の中心ほど注視度の値が大きくなり、視野の中心から離れるにつれて注視度の値が小さくなる。その結果、搭乗者の関心度は、視野の中心ほど高いという特性を加味して注視度を算出することができる。さらに、式(1)、(2)の第2項の分母がLであるため、注視点CPと現在位置PPとの距離が近いほどその注視点の注視度は大きくなる。
【0038】
ステップS5において、注視度が最大の注視点CPの注視度が閾値よりも大きい場合(ステップS5でYES)、注視物体推定部105は、当該注視点CPに位置する物体を搭乗者が関心を有している物体として推定する。一方、注視度が最大の注視点CPの注視度が閾値よりも小さい場合(ステップS5でNO)、ステップS1に戻る。
【0039】
図5(a)は、搭乗者が壁に貼ってあるポスターGPを注視しているときの注視度を示した図であり、(b)は搭乗者がポスターGPを注視していないときの注視度を示した図である。図5(a)、(b)において、各線分は、図書室内の壁WLを示し、四角はガイド装置の現在位置PPを示し、短い矢印は、ガイド装置の正面方向FDを示し、長い矢印は視線方向EDを示し、山状の点の集合体は、注視点の注視度の大きさであり、壁WLと直交する方向への集合体の高さにより、その位置での注視度の大きさを表している。
【0040】
図5(a)では、搭乗者はポスターGPを注視しているため、ポスターGP周囲の注視度が大きくなっていることが分かる。一方、図5(b)では、搭乗者はポスターGPを注視していないため、注視度の小さな注視点が分散して存在していることが分かる。
【0041】
図6は、各時刻(1/30秒毎)において注視度が最大の位置をプロットしたグラフであり、(a)は搭乗者がポスターGPを注視している場合を示し、(b)は搭乗者がポスターGPを注視していない場合を示している。(a)、(b)両グラフとも、縦軸は注視度が最大の位置のXの値及びY座標の値とその注視点に対応する注視度とを示し、横軸は時間を示し、実線がX座標のグラフを示し、破線がY座標のグラフを示し、一点破線が注視度のグラフを示している。図6(a)に示すように、搭乗者がポスターGPを注視している場合は、時間の経過に伴って、注視度が最大の位置のX及びY座標の値がほぼ一定であることが分かる。一方、図6(b)に示すように、搭乗者がポスターGPを注視していない場合、時間の経過に伴って注視度が最大の位置のX及びY座標の値が大きく変化するとともに、注視度の値が低いことが分かる。この結果が示すように、搭乗者がある物体に注視している場合と注視していない場合とでは、その注視度の大きさ及び注視点の分散の仕方が顕著に相違するため、搭乗者の視線に基づいて、搭乗者の現在どの物体に関心を有しているかを推定することが可能となる。
【0042】
ステップS6において、走行制御部106は、ステップS5において特定された搭乗者が注視する物体の近傍の位置にガイド装置を移動させる。搭乗者が注視する物体が本棚である場合(ステップS7でYES)、音声出力部107は、搭乗者が注視する物体の近傍の位置にガイド装置が到着したとき、その本棚のジャンル情報に対応する音声データを音声データ記憶部202から読出し、スピーカ5に出力し、搭乗者にその本棚のジャンルを報知する。
【0043】
ステップS9において、例えばガイド装置の主電源がオフされると(ステップS9でYES)、処理を終了し、主電源がオフされていない場合は(ステップS9でNO)、ステップS1に戻り、処理を続行する。
【0044】
以上説明したように、本実施形態に係る関心度推定装置によれば、視線に基づいて、搭乗者の注視度が算出されているため、搭乗者の周囲のどの物体に関心を持っているかを知ることができる。
【0045】
なお、本発明は以下の態様を採ることができる。
【0046】
(1)上記実施形態では、搭乗者が注視している物体の近傍にガイド装置を走行させる態様を示したが、これに限定されず、走行制御は、直接、搭乗者がガイド装置を操縦することにより行ない、音声による報知のみを注視度に基づいて行なってもよい。また、本棚のジャンルを音声で報知する態様を示したが、これに限定されず、例えばポスターを注視している場合は、そのポスターの内容等を説明する音声を報知する等、搭乗者が注視する物体に応じた音声を報知させてもよい。この場合、物体の種類に応じた音声データを音声データ記憶部202に予め記憶させておき、音声出力部107は、搭乗者が物体を注視したとき、その物体に対応する音声データを読出し、当該音声データから得られる音声信号をスピーカ5に出力すればよい。
【0047】
(2)上記実施形態では、ガイド装置は図書室を移動するものであったが、これに限定されず、例えば、美術館、博物館等を移動するものであってもよい。この場合、展示物毎の音声データを音声データ記憶部202に予め記憶させておき、音声出力部107は、搭乗者が展示物を注視したときに、その展示物に対応する音声データを読出し、スピーカ5に当該音声データから得られる音声信号を出力すればよい。
【0048】
(3)自動車の運転手が街中にある看板をどれだけ注目しているかを上記注視度を基に測定し、看板の広告効果を調査する広告度調査システムに本関心度推定装置を適用させてもよい。この場合、看板の位置の情報は予めデータとしてもっておく。そして、GPSなどの車の位置情報や、カメラを用いた外部環境計測の結果と運転手の顔、視線計測結果を合わせることにより、看板への注目度を測定することができる。そして、測定結果を、車載ネットワーク等を介して広告主に送信させるようにすると、広告主は、即座に看板の宣伝効果を把握することができる。さらに、この構成において、看板の宣伝効果を調査する態様に代えて又は加えて、自動車の運転手が信号や道路標識に対してどれだけ注目しているかを測定し、その結果に応じて、警告を与えたり、車への制御(速度超過の場合、減速する等)させてもよい。
【0049】
(4)本発明に係る関心度推定装置をカーナビゲーションシステムと連携させ、運転者がカーナビゲーションシステムで目的地(例えば、レストラン等)を設定し、自動車がその目的地の周辺(目視可能な距離範囲内)に近づいたとき、その目的地を運転手が見ているかどうかを検出し、その目的地を見ていない場合は、音声でアナウンスすることにより目的地に近づくように支援を行なってもよい。また、目的地を通りすぎないように、自動車への走行制御(速度超過や入り口が近づいた場合減速する等)により支援を行なってもよい。
【0050】
(5)上記実施形態では、視線方向検出部101によって検出された視線方向に基づいて関心度の算出等をおこなっているが、これに限定されず、搭乗者の顔方向を検出し、これを基に注視度の算出等を行ってもよい。この場合、視線方向検出部101に代えて、搭乗者の空間上での顔方向を検出する顔方向検出部を設け、注視点特定部103、注視度算出部104及び注視物体推定部105等は、「視線方向」に代えて顔方向検出部が検出した「顔方向」を基にそれぞれ処理を実行すればよい。なお、顔方向の検出は、上記視線方向検出部101が採用する論文中に示された顔方向を検出する技術を用いて搭乗者の顔方向を検出すればよい。
【0051】
【発明の効果】
以上説明したように、本発明によれば、搭乗型移動体の搭乗者の視線及び搭乗型移動体の空間内での現在位置が検出され、検出された視線、現在位置及び地図に基づいて、搭乗者が注視する注視点が特定されるとともに、当該注視点への搭乗者の注視度が算出されるため、搭乗者が搭乗型移動体の周囲のどの物体に関心を有しているかを知ることができる。
【図面の簡単な説明】
【図1】 本発明に係る関心度推定装置を学校等の図書室のガイド装置に適用した場合のガイド装置の外観図を示している。
【図2】 関心度推定装置の電気的な構成を示したブロック図である。
【図3】 関心度推定装置の処理を示すフローチャートである。
【図4】 注視点特定部の処理を説明するための図である。
【図5】 図5(a)は、搭乗者が壁に貼ってあるポスターGPを注視しているときの注視度を示した図であり、(b)は搭乗者がポスターGPを注視していないときの注視度を示した図である。
【図6】 各時刻(1/30秒毎)において注視度が最大の位置をプロットしたグラフであり、(a)は搭乗者がポスターGPを注視している場合を示し、(b)は搭乗者がポスターGPを注視していない場合を示している。
【符号の説明】
100 処理部
101 視線方向検出部
102 位置検出部
103 注視点特定部
104 注視度算出部
105 注視物体推定部
106 走行制御部
107 音声出力部
200 記憶部
201 地図記憶部
202 音声データ記憶部
CP 注視点
ED 視線方向
SL1 視線直線
SL2 視野直線
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for detecting the line of sight of a passenger of a boarding type mobile body such as an electric wheelchair or an automobile and estimating the degree of interest of the passenger.
[0002]
[Prior art]
It is known that the movement of human gaze is closely related to human intention and attention. In recent years, research using the line of sight as an input device instead of a keyboard or a mouse has been advanced, and has attracted attention as a next-generation human interface. Compared with other devices, human eyes have advantages such as being able to input without using hands, being able to move quickly, and having less fatigue even when used for a long time.
[0003]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 07-96768
[Patent Document 2]
JP 11-139229 A
[Patent Document 3]
Japanese Patent No. 3027786
[0004]
[Problems to be solved by the invention]
By the way, a passenger of a boarding type moving body such as an electric wheelchair is generally steered with a line of sight toward a place where he / she wants to move. Therefore, based on the line of sight, it is possible to estimate which object the passenger is currently interested in and move the electric wheelchair to the vicinity of the estimated object. Such a wheelchair is particularly useful for passengers who are handicapped.
[0005]
An object of the present invention is to provide a degree-of-interest estimation device that calculates a gaze degree indicating a degree of gaze of a passenger based on the line of sight of the passenger and estimates an object that the passenger is interested in. is there.
[0006]
[Means for Solving the Problems]
  An interest level estimation apparatus according to the present invention is an interest level estimation apparatus that estimates which of the surrounding objects a passenger of a boarding type mobile body is interested in, wherein the boarding type mobile body moves Map storage means for storing a map of the space in which the object arranged in the space to be associated with the position of the object, and position detection means for detecting the current position of the boarding type mobile body in the space; A gaze direction detecting means for detecting a gaze direction of the passenger in the space, a current position of the boarding type moving body detected by the position detecting means, and a gaze direction detected by the gaze direction detecting means, Gaze degree calculating means for identifying a gaze point that is a position where the passenger is gaze based on the object in the gaze direction and calculating a gaze degree indicating the degree of gaze at the gaze point.The gaze degree calculation means calculates the gaze degree using a function that decreases the gaze degree value as time passes when the passenger gazes at the same location.It is characterized by that.
[0007]
  According to this configuration, the line of sight of the passenger of the boarding type mobile body and the current position in the space of the boarding type mobile body are detected, and the passenger pays attention based on the detected line of sight, the current position, and the map. Since the viewpoint is specified and the gazing degree of the occupant to the gazing point is calculated, it is possible to estimate which object around the boarding type moving body the occupant is interested in.
  Further, according to this configuration, when attention is paid to the same part, the degree of interest in the part is calculated taking into account the human characteristic that the degree of interest decreases with time. The held object can be estimated more accurately.
[0008]
It is preferable that the gaze degree calculation means calculates the gaze degree using a function that decreases a gaze degree value in each direction in the field of view from the center of the passenger's field of view toward the periphery of the field of view. According to this configuration, since the gaze degree is calculated in consideration of the human characteristic that the center of the visual field is more interested, the object that the passenger is interested in can be estimated more accurately.
[0010]
The function is preferably a function that decreases the value of gaze degree as the distance increases. According to this configuration, when the occupant looks at a distant object, since many objects are included in the field of view, the probability that the occupant is gazing at the specified gazing point is low. When looking at a nearby object, the gaze degree can be calculated in consideration of the characteristic that the probability that the occupant is gazing at the gazing point specified is high.
[0011]
It is preferable that the vehicle further includes a traveling control unit that moves the riding type moving body in the vicinity of the position of the object that the passenger gazes at. According to this configuration, the passenger can operate the boarding type moving body based on the line of sight.
[0012]
Operation It is preferable to further include voice notification means for notifying information related to the object that the passenger gazes by voice. According to this configuration, the boarding-type moving body moves in the vicinity of the object that the passenger is viewing, and information related to the object that is being viewed, such as a description of the object, is notified to the passenger by voice. Therefore, the boarding type mobile body can be used as a guide robot in a library or a museum.
[0013]
  Further, the interest level estimation device according to another invention is an interest level estimation device for estimating which of the surrounding objects a passenger of the boarding type mobile body is interested in, the boarding type movement Map storage means for storing a map of the space in which an object arranged in the space in which the body moves and the position of the object are associated with each other, and a position for detecting the current position of the boarding type moving body in the space Detecting means; face direction detecting means for detecting the face direction of the occupant in the space; current position of the riding type moving body detected by the position means; and face direction detected by the face direction detecting means And a gaze degree calculating means for identifying a gaze point that is a position where the passenger is gaze based on the object in the face direction and calculating a gaze degree indicating a degree of gaze at the gaze point WithThe gaze degree calculation means calculates the gaze degree by using a function that decreases the gaze degree value as time passes when the passenger gazes at the same location.It is characterized by that.
[0014]
  According to this configuration, the face direction of the passenger of the boarding type mobile body and the current position in the space of the boarding type mobile body are detected, and the passenger gazes based on the detected face direction, the current position, and the map. Since the gazing point to be identified is specified and the gazing degree of the passenger to the gazing point is calculated, it is possible to estimate which object around the boarding type moving body the passenger is interested in .
Further, according to this configuration, when attention is paid to the same part, the degree of interest in the part is calculated taking into account the human characteristic that the degree of interest decreases with time. The held object can be estimated more accurately.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows an external view of a guide device when the interest degree estimation device according to the present invention and the electric wheelchair 1 are combined to provide a guide device for guiding a library room such as a school. This guide device is composed of an electric wheelchair (boarding-type moving body) 1 and an interest level estimation device that performs traveling control and the like of the electric wheelchair 1 based on an operation command from the passenger. Is a device that informs the passenger of information related to an object such as a book or a poster that is visually observed. The electric wheelchair 1 is disposed on a chair 11 on which the passenger of the electric wheelchair 1 sits, a drive unit 12 disposed below the chair 11, a table 13 disposed in front of the chair 11, and both left and right sides of the chair 11. And an armrest 14 provided. The drive unit 12 rotates based on an electric motor (not shown) as a power source of the electric wheelchair 1, a battery (not shown) that supplies power to various devices constituting the guide device, and a driving force of the electric motor. And a gear (not shown) that transmits the torque of the electric motor to the wheels 15. A handle 16 that is used when the electric wheelchair 1 is moved forward from behind is disposed above the back portion of the chair 11. Further, a pair of auxiliary wheels 17 for stabilizing the traveling of the electric wheelchair 1 are attached to the front side and the rear side of the wheel 15.
[0016]
A laser range finder 2 for detecting the current position of the electric wheelchair 1 is disposed below the chair 11 and in front of the drive unit 12. At the upper part of the table 13, a computer 3 for controlling the degree of interest estimation device and two cameras 4 for taking a face image of a passenger of the electric wheelchair 1 are arranged. The drive unit 12, the laser range finder 2, and the computer 3 constitute an interest level estimation device.
[0017]
A laser range finder (LRF) 2 is a kind of distance measuring device, and irradiates laser light in a radial manner at a predetermined angle, for example, in 0.5 degree increments within a range of 180 degrees forward. By measuring the intensity of the reflected light for each angle, the distance between the object (obstacle) located in front and the electric wheelchair 1 is measured. In the present embodiment, SIMS LMS200 is used, the measurable range is 80 m, and the measurement resolution is 10 mm.
[0018]
The computer 3 is a commercially available notebook personal computer, a CPU (Central Processing Unit), a ROM (Read Only Memory) for storing BIOS and the like, and a RAM (Random Access Memory) used as a work area for the CPU. A hard disk that stores programs such as an OS and various data, a keyboard and pointing device that receives a passenger's operation command and outputs it to the CPU, a liquid crystal display panel that displays various data as images based on the control of the CPU, and the like Is provided. The two cameras constituting the camera 4 are general cameras that capture color moving images.
[0019]
FIG. 2 is a block diagram showing an electrical configuration of the interest level estimation apparatus. The interest level estimation device includes a processing unit 100 and a storage unit 200. The storage unit 200 is composed of, for example, a hard disk, and includes a map storage unit 201 and an audio data storage unit 202.
[0020]
The map storage unit 201 stores a map indicating the positions of bookshelves, walls in the library room, objects such as posters attached to the walls, and passages where the guide device can travel. This map is a planar map of the library as seen from above. In addition, the map storage unit 201 stores genre information indicating, for each bookshelf, what kind of books the bookshelf mainly stores books.
[0021]
The audio data storage unit 202 stores audio data prepared for each genre information.
[0022]
The processing unit 100 is realized by the CPU executing a program for causing the computer 3 to function as a control unit of the interest level estimation device, and includes a gaze direction detection unit 101, a position detection unit 102, a gaze point identification unit 103, and a gaze degree. A calculation unit 104, a gaze object estimation unit 105, a travel control unit 106, and an audio output unit 107 are provided.
[0023]
The gaze direction detection unit 101 applies the moving image of the occupant's face acquired by the camera 4, for example, a paper (thesis title “Development of Face / Gaze Measurement System and Application to Motion Recognition” Yoshio Matsumoto, AlexanderZelinsky, Ogasawara Tsukasa: By detecting the robotics symposia (2003), the sight line direction of the passenger with respect to the guide device is detected. Here, the line-of-sight direction with respect to the guide device is a line-of-sight direction with respect to the traveling direction of the guide device, and is a direction specified by an angle formed by the traveling direction of the guide device and the line-of-sight direction of the passenger.
[0024]
The position detection unit 102 performs, for example, a Weiss matching method (the paper title “Keeping Track of Position and Orientation of Moving Indoor Systems by Correlation of Range-Finder Scans”) on the measurement data of the laser range finder 2 and the library map. IROS '94, pp595-601 authors G. Weiss, C. Wetzler, and EVPuttkamer) to determine the current position and orientation of the guide device in the library, where the orientation of the guide device is The direction of travel of the guide device relative to a predetermined reference direction (for example, the north direction) of the library, and is a direction specified by an angle formed by the reference direction and the travel direction of the guide device. May detect the current position of the guide device using a GPS (global positioning system).
[0025]
The gazing point specifying unit 103 specifies the gaze direction (absolute gaze direction) based on the reference direction identified by the gaze direction detected by the gaze direction detection unit 101 and the direction of the guide device, and the current position The point of intersection on the map between the straight line drawn in the absolute line-of-sight direction (line-of-sight line) and the object located on the line of sight and closest to the current position is determined and specified as the point of sight. In addition, the gazing point specifying unit 103 draws a plurality of straight lines (field straight lines) radially from the current position in the fan-shaped field area centered on the line-of-sight direction. The intersection point on the map with the object located at the closest location is obtained, and these intersection points are also specified as the gazing point. Note that the gazing point is specified every predetermined period Δt (for example, 1/30 seconds).
[0026]
The gaze degree calculation unit 104 calculates the gaze degree of each gaze point by applying any one of formulas (1) to (3) to each gaze point.
Wi (t) = αWi (t−Δt) + 1 / L (| θ | ≦ 5 °) Expression (1)
Wi (t) = αWi (t−Δt) + 0.5 / L (5 ° <| θ | ≦ 10 °) (2)
Wi (t) = αWi (t−Δt) (| θ |> 10 °) Expression (3)
Wi (t): gaze degree of gaze point i at time t
L: Distance between the gazing point i and the current position
α: Gaze attenuation rate
θ: Angle of the visual line relative to the line of sight
Δt: Period for calculating the gaze degree
[0027]
Wi (t−Δt) indicates the gaze degree before Δt time at the gazing point i, and Wi (t−Δt) is multiplied by the attenuation rate α (0 <α <1), so that time has elapsed. As it goes on, the gaze degree at the gaze point i decreases. As a result, when attention is paid to the same location, the above formulas (1) to (3) take into account the characteristic that the degree of interest at that location decreases with time.
[0028]
The gaze object estimation unit 105 identifies a gaze point with the largest gaze degree value, and when the gaze degree at the identified gaze point is greater than a predetermined threshold, the occupant is interested in the object located at the gaze point. As a moving object.
[0029]
The travel control unit 106 performs travel control of the guide device so that the guide device travels from the current position of the guide device to a position near the object estimated by the gaze object estimation unit 105. For example, the travel control of the guide device is performed such that the speed is decreased as the position near the object is approached, and the vehicle is stopped at the position near the object.
[0030]
When the object estimated by the gaze object estimation unit 105 is a bookshelf, the audio output unit 107 is a genre information of the bookshelf when the guide device arrives at a position near the bookshelf or approaches a predetermined distance range. Is read from the audio data storage unit 202, and the read audio data is converted into an audio signal and output to the speaker 5.
[0031]
In this embodiment, the camera 4 and the line-of-sight direction detection unit 101 correspond to an example of a line-of-sight direction detection unit, the laser range finder 2 and the position detection unit 102 correspond to an example of a position detection unit, and the map storage unit 201 The gaze point specifying unit 103 and the gaze degree calculating unit 104 correspond to the gaze degree calculating unit.
[0032]
Next, the process of this interest level estimation apparatus is demonstrated. FIG. 3 is a flowchart showing processing of the interest level estimation apparatus. In step S <b> 1, the line-of-sight direction detection unit 101 detects the line-of-sight direction of the passenger from the face image of the passenger acquired by the camera 4.
[0033]
In step S <b> 2, the position detection unit 102 detects the current position of the guide device in the library room from the measurement data of the laser range finder 2.
[0034]
In step S3, the gazing point identification unit 103 determines a gazing point with respect to the sight line and a gazing point with respect to the visual field line from the sight line direction of the passenger detected in step S1 and the current position of the guide device detected in step S2. Identify. FIG. 4A is a diagram schematically showing a state in which the passenger is gazing at the wall WL from the current position PP in the library, where FIG. 4A shows a three-dimensional view and FIG. 4B shows a plan view. (Map) is shown. In (a), the XY plane represents the ground, and the Z axis represents the height direction.
[0035]
The gaze point identifying unit 103 first identifies the absolute line-of-sight direction SD, which is the passenger's line-of-sight direction with respect to the reference direction of the library, from the line-of-sight direction detected in step S1, and in the library detected in step S2. The current position PP of the guide device on the map is specified from the current position of the guide device. Next, an intersection point on the map of the line of sight SL1 drawn in the absolute line-of-sight direction SD from the specified current position PP and the wall WL is obtained, and this intersection point is specified as the gazing point CP.
[0036]
Furthermore, the gazing point specifying unit 103 draws a plurality of visual field lines SL2 around the line of sight from the current position PP, and obtains intersection points on the map of the visual line lines SL2 and the walls WL. As specified.
[0037]
In step S4, the gaze degree calculation unit 104 applies the gaze degree of each gaze point CP by applying any of the above formulas (1) to (3) to each gaze point CP specified in step S3. calculate. In the present embodiment, when the angle between the line of sight SL1 and the line of sight SL2 is θ, Equation (1) is applied to the gazing point CP corresponding to the line of sight SL2 within the range of | θ | ≦ 5 °. Is used to calculate the gaze degree, and for the gazing point CP corresponding to the visual line SL2 within the range of 5 ° <| θ | ≦ 10 °, the gaze degree is calculated using Equation (2), and | θ For the visual field straight line SL2 within the range of |> 10 °, the gaze degree is calculated using Expression (3). Therefore, as shown by the block-shaped figure in FIG. 4, the gaze degree of each gazing point CP increases toward the center of the passenger's field of view, and decreases as the distance from the center of the field of view increases. Become. As a result, the gaze degree can be calculated in consideration of the characteristic that the degree of interest of the passenger is higher at the center of the visual field. Further, since the denominator of the second term of the expressions (1) and (2) is L, the closer the distance between the gazing point CP and the current position PP is, the larger the gazing degree of the gazing point is.
[0038]
In step S5, when the gazing degree of the gazing point CP having the largest gazing degree is larger than the threshold value (YES in step S5), the gazing object estimation unit 105 is interested in the object located at the gazing point CP. Estimated as a moving object. On the other hand, when the gaze degree of the gazing point CP having the maximum gaze degree is smaller than the threshold (NO in step S5), the process returns to step S1.
[0039]
FIG. 5A is a diagram showing the degree of gazing when the passenger is gazing at the poster GP stuck on the wall, and FIG. 5B is the gazing when the occupant is not gazing at the poster GP. It is the figure which showed the degree. 5 (a) and 5 (b), each line segment indicates the wall WL in the library room, the square indicates the current position PP of the guide device, the short arrow indicates the front direction FD of the guide device, and the long arrow indicates The aggregate of mountain-shaped points indicating the line-of-sight direction ED is the magnitude of the gaze degree of the gazing point, and the magnitude of the gaze degree at that position depending on the height of the aggregate in the direction perpendicular to the wall WL Represents.
[0040]
In FIG. 5A, since the passenger is gazing at the poster GP, it can be seen that the degree of gazing around the poster GP is increased. On the other hand, in FIG. 5B, since the passenger is not gazing at the poster GP, it can be seen that gazing points with small gaze degrees exist in a dispersed manner.
[0041]
FIG. 6 is a graph in which the position with the highest gaze degree is plotted at each time (every 1/30 seconds), (a) shows the case where the passenger is watching the poster GP, (b) is the boarding This shows a case where the person is not watching the poster GP. In both graphs (a) and (b), the vertical axis indicates the X value and Y coordinate value of the position where the gaze degree is maximum and the gaze degree corresponding to the gaze point, the horizontal axis indicates time, and the solid line Indicates a graph of X coordinate, a broken line indicates a graph of Y coordinate, and a dashed line indicates a graph of gaze degree. As shown in FIG. 6A, when the passenger is gazing at the poster GP, the values of the X and Y coordinates at the position where the gazing degree is maximum may be substantially constant as time elapses. I understand. On the other hand, as shown in FIG. 6B, when the occupant is not gazing at the poster GP, the X and Y coordinate values at the position where the gazing degree is maximum change greatly with time, and the gazing is performed. It can be seen that the degree value is low. As shown in this result, the size of the gaze degree and the way the gaze points are distributed differ significantly between when the passenger is gazing at an object and when it is not gazing. Based on the line of sight, it is possible to estimate which object the passenger is currently interested in.
[0042]
In step S6, the traveling control unit 106 moves the guide device to a position in the vicinity of the object that the passenger identified in step S5 is gazing at. When the object watched by the passenger is a bookshelf (YES in step S7), the audio output unit 107 responds to the genre information of the book shelf when the guide device arrives at a position near the object watched by the passenger. Audio data is read from the audio data storage unit 202 and output to the speaker 5 to notify the passenger of the genre of the bookshelf.
[0043]
In step S9, for example, when the main power of the guide device is turned off (YES in step S9), the process is terminated. If the main power is not turned off (NO in step S9), the process returns to step S1 and the process is performed. continue.
[0044]
As described above, according to the degree-of-interest estimation apparatus according to the present embodiment, since the gaze degree of the passenger is calculated based on the line of sight, it is possible to determine which object around the passenger is interested. I can know.
[0045]
In addition, this invention can take the following aspects.
[0046]
(1) In the above-described embodiment, the mode in which the guide device is caused to travel in the vicinity of the object being watched by the occupant is shown, but the present invention is not limited to this, and the occupant directly steers the guide device. In this case, only voice notification may be performed based on the gaze degree. Moreover, although the aspect which announces the genre of a bookshelf with a voice was shown, it is not limited to this, for example, when a poster is watched, the passenger pays attention, such as notifying the voice explaining the contents of the poster, etc. A sound corresponding to the object to be performed may be notified. In this case, audio data corresponding to the type of the object is stored in the audio data storage unit 202 in advance, and the audio output unit 107 reads out audio data corresponding to the object when the passenger gazes at the object, An audio signal obtained from the audio data may be output to the speaker 5.
[0047]
(2) In the above embodiment, the guide device moves in the library room, but is not limited to this, and may move in, for example, an art museum or a museum. In this case, audio data for each exhibit is stored in the audio data storage unit 202 in advance, and the audio output unit 107 reads audio data corresponding to the exhibit when the passenger gazes at the exhibit, An audio signal obtained from the audio data may be output to the speaker 5.
[0048]
(3) The interest level estimation device is applied to an advertising degree survey system that measures how much a car driver is paying attention to a signboard in the city based on the above gaze degree and investigates the advertising effect of the signboard. Also good. In this case, information on the position of the signboard is stored in advance as data. Then, the degree of attention to the signboard can be measured by combining the position information of the vehicle such as GPS and the result of external environment measurement using the camera with the driver's face and line-of-sight measurement results. When the measurement result is transmitted to the advertiser via the in-vehicle network or the like, the advertiser can immediately grasp the advertising effect of the signboard. Furthermore, in this configuration, instead of or in addition to the mode of investigating the advertising effect of the signboard, measure how much the driver of the car is paying attention to the signals and road signs, and depending on the result, warning Or control the vehicle (decelerate if the speed is exceeded).
[0049]
(4) The interest level estimation apparatus according to the present invention is linked with a car navigation system, a driver sets a destination (for example, a restaurant) using the car navigation system, and the car is around the destination (a visible distance). If the driver is looking at the destination when approaching (within range), and if he / she is not looking at the destination, he / she can make an approach to the destination by making a voice announcement. Good. In addition, assistance may be provided by running control to the automobile (such as overspeeding or decelerating when approaching the entrance) so as not to pass the destination.
[0050]
(5) In the above embodiment, the interest level is calculated based on the line-of-sight direction detected by the line-of-sight direction detection unit 101, but the present invention is not limited to this. Based on this, the gaze degree may be calculated. In this case, instead of the gaze direction detection unit 101, a face direction detection unit that detects the face direction in the passenger's space is provided, and the gaze point specification unit 103, the gaze degree calculation unit 104, the gaze object estimation unit 105, etc. The processing may be executed based on the “face direction” detected by the face direction detection unit instead of the “line-of-sight direction”. The face direction may be detected by detecting the face direction of the occupant using a technique for detecting the face direction shown in the paper adopted by the line-of-sight direction detection unit 101.
[0051]
【The invention's effect】
As described above, according to the present invention, the line of sight of the passenger of the boarding type mobile body and the current position in the space of the boarding type mobile body are detected, and based on the detected line of sight, the current position and the map, Knowing what object the passenger is interested in around the boarding type mobile object because the gaze point that the passenger gazes at is specified and the gaze degree of the passenger at the gaze point is calculated be able to.
[Brief description of the drawings]
FIG. 1 is an external view of a guide device when an interest level estimation device according to the present invention is applied to a guide device in a library such as a school.
FIG. 2 is a block diagram showing an electrical configuration of the interest level estimation device.
FIG. 3 is a flowchart showing processing of an interest level estimation device.
FIG. 4 is a diagram for explaining processing of a gazing point specifying unit;
FIG. 5 (a) is a diagram showing the degree of gaze when the passenger is gazing at the poster GP stuck on the wall, and FIG. 5 (b) is the figure when the occupant is gazing at the poster GP. It is the figure which showed the gaze degree when there is not.
FIG. 6 is a graph plotting the position with the highest gaze degree at each time (every 1/30 seconds), where (a) shows the case where the passenger is watching the poster GP, and (b) is the boarding This shows a case where the person is not watching the poster GP.
[Explanation of symbols]
100 processor
101 Gaze direction detection unit
102 Position detection unit
103 Gaze point identification part
104 Gaze degree calculator
105 Gaze object estimation unit
106 Travel controller
107 Audio output unit
200 storage unit
201 Map storage
202 Voice data storage unit
CP attention point
ED Gaze direction
SL1 Line of sight line
SL2 line of sight

Claims (6)

搭乗型移動体の搭乗者が周囲の物体のうちどの物体に関心を有しているかを推定する関心度推定装置であって、
前記搭乗型移動体が移動する空間内に配置された物体と当該物体の位置とが関連付けられた前記空間の地図を記憶する地図記憶手段と、
前記搭乗型移動体の前記空間内での現在位置を検出する位置検出手段と、
前記空間内における前記搭乗者の視線方向を検出する視線方向検出手段と、
前記位置検出手段によって検出された前記搭乗型移動体の現在位置と前記視線方向検出手段によって検出された視線方向と、前記視線方向上にある物体とを基に、搭乗者が注視している位置である注視点を特定し、当該注視点における注視の程度を示す注視度を算出する注視度算出手段とを備え
前記注視度算出手段は、前記搭乗者が同一箇所を注視した場合、時間が経過するにつれて注視度の値が減少する関数を用いて前記注視度を算出することを特徴とする関心度推定装置。
A degree-of-interest estimation device that estimates which of the surrounding objects a passenger of a boarding type mobile object is interested in,
Map storage means for storing a map of the space in which an object arranged in a space in which the boarding type moving body moves and a position of the object are associated;
Position detecting means for detecting a current position of the boarding type moving body in the space;
Gaze direction detection means for detecting the gaze direction of the passenger in the space;
The position where the passenger is gazing based on the current position of the riding type mobile body detected by the position detection means, the line-of-sight direction detected by the line-of-sight direction detection means, and the object in the line-of-sight direction And a gaze degree calculating means for calculating a gaze degree indicating a degree of gaze at the gaze point .
The gaze degree calculating means calculates the gaze degree using a function that decreases the value of the gaze degree as time passes when the passenger gazes at the same location .
前記注視度算出手段は、前記搭乗者の視野の中心から視野の周囲に向かうにつれて、前記視野内の各方向の注視点に対する注視度の値が低くなる関数を用いて前記注視度算出することを特徴とする請求項1記載の関心度推定装置。  The gaze degree calculating means calculates the gaze degree using a function that decreases a gaze degree value with respect to a gaze point in each direction in the field of view from the center of the passenger's field of view toward the periphery of the field of view. The degree-of-interest estimation apparatus according to claim 1. 前記関数は、距離が大きくなるにつれて注視度の値が小さくなる関数であることを特徴とする請求項記載の関心度推定装置。 3. The interest level estimation apparatus according to claim 2 , wherein the function is a function that decreases a gaze degree value as the distance increases. 前記搭乗者が注視する物体の位置の近傍に前記搭乗型移動体を移動させる走行制御手段をさらに備えることを特徴とする請求項1〜のいずれかに記載の関心度推定装置。The interest level estimation apparatus according to any one of claims 1 to 3 , further comprising travel control means for moving the riding type moving body in the vicinity of the position of the object that the passenger gazes at. 操作前記搭乗者が注視する物体に関連する情報を音声で報知する音声報知手段をさらに備えることを特徴とする請求項1〜のいずれかに記載の関心度推定装置。Operation The rider interest level estimation apparatus according to any one of claims 1 to 4, further comprising a voice informing means for informing a voice information related to an object to gaze. 搭乗型移動体の搭乗者が周囲の物体のうちどの物体に関心を有しているかを推定する関心度推定装置であって、
前記搭乗型移動体が移動する空間内に配置された物体と当該物体の位置とが関連付けられた前記空間の地図を記憶する地図記憶手段と、
前記搭乗型移動体の前記空間内での現在位置を検出する位置検出手段と、
前記空間内における前記搭乗者の顔方向を検出する顔方向検出手段と、
前記位置手段によって検出された前記搭乗型移動体の現在位置と前記顔方向検出手段によって検出された顔方向と、前記顔方向上にある物体とを基に、前記搭乗者が注視している位置である注視点を特定し、当該注視点における注視の程度を示す注視度を算出する注視度算出手段とを備え
前記注視度算出手段は、前記搭乗者が同一箇所を注視した場合、時間が経過するにつれて注視度の値が減少する関数を用いて前記注視度を算出することを特徴とする関心度推定装置。
A degree-of-interest estimation device that estimates which of the surrounding objects a passenger of a boarding type mobile object is interested in,
Map storage means for storing a map of the space in which an object arranged in a space in which the boarding type moving body moves and a position of the object are associated;
Position detecting means for detecting a current position of the boarding type moving body in the space;
Face direction detecting means for detecting the face direction of the passenger in the space;
The position where the passenger is gazing based on the current position of the riding type mobile body detected by the position means, the face direction detected by the face direction detection means, and the object on the face direction. And a gaze degree calculating means for calculating a gaze degree indicating a degree of gaze at the gaze point .
The gaze degree calculating means calculates the gaze degree using a function that decreases the value of the gaze degree as time passes when the passenger gazes at the same location .
JP2003174479A 2003-06-19 2003-06-19 Interest level estimation device Expired - Fee Related JP4328136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003174479A JP4328136B2 (en) 2003-06-19 2003-06-19 Interest level estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003174479A JP4328136B2 (en) 2003-06-19 2003-06-19 Interest level estimation device

Publications (2)

Publication Number Publication Date
JP2005006897A JP2005006897A (en) 2005-01-13
JP4328136B2 true JP4328136B2 (en) 2009-09-09

Family

ID=34097951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003174479A Expired - Fee Related JP4328136B2 (en) 2003-06-19 2003-06-19 Interest level estimation device

Country Status (1)

Country Link
JP (1) JP4328136B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4604597B2 (en) * 2004-07-30 2011-01-05 トヨタ自動車株式会社 State estimating device, state estimating method, information providing device using the same, information providing method
JP4742695B2 (en) * 2005-06-27 2011-08-10 トヨタ自動車株式会社 Gaze recognition apparatus and gaze recognition method
JP2007003448A (en) * 2005-06-27 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> Movement information generating device, movement information generating method, program, and storage medium
JP4969462B2 (en) * 2006-01-24 2012-07-04 本田技研工業株式会社 System and method for estimating attention area
JP5150942B2 (en) * 2006-02-03 2013-02-27 株式会社国際電気通信基礎技術研究所 Activity assistance system
JP5145569B2 (en) * 2007-12-19 2013-02-20 株式会社国際電気通信基礎技術研究所 Object identification method and apparatus
JP5089470B2 (en) * 2008-04-09 2012-12-05 本田技研工業株式会社 Interest level estimation apparatus and method
WO2010067221A1 (en) * 2008-12-09 2010-06-17 Koninklijke Philips Electronics N.V. Method and system for providing immersive effects
US8421782B2 (en) 2008-12-16 2013-04-16 Panasonic Corporation Information displaying apparatus and information displaying method
CN104699250B (en) 2015-03-31 2018-10-19 小米科技有限责任公司 Display control method and device, electronic equipment
JP7074221B2 (en) * 2021-02-26 2022-05-24 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program

Also Published As

Publication number Publication date
JP2005006897A (en) 2005-01-13

Similar Documents

Publication Publication Date Title
EP3232289B1 (en) Information presentation control method and autonomous vehicle, and autonomous-vehicle driving support system
US10242457B1 (en) Augmented reality passenger experience
US20170028995A1 (en) Vehicle control apparatus
US10509400B2 (en) Control system for and control method of autonomous driving vehicle
EP2687407B1 (en) Apparatus and method for localizing sound image for vehicle&#39;s driver
Fletcher et al. Vision in and out of vehicles
CN114641668A (en) Augmented reality way finding in car pooling applications
KR20200097815A (en) Using wheel orientation to determine future heading
JP4328136B2 (en) Interest level estimation device
JP7075822B2 (en) Map information update system
JP2013254409A (en) Careless driving detection device and program
US11694408B2 (en) Information processing device, information processing method, program, and movable object
EP3683668A1 (en) Vehicle display device
WO2021010083A1 (en) Information processing device, information processing method, and information processing program
JP2020024551A (en) Driving consciousness estimation device
JP6638348B2 (en) Mobile robot system
US11260856B2 (en) Information display device, information display method, and recording medium
JPH097100A (en) Driver&#39;s gaze point predicting device and vehicle drive support system using the same
JP2021049894A (en) Automatic operation system
CN114207685B (en) Autonomous vehicle interaction system
CN111605561B (en) System for interaction with autonomous vehicles
WO2020008876A1 (en) Information processing device, information processing method, program, and mobile body
JP2017194930A (en) Automatic operation control system for moving body
JP2020201647A (en) Vehicle display control device, vehicle display control method, and vehicle display control program
US20240246534A1 (en) Risk estimation system and vehicle control system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040928

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090609

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090612

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4328136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130619

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130619

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140619

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees