JP4328136B2 - Interest level estimation device - Google Patents
Interest level estimation device Download PDFInfo
- Publication number
- JP4328136B2 JP4328136B2 JP2003174479A JP2003174479A JP4328136B2 JP 4328136 B2 JP4328136 B2 JP 4328136B2 JP 2003174479 A JP2003174479 A JP 2003174479A JP 2003174479 A JP2003174479 A JP 2003174479A JP 4328136 B2 JP4328136 B2 JP 4328136B2
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- degree
- passenger
- line
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Navigation (AREA)
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、電動車椅子や自動車などの搭乗型移動体の搭乗者の視線を検出し、搭乗者の関心度を推定する技術に関する。
【0002】
【従来の技術】
人間の視線の動きは、人間の意図や注意と関係が深いことが知られている。近年、視線をキーボードやマウスの変わりの入力デバイスとして用いる研究が進められており、次世代ヒューマンインターフェイスとして注目されている。人間の視線は他のデバイスと比べて、例えば手を用いずに入力できる、すばやく移動させることができる、長時間用いても疲労が少ない等の利点を有している。
【0003】
【特許文献1】
特開平07−96768号公報
【特許文献2】
特開平11−139229号公報
【特許文献3】
特許3027786号公報
【0004】
【発明が解決しようとする課題】
ところで、電動車椅子などの搭乗型移動体の搭乗者は、移動したい場所に視線を向けて操縦するのが一般的である。そのため、視線に基づいて、搭乗者が現在どの物体に関心を有しているかを推定し、推定した物体の近傍に電動車椅子を移動させることも可能である。特に、手足が不自由な搭乗者にとって、かかる車椅子は有用である。
【0005】
本発明の目的は、搭乗者の視線に基づいて、搭乗者の注視の程度を示す注視度を算出し、搭乗者が関心を有している物体を推定する関心度推定装置を提供することである。
【0006】
【課題を解決するための手段】
本発明に係る関心度推定装置は、搭乗型移動体の搭乗者が周囲の物体のうちどの物体に関心を有しているかを推定する関心度推定装置であって、前記搭乗型移動体が移動する空間内に配置された物体と当該物体の位置とが関連付けられた前記空間の地図を記憶する地図記憶手段と、前記搭乗型移動体の前記空間内での現在位置を検出する位置検出手段と、前記空間内における前記搭乗者の視線方向を検出する視線方向検出手段と、前記位置検出手段によって検出された前記搭乗型移動体の現在位置と前記視線方向検出手段によって検出された視線方向と、前記視線方向上にある物体とを基に、搭乗者が注視している位置である注視点を特定し、当該注視点における注視の程度を示す注視度を算出する注視度算出手段とを備え、前記注視度算出手段は、前記搭乗者が同一箇所を注視した場合、時間が経過するにつれて注視度の値が減少する関数を用いて前記注視度を算出することを特徴とする。
【0007】
この構成によれば、搭乗型移動体の搭乗者の視線及び搭乗型移動体の空間内での現在位置が検出され、検出された視線、現在位置及び地図に基づいて、搭乗者が注視する注視点が特定されるとともに、当該注視点への搭乗者の注視度が算出されるため、搭乗者が搭乗型移動体の周囲のどの物体に関心を有しているかを推定することができる。
また、この構成によれば、同一箇所を注視した場合、その箇所に対する関心度は時間が経過するにつれて低くなるという人間の特性を加味して注視度が算出されるため、搭乗者が現在関心を有している物体をより正確に推定することができる。
【0008】
前記注視度算出手段は、前記搭乗者の視野の中心から視野の周囲に向かうにつれて、前記視野内の各方向に対する注視度の値が低くなる関数を用いて前記注視度算出することが好ましい。この構成によれば、視野の中心ほど関心が高いという人間の特性を加味して注視度が算出されるため、搭乗者が関心を有している物体をより正確に推定することができる。
【0010】
前記関数は、距離が大きくなるにつれて注視度の値が小さくなる関数であることが好ましい。この構成によれば、搭乗者は遠くの物体を見る場合、視野内には多くの物体が含まれるため、搭乗者が特定された注視点を注視している確率は低くなるが、搭乗者が近くの物体を見る場合、搭乗者が特定される注視点を注視している確率は高くなるという特性が加味されて注視度を算出することができる。
【0011】
前記搭乗者が注視する物体の位置の近傍に前記搭乗型移動体を移動させる走行制御手段をさらに備えることが好ましい。この構成によれば、搭乗者は、視線に基づいて、搭乗型移動体を操作することができる。
【0012】
操作前記搭乗者が注視する物体に関連する情報を音声で報知する音声報知手段をさらに備えることが好ましい。この構成によれば、搭乗者が目視している物体近傍に搭乗型移動体が移動するとともに、例えばその物体の説明など、目視している物体に関連する情報が音声によって搭乗者に報知されるため、搭乗型移動体を図書館や博物館などでのガイドロボットとして用いることができる。
【0013】
また、別の発明に係る関心度推定装置は、搭乗型移動体の搭乗者が周囲の物体のうちどの物体に関心を有しているかを推定する関心度推定装置であって、前記搭乗型移動体が移動する空間内に配置された物体と当該物体の位置とが関連付けられた前記空間の地図を記憶する地図記憶手段と、前記搭乗型移動体の前記空間内での現在位置を検出する位置検出手段と、前記空間内における前記搭乗者の顔方向を検出する顔方向検出手段と、前記位置手段によって検出された前記搭乗型移動体の現在位置と前記顔方向検出手段によって検出された顔方向と、前記顔方向上にある物体とを基に、前記搭乗者が注視している位置である注視点を特定し、当該注視点における注視の程度を示す注視度を算出する注視度算出手段とを備え、前記注視度算出手段は、前記搭乗者が同一箇所を注視した場合、時間が経過するにつれて注視度の値が減少する関数を用いて前記注視度を算出することを特徴とする。
【0014】
この構成によれば、搭乗型移動体の搭乗者の顔方向及び搭乗型移動体の空間内での現在位置が検出され、検出された顔方向、現在位置及び地図に基づいて、搭乗者が注視する注視点が特定されるとともに、当該注視点への搭乗者の注視度が算出されるため、搭乗者が搭乗型移動体の周囲のどの物体に関心を有しているかを推定することができる。
また、この構成によれば、同一箇所を注視した場合、その箇所に対する関心度は時間が経過するにつれて低くなるという人間の特性を加味して注視度が算出されるため、搭乗者が現在関心を有している物体をより正確に推定することができる。
【0015】
【発明の実施の形態】
図1は、本発明に係る関心度推定装置と電動車椅子1とを組み合わせ、学校等の図書室をガイドするガイド装置とした場合のそのガイド装置の外観図を示している。このガイド装置は、電動車椅子(搭乗型移動体)1と、搭乗者の操作指令に基づいて電動車椅子1の走行制御等を行なう関心度推定装置とから構成され、図書室内を移動し、搭乗者が目視する本やポスターなどの物体に関連する情報を搭乗者に音声で報知等する装置である。電動車椅子1は、電動車椅子1の搭乗者が座る椅子11と椅子11の下部に配設された駆動部12と、椅子11の手前に配設されたテーブル13と、椅子11の左右両側に配設された肘かけ14とを備えている。駆動部12は、電動車椅子1の動力源としての電動モータ(図略)と、ガイド装置を構成する種々の装置に電力を供給するバッテリー(図略)と、電動モータの駆動力に基づいて回転する一対の車輪15と、電動モータのトルクを車輪15に伝達するギア(図略)等から構成されている。椅子11の背もたれ部分の上部には、背後から電動車椅子1を前方に移動させる際に用いる取っ手16が配設されている。さらに車輪15の前側及び後側には、電動車椅子1の走行を安定させるための一対の補助車輪17が取り付けられている。
【0016】
椅子11の下側であって、駆動部12の手前位置には、電動車椅子1の現在位置を検出するためのレーザレンジファインダ2が配設されている。テーブル13の上部には、関心度推定装置を制御するためのコンピュータ3及び電動車椅子1の搭乗者の顔画像を撮影する2台のカメラ4が配設されている。駆動部12、レーザレンジファインダ2及びコンピュータ3により関心度推定装置が構成される。
【0017】
レーザレンジファインダ(laser range finder:LRF)2は距離計測装置の一種であり、前方180度の範囲内において、所定角度、例えば0.5度刻みで放射線状にレーザ光を照射し、レーザ光の反射光の強度を各角度毎に測定することにより、手前に位置する物体(障害物)と電動車椅子1との距離を測定する。本実施形態では、SICK社製LMS200が用いられており、測定可能範囲は80mであり、測定分解能は10mmである。
【0018】
コンピュータ3は、一般に市販されているノート型パソコンであり、CPU(中央演算装置)と、BIOS等を記憶するROM(リードオンリーメモリ)と、CPUの作業領域として用いられるRAM(ランダムアクセスメモリ)と、OS等のプログラムや種々のデータを記憶するハードディスクと、搭乗者の操作指令を受け付けCPUに出力するキーボード及びポインティングデバイスと、CPUの制御に基づいて種々のデータを画像として表示する液晶表示パネル等を備える。カメラ4を構成する2台のカメラはそれぞれカラー動画像を撮影する一般的なカメラである。
【0019】
図2は、関心度推定装置の電気的な構成を示したブロック図である。関心度推定装置は、処理部100及び記憶部200を備えている。記憶部200は、例えばハードディスクから構成され、地図記憶部201及び音声データ記憶部202を備えている。
【0020】
地図記憶部201は、本棚、図書室内の壁、壁に貼られたポスター等の物体及びガイド装置が走行可能な通路等の位置を示す地図を記憶している。この地図は、図書室を上から見た平面的な地図である。また、地図記憶部201は、各本棚について、その本棚がどのようなジャンルの書籍を主に収納している本棚であるかを示すジャンル情報を記憶している。
【0021】
音声データ記憶部202は、ジャンル情報毎に用意された音声データを記憶している。
【0022】
処理部100は、CPUがコンピュータ3を関心度推定装置の制御部として機能させるためのプログラムを実行することにより実現され、視線方向検出部101、位置検出部102、注視点特定部103、注視度算出部104、注視物体推定部105、走行制御部106及び音声出力部107を備えている。
【0023】
視線方向検出部101は、カメラ4で取得された搭乗者の顔の動画像を対し、例えば、論文(論文タイトル“顔・視線計測システムの開発と動作認識への応用”松本吉央、AlexanderZelinsky、小笠原司;ロボティクスシンポジア2003年)で示した処理を適用することによりガイド装置に対する搭乗者の視線方向を検出する。ここで、ガイド装置に対する視線方向とは、ガイド装置の進行方向に対する視線方向のことであり、ガイド装置の進行方向と搭乗者の視線方向とでなす角度によって特定される方向である。
【0024】
位置検出部102は、レーザレンジファインダ2の測定データと図書室の地図とに対し、例えばWeissのマッチング手法(論文タイトル“Keeping Track of Position and Orientation of Moving Indoor Systems by Correlation of Range-Finder Scans"(IROS'94,pp595-601著者G.Weiss,C.Wetzler,and E.V.Puttkamer)を適用することにより、ガイド装置の図書室での現在位置及び向きを特定する。ここで、ガイド装置の向きは、図書室の所定の基準方向(例えば北の方向)に対するガイド装置の進行方向のことであり、基準方向とガイド装置の進行方向とでなす角度によって特定される方向である。なお、位置検出部102は、GPS(global positioning system)を用いてガイド装置の現在位置を検出してもよい。
【0025】
注視点特定部103は、視線方向検出部101によって検出された視線方向とガイド装置の向きとによって特定される上記基準方向を基準としたときの視線方向(絶対視線方向)を特定し、現在位置から絶対視線方向に向けて引いた直線(視線直線)と視線直線上であって現在位置に最も近い場所に位置する物体との地図上の交点を求め、注視点として特定する。また、注視点特定部103は、視線方向を中心とする扇状の視野領域内において、現在位置から放射状に複数の直線(視野直線)を引き、各視野直線と各視野直線上であって現在位置に最も近い場所に位置する物体との地図上の交点を求め、これらの交点も注視点として特定する。なお、注視点は所定の周期Δt(例えば1/30秒)毎に特定される。
【0026】
注視度算出部104は、各注視点に対して、式(1)〜式(3)のいずれか1つの式を適用することにより各注視点の注視度を算出する。
Wi(t)=αWi(t−Δt)+1/L (|θ|≦5°)・・・式(1)
Wi(t)=αWi(t−Δt)+0.5/L (5°<|θ|≦10°)・・・式(2)
Wi(t)=αWi(t−Δt) (|θ|>10°)・・・式(3)
Wi(t):時刻tにおける注視点iの注視度
L:注視点iと現在位置との距離
α:注視度の減衰率
θ:視線直線に対する視野直線の角度
Δt:注視度を算出する周期
【0027】
Wi(t―Δt)は、注視点iにおけるΔt時間前の注視度を示しており、Wi(t−Δt)に減衰率α(0<α<1)を乗算しているため、時間が経過するにつれて、注視点iにおける注視度は減衰していく。その結果、同一箇所を注視した場合、その箇所における関心度は時間が経過するにつれて低くなるという特性が上記式(1)〜(3)には加味されている。
【0028】
注視物体推定部105は、注視度の値が最も大きな注視点を特定し、特定した注視点における注視度が所定の閾値よりも大きい場合、この注視点に位置する物体を搭乗者が関心を示している物体として推定する。
【0029】
走行制御部106は、ガイド装置の現在位置から注視物体推定部105によって推定された物体近傍の位置までガイド装置を走行するようにガイド装置の走行制御を行う。例えば、物体近傍の位置に近づくにつれて速度を低下させていき、物体近傍の位置で停止させるというようなガイド装置の走行制御を行う。
【0030】
音声出力部107は、注視物体推定部105によって推定された物体が本棚である場合、ガイド装置がその本棚の近傍の位置に到着乃至は所定の距離範囲内に近づいたとき、その本棚のジャンル情報に対応する音声データを音声データ記憶部202から読み出し、読み出した音声データを音声信号に変換してスピーカ5に出力する。
【0031】
なお、本実施形態では、カメラ4及び視線方向検出部101が視線方向検出手段の一例に相当し、レーザレンジファインダ2及び位置検出部102が位置検出手段の一例に相当し、地図記憶部201が地図記憶手段に相当し、注視点特定部103及び注視度算出部104が注視度算出手段に相当に相当する。
【0032】
次に、本関心度推定装置の処理について説明する。図3は、本関心度推定装置の処理を示すフローチャートである。ステップS1において、視線方向検出部101は、カメラ4によって取得された搭乗者の顔画像から搭乗者の視線方向を検出する。
【0033】
ステップS2において、位置検出部102は、レーザレンジファインダ2の測定データから、ガイド装置の図書室内での現在位置を検出する。
【0034】
ステップS3において、注視点特定部103は、ステップS1で検出された搭乗者の視線方向及びステップS2で検出されたガイド装置の現在位置から、視線直線に対する注視点と、視野直線に対する注視点とを特定する。図4(a)は、図書室において、搭乗者が現在位置PPから壁WLを注視している状態を模式的に示した図であり、(a)は立体図を示し(b)は平面図(地図)を示している。また、(a)において、X−Y平面は地面を表し、Z軸は高さ方向を示している。
【0035】
注視点特定部103は、まず、ステップS1で検出された視線方向から図書室の基準方向に対する搭乗者の視線方向である絶対視線方向SDを特定するとともに、ステップS2で検出された図書室でのガイド装置の現在位置から地図上におけるガイド装置の現在位置PPを特定する。次に、特定した現在位置PPから絶対視線方向SDに引いた視線直線SL1と壁WLとの地図上の交点を求め、この交点を注視点CPとして特定する。
【0036】
さらに、注視点特定部103は、現在位置PPから視線直線を中心として複数の視野直線SL2を引き、各視野直線SL2と、壁WLとの地図上の交点を求め、これらの交点も注視点CPとして特定する。
【0037】
ステップS4において、注視度算出部104は、ステップS3で特定された各注視点CPに対し、上記式(1)〜(3)のいずれかを適用することにより、各注視点CPの注視度を算出する。本実施形態では、視線直線SL1と視野直線SL2との角度をθとしたとき、|θ|≦5°の範囲内にある視野直線SL2に対応する注視点CPに対しては式(1)を用いて注視度を算出し、5°<|θ|≦10°の範囲内にある視野直線SL2に対応する注視点CPに対しては式(2)を用いて注視度を算出し、|θ|>10°の範囲内にある視野直線SL2に対しては、式(3)を用いて注視度を算出している。そのため、各注視点CPの注視度は、図4のブロック状の図形で示すように、搭乗者の視野の中心ほど注視度の値が大きくなり、視野の中心から離れるにつれて注視度の値が小さくなる。その結果、搭乗者の関心度は、視野の中心ほど高いという特性を加味して注視度を算出することができる。さらに、式(1)、(2)の第2項の分母がLであるため、注視点CPと現在位置PPとの距離が近いほどその注視点の注視度は大きくなる。
【0038】
ステップS5において、注視度が最大の注視点CPの注視度が閾値よりも大きい場合(ステップS5でYES)、注視物体推定部105は、当該注視点CPに位置する物体を搭乗者が関心を有している物体として推定する。一方、注視度が最大の注視点CPの注視度が閾値よりも小さい場合(ステップS5でNO)、ステップS1に戻る。
【0039】
図5(a)は、搭乗者が壁に貼ってあるポスターGPを注視しているときの注視度を示した図であり、(b)は搭乗者がポスターGPを注視していないときの注視度を示した図である。図5(a)、(b)において、各線分は、図書室内の壁WLを示し、四角はガイド装置の現在位置PPを示し、短い矢印は、ガイド装置の正面方向FDを示し、長い矢印は視線方向EDを示し、山状の点の集合体は、注視点の注視度の大きさであり、壁WLと直交する方向への集合体の高さにより、その位置での注視度の大きさを表している。
【0040】
図5(a)では、搭乗者はポスターGPを注視しているため、ポスターGP周囲の注視度が大きくなっていることが分かる。一方、図5(b)では、搭乗者はポスターGPを注視していないため、注視度の小さな注視点が分散して存在していることが分かる。
【0041】
図6は、各時刻(1/30秒毎)において注視度が最大の位置をプロットしたグラフであり、(a)は搭乗者がポスターGPを注視している場合を示し、(b)は搭乗者がポスターGPを注視していない場合を示している。(a)、(b)両グラフとも、縦軸は注視度が最大の位置のXの値及びY座標の値とその注視点に対応する注視度とを示し、横軸は時間を示し、実線がX座標のグラフを示し、破線がY座標のグラフを示し、一点破線が注視度のグラフを示している。図6(a)に示すように、搭乗者がポスターGPを注視している場合は、時間の経過に伴って、注視度が最大の位置のX及びY座標の値がほぼ一定であることが分かる。一方、図6(b)に示すように、搭乗者がポスターGPを注視していない場合、時間の経過に伴って注視度が最大の位置のX及びY座標の値が大きく変化するとともに、注視度の値が低いことが分かる。この結果が示すように、搭乗者がある物体に注視している場合と注視していない場合とでは、その注視度の大きさ及び注視点の分散の仕方が顕著に相違するため、搭乗者の視線に基づいて、搭乗者の現在どの物体に関心を有しているかを推定することが可能となる。
【0042】
ステップS6において、走行制御部106は、ステップS5において特定された搭乗者が注視する物体の近傍の位置にガイド装置を移動させる。搭乗者が注視する物体が本棚である場合(ステップS7でYES)、音声出力部107は、搭乗者が注視する物体の近傍の位置にガイド装置が到着したとき、その本棚のジャンル情報に対応する音声データを音声データ記憶部202から読出し、スピーカ5に出力し、搭乗者にその本棚のジャンルを報知する。
【0043】
ステップS9において、例えばガイド装置の主電源がオフされると(ステップS9でYES)、処理を終了し、主電源がオフされていない場合は(ステップS9でNO)、ステップS1に戻り、処理を続行する。
【0044】
以上説明したように、本実施形態に係る関心度推定装置によれば、視線に基づいて、搭乗者の注視度が算出されているため、搭乗者の周囲のどの物体に関心を持っているかを知ることができる。
【0045】
なお、本発明は以下の態様を採ることができる。
【0046】
(1)上記実施形態では、搭乗者が注視している物体の近傍にガイド装置を走行させる態様を示したが、これに限定されず、走行制御は、直接、搭乗者がガイド装置を操縦することにより行ない、音声による報知のみを注視度に基づいて行なってもよい。また、本棚のジャンルを音声で報知する態様を示したが、これに限定されず、例えばポスターを注視している場合は、そのポスターの内容等を説明する音声を報知する等、搭乗者が注視する物体に応じた音声を報知させてもよい。この場合、物体の種類に応じた音声データを音声データ記憶部202に予め記憶させておき、音声出力部107は、搭乗者が物体を注視したとき、その物体に対応する音声データを読出し、当該音声データから得られる音声信号をスピーカ5に出力すればよい。
【0047】
(2)上記実施形態では、ガイド装置は図書室を移動するものであったが、これに限定されず、例えば、美術館、博物館等を移動するものであってもよい。この場合、展示物毎の音声データを音声データ記憶部202に予め記憶させておき、音声出力部107は、搭乗者が展示物を注視したときに、その展示物に対応する音声データを読出し、スピーカ5に当該音声データから得られる音声信号を出力すればよい。
【0048】
(3)自動車の運転手が街中にある看板をどれだけ注目しているかを上記注視度を基に測定し、看板の広告効果を調査する広告度調査システムに本関心度推定装置を適用させてもよい。この場合、看板の位置の情報は予めデータとしてもっておく。そして、GPSなどの車の位置情報や、カメラを用いた外部環境計測の結果と運転手の顔、視線計測結果を合わせることにより、看板への注目度を測定することができる。そして、測定結果を、車載ネットワーク等を介して広告主に送信させるようにすると、広告主は、即座に看板の宣伝効果を把握することができる。さらに、この構成において、看板の宣伝効果を調査する態様に代えて又は加えて、自動車の運転手が信号や道路標識に対してどれだけ注目しているかを測定し、その結果に応じて、警告を与えたり、車への制御(速度超過の場合、減速する等)させてもよい。
【0049】
(4)本発明に係る関心度推定装置をカーナビゲーションシステムと連携させ、運転者がカーナビゲーションシステムで目的地(例えば、レストラン等)を設定し、自動車がその目的地の周辺(目視可能な距離範囲内)に近づいたとき、その目的地を運転手が見ているかどうかを検出し、その目的地を見ていない場合は、音声でアナウンスすることにより目的地に近づくように支援を行なってもよい。また、目的地を通りすぎないように、自動車への走行制御(速度超過や入り口が近づいた場合減速する等)により支援を行なってもよい。
【0050】
(5)上記実施形態では、視線方向検出部101によって検出された視線方向に基づいて関心度の算出等をおこなっているが、これに限定されず、搭乗者の顔方向を検出し、これを基に注視度の算出等を行ってもよい。この場合、視線方向検出部101に代えて、搭乗者の空間上での顔方向を検出する顔方向検出部を設け、注視点特定部103、注視度算出部104及び注視物体推定部105等は、「視線方向」に代えて顔方向検出部が検出した「顔方向」を基にそれぞれ処理を実行すればよい。なお、顔方向の検出は、上記視線方向検出部101が採用する論文中に示された顔方向を検出する技術を用いて搭乗者の顔方向を検出すればよい。
【0051】
【発明の効果】
以上説明したように、本発明によれば、搭乗型移動体の搭乗者の視線及び搭乗型移動体の空間内での現在位置が検出され、検出された視線、現在位置及び地図に基づいて、搭乗者が注視する注視点が特定されるとともに、当該注視点への搭乗者の注視度が算出されるため、搭乗者が搭乗型移動体の周囲のどの物体に関心を有しているかを知ることができる。
【図面の簡単な説明】
【図1】 本発明に係る関心度推定装置を学校等の図書室のガイド装置に適用した場合のガイド装置の外観図を示している。
【図2】 関心度推定装置の電気的な構成を示したブロック図である。
【図3】 関心度推定装置の処理を示すフローチャートである。
【図4】 注視点特定部の処理を説明するための図である。
【図5】 図5(a)は、搭乗者が壁に貼ってあるポスターGPを注視しているときの注視度を示した図であり、(b)は搭乗者がポスターGPを注視していないときの注視度を示した図である。
【図6】 各時刻(1/30秒毎)において注視度が最大の位置をプロットしたグラフであり、(a)は搭乗者がポスターGPを注視している場合を示し、(b)は搭乗者がポスターGPを注視していない場合を示している。
【符号の説明】
100 処理部
101 視線方向検出部
102 位置検出部
103 注視点特定部
104 注視度算出部
105 注視物体推定部
106 走行制御部
107 音声出力部
200 記憶部
201 地図記憶部
202 音声データ記憶部
CP 注視点
ED 視線方向
SL1 視線直線
SL2 視野直線[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for detecting the line of sight of a passenger of a boarding type mobile body such as an electric wheelchair or an automobile and estimating the degree of interest of the passenger.
[0002]
[Prior art]
It is known that the movement of human gaze is closely related to human intention and attention. In recent years, research using the line of sight as an input device instead of a keyboard or a mouse has been advanced, and has attracted attention as a next-generation human interface. Compared with other devices, human eyes have advantages such as being able to input without using hands, being able to move quickly, and having less fatigue even when used for a long time.
[0003]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 07-96768
[Patent Document 2]
JP 11-139229 A
[Patent Document 3]
Japanese Patent No. 3027786
[0004]
[Problems to be solved by the invention]
By the way, a passenger of a boarding type moving body such as an electric wheelchair is generally steered with a line of sight toward a place where he / she wants to move. Therefore, based on the line of sight, it is possible to estimate which object the passenger is currently interested in and move the electric wheelchair to the vicinity of the estimated object. Such a wheelchair is particularly useful for passengers who are handicapped.
[0005]
An object of the present invention is to provide a degree-of-interest estimation device that calculates a gaze degree indicating a degree of gaze of a passenger based on the line of sight of the passenger and estimates an object that the passenger is interested in. is there.
[0006]
[Means for Solving the Problems]
An interest level estimation apparatus according to the present invention is an interest level estimation apparatus that estimates which of the surrounding objects a passenger of a boarding type mobile body is interested in, wherein the boarding type mobile body moves Map storage means for storing a map of the space in which the object arranged in the space to be associated with the position of the object, and position detection means for detecting the current position of the boarding type mobile body in the space; A gaze direction detecting means for detecting a gaze direction of the passenger in the space, a current position of the boarding type moving body detected by the position detecting means, and a gaze direction detected by the gaze direction detecting means, Gaze degree calculating means for identifying a gaze point that is a position where the passenger is gaze based on the object in the gaze direction and calculating a gaze degree indicating the degree of gaze at the gaze point.The gaze degree calculation means calculates the gaze degree using a function that decreases the gaze degree value as time passes when the passenger gazes at the same location.It is characterized by that.
[0007]
According to this configuration, the line of sight of the passenger of the boarding type mobile body and the current position in the space of the boarding type mobile body are detected, and the passenger pays attention based on the detected line of sight, the current position, and the map. Since the viewpoint is specified and the gazing degree of the occupant to the gazing point is calculated, it is possible to estimate which object around the boarding type moving body the occupant is interested in.
Further, according to this configuration, when attention is paid to the same part, the degree of interest in the part is calculated taking into account the human characteristic that the degree of interest decreases with time. The held object can be estimated more accurately.
[0008]
It is preferable that the gaze degree calculation means calculates the gaze degree using a function that decreases a gaze degree value in each direction in the field of view from the center of the passenger's field of view toward the periphery of the field of view. According to this configuration, since the gaze degree is calculated in consideration of the human characteristic that the center of the visual field is more interested, the object that the passenger is interested in can be estimated more accurately.
[0010]
The function is preferably a function that decreases the value of gaze degree as the distance increases. According to this configuration, when the occupant looks at a distant object, since many objects are included in the field of view, the probability that the occupant is gazing at the specified gazing point is low. When looking at a nearby object, the gaze degree can be calculated in consideration of the characteristic that the probability that the occupant is gazing at the gazing point specified is high.
[0011]
It is preferable that the vehicle further includes a traveling control unit that moves the riding type moving body in the vicinity of the position of the object that the passenger gazes at. According to this configuration, the passenger can operate the boarding type moving body based on the line of sight.
[0012]
Operation It is preferable to further include voice notification means for notifying information related to the object that the passenger gazes by voice. According to this configuration, the boarding-type moving body moves in the vicinity of the object that the passenger is viewing, and information related to the object that is being viewed, such as a description of the object, is notified to the passenger by voice. Therefore, the boarding type mobile body can be used as a guide robot in a library or a museum.
[0013]
Further, the interest level estimation device according to another invention is an interest level estimation device for estimating which of the surrounding objects a passenger of the boarding type mobile body is interested in, the boarding type movement Map storage means for storing a map of the space in which an object arranged in the space in which the body moves and the position of the object are associated with each other, and a position for detecting the current position of the boarding type moving body in the space Detecting means; face direction detecting means for detecting the face direction of the occupant in the space; current position of the riding type moving body detected by the position means; and face direction detected by the face direction detecting means And a gaze degree calculating means for identifying a gaze point that is a position where the passenger is gaze based on the object in the face direction and calculating a gaze degree indicating a degree of gaze at the gaze point WithThe gaze degree calculation means calculates the gaze degree by using a function that decreases the gaze degree value as time passes when the passenger gazes at the same location.It is characterized by that.
[0014]
According to this configuration, the face direction of the passenger of the boarding type mobile body and the current position in the space of the boarding type mobile body are detected, and the passenger gazes based on the detected face direction, the current position, and the map. Since the gazing point to be identified is specified and the gazing degree of the passenger to the gazing point is calculated, it is possible to estimate which object around the boarding type moving body the passenger is interested in .
Further, according to this configuration, when attention is paid to the same part, the degree of interest in the part is calculated taking into account the human characteristic that the degree of interest decreases with time. The held object can be estimated more accurately.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows an external view of a guide device when the interest degree estimation device according to the present invention and the
[0016]
A
[0017]
A laser range finder (LRF) 2 is a kind of distance measuring device, and irradiates laser light in a radial manner at a predetermined angle, for example, in 0.5 degree increments within a range of 180 degrees forward. By measuring the intensity of the reflected light for each angle, the distance between the object (obstacle) located in front and the
[0018]
The computer 3 is a commercially available notebook personal computer, a CPU (Central Processing Unit), a ROM (Read Only Memory) for storing BIOS and the like, and a RAM (Random Access Memory) used as a work area for the CPU. A hard disk that stores programs such as an OS and various data, a keyboard and pointing device that receives a passenger's operation command and outputs it to the CPU, a liquid crystal display panel that displays various data as images based on the control of the CPU, and the like Is provided. The two cameras constituting the camera 4 are general cameras that capture color moving images.
[0019]
FIG. 2 is a block diagram showing an electrical configuration of the interest level estimation apparatus. The interest level estimation device includes a
[0020]
The
[0021]
The audio
[0022]
The
[0023]
The gaze
[0024]
The
[0025]
The gazing
[0026]
The gaze degree calculation unit 104 calculates the gaze degree of each gaze point by applying any one of formulas (1) to (3) to each gaze point.
Wi (t) = αWi (t−Δt) + 1 / L (| θ | ≦ 5 °) Expression (1)
Wi (t) = αWi (t−Δt) + 0.5 / L (5 ° <| θ | ≦ 10 °) (2)
Wi (t) = αWi (t−Δt) (| θ |> 10 °) Expression (3)
Wi (t): gaze degree of gaze point i at time t
L: Distance between the gazing point i and the current position
α: Gaze attenuation rate
θ: Angle of the visual line relative to the line of sight
Δt: Period for calculating the gaze degree
[0027]
Wi (t−Δt) indicates the gaze degree before Δt time at the gazing point i, and Wi (t−Δt) is multiplied by the attenuation rate α (0 <α <1), so that time has elapsed. As it goes on, the gaze degree at the gaze point i decreases. As a result, when attention is paid to the same location, the above formulas (1) to (3) take into account the characteristic that the degree of interest at that location decreases with time.
[0028]
The gaze object estimation unit 105 identifies a gaze point with the largest gaze degree value, and when the gaze degree at the identified gaze point is greater than a predetermined threshold, the occupant is interested in the object located at the gaze point. As a moving object.
[0029]
The travel control unit 106 performs travel control of the guide device so that the guide device travels from the current position of the guide device to a position near the object estimated by the gaze object estimation unit 105. For example, the travel control of the guide device is performed such that the speed is decreased as the position near the object is approached, and the vehicle is stopped at the position near the object.
[0030]
When the object estimated by the gaze object estimation unit 105 is a bookshelf, the audio output unit 107 is a genre information of the bookshelf when the guide device arrives at a position near the bookshelf or approaches a predetermined distance range. Is read from the audio
[0031]
In this embodiment, the camera 4 and the line-of-sight
[0032]
Next, the process of this interest level estimation apparatus is demonstrated. FIG. 3 is a flowchart showing processing of the interest level estimation apparatus. In step S <b> 1, the line-of-sight
[0033]
In step S <b> 2, the
[0034]
In step S3, the gazing
[0035]
The gaze
[0036]
Furthermore, the gazing
[0037]
In step S4, the gaze degree calculation unit 104 applies the gaze degree of each gaze point CP by applying any of the above formulas (1) to (3) to each gaze point CP specified in step S3. calculate. In the present embodiment, when the angle between the line of sight SL1 and the line of sight SL2 is θ, Equation (1) is applied to the gazing point CP corresponding to the line of sight SL2 within the range of | θ | ≦ 5 °. Is used to calculate the gaze degree, and for the gazing point CP corresponding to the visual line SL2 within the range of 5 ° <| θ | ≦ 10 °, the gaze degree is calculated using Equation (2), and | θ For the visual field straight line SL2 within the range of |> 10 °, the gaze degree is calculated using Expression (3). Therefore, as shown by the block-shaped figure in FIG. 4, the gaze degree of each gazing point CP increases toward the center of the passenger's field of view, and decreases as the distance from the center of the field of view increases. Become. As a result, the gaze degree can be calculated in consideration of the characteristic that the degree of interest of the passenger is higher at the center of the visual field. Further, since the denominator of the second term of the expressions (1) and (2) is L, the closer the distance between the gazing point CP and the current position PP is, the larger the gazing degree of the gazing point is.
[0038]
In step S5, when the gazing degree of the gazing point CP having the largest gazing degree is larger than the threshold value (YES in step S5), the gazing object estimation unit 105 is interested in the object located at the gazing point CP. Estimated as a moving object. On the other hand, when the gaze degree of the gazing point CP having the maximum gaze degree is smaller than the threshold (NO in step S5), the process returns to step S1.
[0039]
FIG. 5A is a diagram showing the degree of gazing when the passenger is gazing at the poster GP stuck on the wall, and FIG. 5B is the gazing when the occupant is not gazing at the poster GP. It is the figure which showed the degree. 5 (a) and 5 (b), each line segment indicates the wall WL in the library room, the square indicates the current position PP of the guide device, the short arrow indicates the front direction FD of the guide device, and the long arrow indicates The aggregate of mountain-shaped points indicating the line-of-sight direction ED is the magnitude of the gaze degree of the gazing point, and the magnitude of the gaze degree at that position depending on the height of the aggregate in the direction perpendicular to the wall WL Represents.
[0040]
In FIG. 5A, since the passenger is gazing at the poster GP, it can be seen that the degree of gazing around the poster GP is increased. On the other hand, in FIG. 5B, since the passenger is not gazing at the poster GP, it can be seen that gazing points with small gaze degrees exist in a dispersed manner.
[0041]
FIG. 6 is a graph in which the position with the highest gaze degree is plotted at each time (every 1/30 seconds), (a) shows the case where the passenger is watching the poster GP, (b) is the boarding This shows a case where the person is not watching the poster GP. In both graphs (a) and (b), the vertical axis indicates the X value and Y coordinate value of the position where the gaze degree is maximum and the gaze degree corresponding to the gaze point, the horizontal axis indicates time, and the solid line Indicates a graph of X coordinate, a broken line indicates a graph of Y coordinate, and a dashed line indicates a graph of gaze degree. As shown in FIG. 6A, when the passenger is gazing at the poster GP, the values of the X and Y coordinates at the position where the gazing degree is maximum may be substantially constant as time elapses. I understand. On the other hand, as shown in FIG. 6B, when the occupant is not gazing at the poster GP, the X and Y coordinate values at the position where the gazing degree is maximum change greatly with time, and the gazing is performed. It can be seen that the degree value is low. As shown in this result, the size of the gaze degree and the way the gaze points are distributed differ significantly between when the passenger is gazing at an object and when it is not gazing. Based on the line of sight, it is possible to estimate which object the passenger is currently interested in.
[0042]
In step S6, the traveling control unit 106 moves the guide device to a position in the vicinity of the object that the passenger identified in step S5 is gazing at. When the object watched by the passenger is a bookshelf (YES in step S7), the audio output unit 107 responds to the genre information of the book shelf when the guide device arrives at a position near the object watched by the passenger. Audio data is read from the audio
[0043]
In step S9, for example, when the main power of the guide device is turned off (YES in step S9), the process is terminated. If the main power is not turned off (NO in step S9), the process returns to step S1 and the process is performed. continue.
[0044]
As described above, according to the degree-of-interest estimation apparatus according to the present embodiment, since the gaze degree of the passenger is calculated based on the line of sight, it is possible to determine which object around the passenger is interested. I can know.
[0045]
In addition, this invention can take the following aspects.
[0046]
(1) In the above-described embodiment, the mode in which the guide device is caused to travel in the vicinity of the object being watched by the occupant is shown, but the present invention is not limited to this, and the occupant directly steers the guide device. In this case, only voice notification may be performed based on the gaze degree. Moreover, although the aspect which announces the genre of a bookshelf with a voice was shown, it is not limited to this, for example, when a poster is watched, the passenger pays attention, such as notifying the voice explaining the contents of the poster, etc. A sound corresponding to the object to be performed may be notified. In this case, audio data corresponding to the type of the object is stored in the audio
[0047]
(2) In the above embodiment, the guide device moves in the library room, but is not limited to this, and may move in, for example, an art museum or a museum. In this case, audio data for each exhibit is stored in the audio
[0048]
(3) The interest level estimation device is applied to an advertising degree survey system that measures how much a car driver is paying attention to a signboard in the city based on the above gaze degree and investigates the advertising effect of the signboard. Also good. In this case, information on the position of the signboard is stored in advance as data. Then, the degree of attention to the signboard can be measured by combining the position information of the vehicle such as GPS and the result of external environment measurement using the camera with the driver's face and line-of-sight measurement results. When the measurement result is transmitted to the advertiser via the in-vehicle network or the like, the advertiser can immediately grasp the advertising effect of the signboard. Furthermore, in this configuration, instead of or in addition to the mode of investigating the advertising effect of the signboard, measure how much the driver of the car is paying attention to the signals and road signs, and depending on the result, warning Or control the vehicle (decelerate if the speed is exceeded).
[0049]
(4) The interest level estimation apparatus according to the present invention is linked with a car navigation system, a driver sets a destination (for example, a restaurant) using the car navigation system, and the car is around the destination (a visible distance). If the driver is looking at the destination when approaching (within range), and if he / she is not looking at the destination, he / she can make an approach to the destination by making a voice announcement. Good. In addition, assistance may be provided by running control to the automobile (such as overspeeding or decelerating when approaching the entrance) so as not to pass the destination.
[0050]
(5) In the above embodiment, the interest level is calculated based on the line-of-sight direction detected by the line-of-sight
[0051]
【The invention's effect】
As described above, according to the present invention, the line of sight of the passenger of the boarding type mobile body and the current position in the space of the boarding type mobile body are detected, and based on the detected line of sight, the current position and the map, Knowing what object the passenger is interested in around the boarding type mobile object because the gaze point that the passenger gazes at is specified and the gaze degree of the passenger at the gaze point is calculated be able to.
[Brief description of the drawings]
FIG. 1 is an external view of a guide device when an interest level estimation device according to the present invention is applied to a guide device in a library such as a school.
FIG. 2 is a block diagram showing an electrical configuration of the interest level estimation device.
FIG. 3 is a flowchart showing processing of an interest level estimation device.
FIG. 4 is a diagram for explaining processing of a gazing point specifying unit;
FIG. 5 (a) is a diagram showing the degree of gaze when the passenger is gazing at the poster GP stuck on the wall, and FIG. 5 (b) is the figure when the occupant is gazing at the poster GP. It is the figure which showed the gaze degree when there is not.
FIG. 6 is a graph plotting the position with the highest gaze degree at each time (every 1/30 seconds), where (a) shows the case where the passenger is watching the poster GP, and (b) is the boarding This shows a case where the person is not watching the poster GP.
[Explanation of symbols]
100 processor
101 Gaze direction detection unit
102 Position detection unit
103 Gaze point identification part
104 Gaze degree calculator
105 Gaze object estimation unit
106 Travel controller
107 Audio output unit
200 storage unit
201 Map storage
202 Voice data storage unit
CP attention point
ED Gaze direction
SL1 Line of sight line
SL2 line of sight
Claims (6)
前記搭乗型移動体が移動する空間内に配置された物体と当該物体の位置とが関連付けられた前記空間の地図を記憶する地図記憶手段と、
前記搭乗型移動体の前記空間内での現在位置を検出する位置検出手段と、
前記空間内における前記搭乗者の視線方向を検出する視線方向検出手段と、
前記位置検出手段によって検出された前記搭乗型移動体の現在位置と前記視線方向検出手段によって検出された視線方向と、前記視線方向上にある物体とを基に、搭乗者が注視している位置である注視点を特定し、当該注視点における注視の程度を示す注視度を算出する注視度算出手段とを備え、
前記注視度算出手段は、前記搭乗者が同一箇所を注視した場合、時間が経過するにつれて注視度の値が減少する関数を用いて前記注視度を算出することを特徴とする関心度推定装置。A degree-of-interest estimation device that estimates which of the surrounding objects a passenger of a boarding type mobile object is interested in,
Map storage means for storing a map of the space in which an object arranged in a space in which the boarding type moving body moves and a position of the object are associated;
Position detecting means for detecting a current position of the boarding type moving body in the space;
Gaze direction detection means for detecting the gaze direction of the passenger in the space;
The position where the passenger is gazing based on the current position of the riding type mobile body detected by the position detection means, the line-of-sight direction detected by the line-of-sight direction detection means, and the object in the line-of-sight direction And a gaze degree calculating means for calculating a gaze degree indicating a degree of gaze at the gaze point .
The gaze degree calculating means calculates the gaze degree using a function that decreases the value of the gaze degree as time passes when the passenger gazes at the same location .
前記搭乗型移動体が移動する空間内に配置された物体と当該物体の位置とが関連付けられた前記空間の地図を記憶する地図記憶手段と、
前記搭乗型移動体の前記空間内での現在位置を検出する位置検出手段と、
前記空間内における前記搭乗者の顔方向を検出する顔方向検出手段と、
前記位置手段によって検出された前記搭乗型移動体の現在位置と前記顔方向検出手段によって検出された顔方向と、前記顔方向上にある物体とを基に、前記搭乗者が注視している位置である注視点を特定し、当該注視点における注視の程度を示す注視度を算出する注視度算出手段とを備え、
前記注視度算出手段は、前記搭乗者が同一箇所を注視した場合、時間が経過するにつれて注視度の値が減少する関数を用いて前記注視度を算出することを特徴とする関心度推定装置。A degree-of-interest estimation device that estimates which of the surrounding objects a passenger of a boarding type mobile object is interested in,
Map storage means for storing a map of the space in which an object arranged in a space in which the boarding type moving body moves and a position of the object are associated;
Position detecting means for detecting a current position of the boarding type moving body in the space;
Face direction detecting means for detecting the face direction of the passenger in the space;
The position where the passenger is gazing based on the current position of the riding type mobile body detected by the position means, the face direction detected by the face direction detection means, and the object on the face direction. And a gaze degree calculating means for calculating a gaze degree indicating a degree of gaze at the gaze point .
The gaze degree calculating means calculates the gaze degree using a function that decreases the value of the gaze degree as time passes when the passenger gazes at the same location .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003174479A JP4328136B2 (en) | 2003-06-19 | 2003-06-19 | Interest level estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003174479A JP4328136B2 (en) | 2003-06-19 | 2003-06-19 | Interest level estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005006897A JP2005006897A (en) | 2005-01-13 |
JP4328136B2 true JP4328136B2 (en) | 2009-09-09 |
Family
ID=34097951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003174479A Expired - Fee Related JP4328136B2 (en) | 2003-06-19 | 2003-06-19 | Interest level estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4328136B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4604597B2 (en) * | 2004-07-30 | 2011-01-05 | トヨタ自動車株式会社 | State estimating device, state estimating method, information providing device using the same, information providing method |
JP4742695B2 (en) * | 2005-06-27 | 2011-08-10 | トヨタ自動車株式会社 | Gaze recognition apparatus and gaze recognition method |
JP2007003448A (en) * | 2005-06-27 | 2007-01-11 | Nippon Telegr & Teleph Corp <Ntt> | Movement information generating device, movement information generating method, program, and storage medium |
JP4969462B2 (en) * | 2006-01-24 | 2012-07-04 | 本田技研工業株式会社 | System and method for estimating attention area |
JP5150942B2 (en) * | 2006-02-03 | 2013-02-27 | 株式会社国際電気通信基礎技術研究所 | Activity assistance system |
JP5145569B2 (en) * | 2007-12-19 | 2013-02-20 | 株式会社国際電気通信基礎技術研究所 | Object identification method and apparatus |
JP5089470B2 (en) * | 2008-04-09 | 2012-12-05 | 本田技研工業株式会社 | Interest level estimation apparatus and method |
WO2010067221A1 (en) * | 2008-12-09 | 2010-06-17 | Koninklijke Philips Electronics N.V. | Method and system for providing immersive effects |
US8421782B2 (en) | 2008-12-16 | 2013-04-16 | Panasonic Corporation | Information displaying apparatus and information displaying method |
CN104699250B (en) | 2015-03-31 | 2018-10-19 | 小米科技有限责任公司 | Display control method and device, electronic equipment |
JP7074221B2 (en) * | 2021-02-26 | 2022-05-24 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
-
2003
- 2003-06-19 JP JP2003174479A patent/JP4328136B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005006897A (en) | 2005-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3232289B1 (en) | Information presentation control method and autonomous vehicle, and autonomous-vehicle driving support system | |
US10242457B1 (en) | Augmented reality passenger experience | |
US20170028995A1 (en) | Vehicle control apparatus | |
US10509400B2 (en) | Control system for and control method of autonomous driving vehicle | |
EP2687407B1 (en) | Apparatus and method for localizing sound image for vehicle's driver | |
Fletcher et al. | Vision in and out of vehicles | |
CN114641668A (en) | Augmented reality way finding in car pooling applications | |
KR20200097815A (en) | Using wheel orientation to determine future heading | |
JP4328136B2 (en) | Interest level estimation device | |
JP7075822B2 (en) | Map information update system | |
JP2013254409A (en) | Careless driving detection device and program | |
US11694408B2 (en) | Information processing device, information processing method, program, and movable object | |
EP3683668A1 (en) | Vehicle display device | |
WO2021010083A1 (en) | Information processing device, information processing method, and information processing program | |
JP2020024551A (en) | Driving consciousness estimation device | |
JP6638348B2 (en) | Mobile robot system | |
US11260856B2 (en) | Information display device, information display method, and recording medium | |
JPH097100A (en) | Driver's gaze point predicting device and vehicle drive support system using the same | |
JP2021049894A (en) | Automatic operation system | |
CN114207685B (en) | Autonomous vehicle interaction system | |
CN111605561B (en) | System for interaction with autonomous vehicles | |
WO2020008876A1 (en) | Information processing device, information processing method, program, and mobile body | |
JP2017194930A (en) | Automatic operation control system for moving body | |
JP2020201647A (en) | Vehicle display control device, vehicle display control method, and vehicle display control program | |
US20240246534A1 (en) | Risk estimation system and vehicle control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040928 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20040928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060615 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090609 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090612 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120619 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4328136 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130619 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130619 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140619 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |