JP2011049773A - 出力制御装置、出力制御方法 - Google Patents

出力制御装置、出力制御方法 Download PDF

Info

Publication number
JP2011049773A
JP2011049773A JP2009195851A JP2009195851A JP2011049773A JP 2011049773 A JP2011049773 A JP 2011049773A JP 2009195851 A JP2009195851 A JP 2009195851A JP 2009195851 A JP2009195851 A JP 2009195851A JP 2011049773 A JP2011049773 A JP 2011049773A
Authority
JP
Japan
Prior art keywords
user
monitoring
unit
video
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009195851A
Other languages
English (en)
Inventor
Kiyoji Honda
廉治 本田
Junichiro Soeda
純一郎 添田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009195851A priority Critical patent/JP2011049773A/ja
Publication of JP2011049773A publication Critical patent/JP2011049773A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両やユーザが移動を開始する前に、移動のきっかけとなる情報を自動的に検知して、車両やユーザが停止中に、ユーザ操作等により、表示画面やスピーカなどへ新たな出力がされているとき、その出力を停止もしくは変更する出力制御装置を提供する。
【解決手段】移動検出部101は車両やユーザの停止前の減速状態を検出し、映像入力部102はその減速状態におけるユーザ前方の映像を取得し、視線検出部103はその減速状態におけるユーザの視線方向を取得する。そして、監視対象変化検出部104は、映像と視線方向をもとに、停止する原因となった対象を検出し、停止時点の映像から監視領域を決定する。さらに、監視対象変化検出部104は監視領域の映像から対象の変化を検出し、出力制御部105は表示画面やスピーカなどへの出力を停止させる、もしくは出力内容を変更させる。
【選択図】図1

Description

本発明は、モニタや、ヘッドマウントディスプレイ等の拡張現実に用いられる表示装置或いはスピーカなどに、情報等を出力するのを制御する出力制御装置、出力制御方法に関するものである。
ユーザの利便性向上、危険回避などのために、ユーザの状況又はユーザの周辺状況を収集し、ユーザが視聴する表示装置に対して状況にあった情報を出力する技術が開発されてきている。そのような技術の1つとして、例えば特許文献1にユーザの動作又は身体の状況を取得し、取得した状況に基づいて情報の出力の制御を行う表示装置が開示されている。
特開2008−65169公報
しかしながら、従来の技術では、ユーザの安全や利便性の観点から鑑みると、ユーザにとって弊害が生じる場合がある。例えば、シースルーヘッドマウントディスプレイを装着したユーザが停止中にメールなどの情報を提示する場合を例に挙げる。従来の技術では、ユーザが歩行又は走行を開始したと判定された後に、シースルーヘッドマウントディスプレイに対する画面表示のオン、オフが切り替えられる。したがって、歩行又は走行を開始してから画面が消えるまでの間、ユーザは周辺を見づらくなり、危険である。また、信号待ちをしているユーザの操作により、カーナビゲーションのディスプレイが車の走行時とは別の情報を表示している場合に、従来の技術を適用すると、発車するまでディスプレイは情報を表示し続ける。情報を表示している間はユーザ(運転者)はそれに気をとられてしまうため、信号が青になり周辺の車が移動し始めても運転者が気づかず、周辺の車に迷惑をかける弊害が生じる。したがって、車などが停止した後でユーザの操作により情報が出力されているとき、移動を開始してから情報の出力を停止させるのでは遅い問題があった。
それ故に、本発明の目的は、車などが停止した後でユーザの操作により表示画面やスピーカなどへ情報等が出力されているとき、移動のきっかけとなる情報を自動的に検知して、前述した出力を移動開始前に停止させる出力制御装置を提供することである。
上記目的を達成するために、本発明の出力制御装置は、情報等のユーザへの出力を制御する出力制御装置であって、ユーザの移動、停止を検出する移動検出部と、ユーザの視線方向の映像を撮影する撮影部と、ユーザが注視する点を検出する注視点検出部と、移動検出部においてユーザが停止したことを検出すると、撮影部で撮影された映像から前記注視点を含む監視領域を特定する監視領域特定部と、前記監視領域の映像に変化があったことを検出する監視領域変化検出部と、前記監視領域変化検出部が前記監視領域の映像に変化があったことを検出すると、出力を制御する出力制御部を備える。
上記構成により、本発明は、ユーザが移動を停止する判断をするきっかけとなった視覚情報(監視対象)の変化を自動的に検知し、変化があった場合にはユーザに対する情報等の出力を停止させる、もしくは出力内容を変更させる制御を行うことができる。
本発明の第1の実施形態における出力制御装置の構成例のブロック図 本発明の第1の実施形態における視線検出方法に関する説明図 減速時の速度変化を示す図 本発明の第1の実施形態における監視領域決定処理のフローを示す図 本発明における注視点抽出処理の説明図 本発明の第1の実施形態における監視領域決定処理の説明図 本発明の第1、第2の実施形態における監視領域設定後の監視対象変化検出部104、104aと出力制御部105の処理のフローを示す図 本発明における映像解析用データベース121のデータ例を示す図 本発明の第1の実施形態における出力制御装置の変形例のブロック図 本発明の第2の実施形態における出力制御装置の構成のブロック図 本発明の第2の実施形態における監視領域決定処理のフローを示す図 本発明の第2の実施形態における監視領域設定処理の説明図 本発明の第3の実施形態における出力制御装置の構成のブロック図 本発明の第3の実施形態における視線検出方法に関する説明図 本発明の第3の実施形態における監視領域設定後の監視対象変化検出部104b、出力制御部105aと映像合成部202の処理のフローを示す図 本発明の第3の実施形態における表示画面例の図 本発明の第3の実施形態における表示画面例の図 本発明の第3の実施形態における表示画面例の図 本発明の第3の実施形態における表示画面例の図
(第1の実施形態)
図1は、第1の実施形態に係る出力制御装置100に関するブロック図である。図1の出力制御装置100は、車に搭載される装置であり、モニタ或いはスピーカなどの出力装置が情報を出力するのを制御する出力制御装置である。出力制御装置100は、移動検出部101、映像入力部102、視線検出部103、監視対象変化検出部104、および出力制御部105を備える。さらに、視線検出部103は方向取得部111を備える。
移動検出部101は、車速、もしくはユーザのアクセル、ブレーキ操作を車載センサから取得することにより、加速度の大きさ、速度の大きさなど、車の移動に関するデータを検出する。移動検出部101は、監視対象変化検出部104にこれらのデータを通知する。
映像入力部102は、カメラ等の撮影装置を指し、車の前方映像を撮影し、監視対象変化検出部104に送信する。
視線検出部103は、既存方法を用いて、ユーザの視線方向を検出し、視線方向を監視対象変化検出部104に送信する。既存方法としては、例えば、カメラでユーザの瞳孔の動きを撮影し解析する手法等がある。また、視線検出部103は、ユーザの顔の方向とカメラの光軸方向とのなす角を取得する方向取得部111を含む。ユーザの顔の方向は、既存の方法を用いて取得する。例えば、視線検出部103がユーザの頭部に設置される場合には、視線検出部103にジャイロセンサ或いは方位センサを組み込むことで、ユーザの顔の方向を検出することができる。そして、カメラの光軸方向とユーザの顔の方向との差分から、カメラの視線方向とのなす角を取得する。視線検出部103の動作の詳細は後述する。
監視対象変化検出部104は、移動検出部101から得られる移動状態、カメラ映像入力部102から得られる車の前方の映像、視線検出部103から得られる視線方向を受け続け、保持している。そして、車が停止する前のユーザの視線方向から、ユーザが停止すると判断したきっかけとなった視覚情報(監視対象)を含むカメラ映像中の監視領域を決定する。そして、監視対象変化検出部104は、監視領域の映像を監視し、監視対象に動きベクトルの変化や輝度等の映像変化があった場合に後述する出力制御部105に通知する。監視対象変化検出部104の動作の詳細は後述する。
出力制御部105は、監視対象変化検出部104からの通知を受け、カーナビゲーションなどの情報生成装置(図示せず)が停車後のユーザ操作などによりモニタ或いはスピーカなどの各種出力装置(図示せず)に対して情報等を出力するのを、停止させる。或いは、出力制御部105は、監視対象変化検出部104からの通知を受け、情報生成装置に出力内容を変更させる。
つぎに、視線検出部103の動作を、図2を用いて詳細に説明する。図2は、視線検出装置と顔の向きを検出するセンサがユーザの頭に装着され、ユーザの頭と別の場所に車の前方に向けてカメラが設置されていることを想定する。図2のXY座標系は、カメラの焦点を含み、かつカメラの撮像面に対し垂直で撮像面の横方向に平行な平面を基準とした2次元のグローバル座標系である。通常の態様ではカメラは水平に向けて設置されているので、水平面上の2次元座標系と考えてよい。点Po、点Pc、点Ppはそれぞれユーザの注視対象、カメラ位置、ユーザ位置を指す。また、カメラの光軸方向が事前に求められているものとし、顔の向きを検出するセンサ出力から、カメラの光軸方向とユーザの顔の向きとのなす角φcpが算出されるとする。さらに、ユーザに装着された視線検出装置により検出される視線方向をXY平面上に投影し、その向きをθpとする。通常の使用態様では、Pco間の距離DoはPcp間の距離Dpに比べて十分長いので、直線Pcoと直線Pcpは平行とみなすことができる。したがって、カメラ位置Pcから見た注視対象Poへの向きとカメラの光軸とのなす角θhは以下の式により求められる。
θh=θp+φcp(式1)
なお、カメラの焦点を含み、かつカメラの撮像面に対し垂直で撮像面の縦方向に平行な平面を基準とした2次元のグローバル座標系において、カメラ位置Pcから見た注視対象Poへの向きθvを求める際も同じ方法が適用可能である。以上のように得られた(θh,θv)を視線検出部103は監視対象変化検出部104に送信する。
つぎに、監視対象変化検出部104の詳細な動作について説明する。監視対象変化検出部104は、まず、車が停止する前のユーザの視線方向から監視対象を特定する。そこで、どのタイミングの視線方向から監視対象を特定するかについて説明する。ここで、車が減速する場合に監視対象を特定するタイミングを、図3を利用して説明する。図3は一定速度で走行している状況から、停止の要因となる視覚情報を得てユーザの意思により減速している状況を示す速度の時間変化のグラフである。
車の走行において、ユーザが一定の速度で走行していると判断していても、実際の速度は下り坂や上り坂になっているなどの路面の状況やユーザの操作に影響し、ばらつきが生じる。時刻T1〜時刻T3の期間はユーザが一定速度で走行しようと、アクセルを踏んだり離したりしている期間を示している。
時刻T3の時に、ユーザが赤信号を見てアクセルから足を離す。これにより、エンジンブレーキやタイヤの回転する際の摩擦抵抗などで車は減速を開始する。このような自然な減速の後、時刻T4で停止位置が近づいたことを受け、ユーザはブレーキ操作を行う。これにより車の速度が急激に下がる。
最後に時刻T5から時刻T6にかけてブレーキを弱めて止まりたい位置まで緩やかに減速し車は停止する。このようにユーザが停止動作を行った場合、最後にブレーキを操作し加速度が変化した地点は、時刻T6である。しかしながら、ユーザが停止すると判断したきっかけとなる視覚情報は、時刻T3の時にユーザが注視している可能性が高い。
したがって、監視対象変化検出部104は、車の加速度が正から負に変化した時点の数秒前から停止するまでの映像と視線方向に関する情報をメモリ上に保持する。ただし、静止する前に、車の加速度が負から正に変化した場合は、監視対象変化検出部104は、メモリ上に保持していた映像と視線方向に関する情報をリセットする。ここで、車の加速度が正から負に変化した時点の数秒前からとしたのは、直前数秒間の情報を利用することによって、車の加速度が正から負に変化した時点のユーザの注視対象を精度よく求めることができるからである。
そして、車の加速度が正から負に変化してから完全に停止した時点で、監視対象変化検出部104は、メモリ上に保持されている映像と視線方向を解析し、車の加速度が正から負に変化した時点から最初に注視した注視対象を監視対象として決定する。
つぎに、車の加速度が正から負に変化した時点から停止するまでの映像と視線方向の情報から、監視対象を含むカメラ映像中の監視領域を決定する処理について説明する。図4がこの処理におけるフローチャートである。
まず、監視対象変化検出部104は、メモリに保持されている映像の各フレームにおいて注視点を抽出する(ステップS401)。この注視点は、映像入力部により入力された映像の中でユーザが注視している点を意味し、ユーザの視線方向をもとに算出される。図5は、撮像面におけるuii座標系において、注視点Qの座標(uQ,vQ)と視線検出部103から得られた(θh,θv)との関係を説明するための図である。このuii座標系は1画素の長さが1となるように設定される。点Eは仮想的な目の位置である。点Qは撮像面のユーザの注視画素を示し、点Eから点Qに向かう方向が視線方向を示す。そして、点Eから撮像面に垂線を下ろし、その垂線の足を点Rとする。この点Rのuii座標系での座標(uR,vR)は予めキャリブレーションにより定めておく。ここで、uii座標系で(uQ,vR)なる点を点Sとすると、θhは線分ER、線分ESとのなす角となり、θvは線分EQ、線分ESとのなす角となる。
つぎに、ER間の距離を焦点距離fとし、撮像素子の1画素の横幅をδu、縦幅をδvとすれば、点Rの座標(uR,vR)をもとに、uQ、vQは以下の式により求まる。
Q=uR+f/δu・tanθh(式2)
Q=vR+f/δv・tanθv(式3)
ところが、視線方向(θh,θv)は誤差を含んでおり、上式で得られる注視点Qが注視対象を必ずしも指しているとは限らない。したがって、注視点Qを含むある程度の大きさの領域を注視領域として抽出する(ステップS402)。例えば、画像全体をいくつかの矩形領域に分け、注視点を含む矩形領域を注視領域としてもよい。或いは、注視点を中心として特定半径の円系領域を注視領域としてもよい。
つぎに、フレーム毎に注視領域を求めた後、監視対象を抽出する(ステップS403)。このとき、加速度が正から負に変化した時点から最初に注視した領域を監視対象として抽出する。最後に、抽出した監視対象について、静止時の監視領域を決定する(ステップS404)。ステップS403とS404の詳細な動作を、図3と図6を用いて説明する。
図6は、ユーザが信号を見て停止に至るまでの速度の変化点において、映像入力部102が撮影した車の前方映像の例である。図6の(ア)と(イ)は図3の時刻T3に対応し、図6の(ウ)は図3の時刻T6に対応する。図6の(イ)は画像処理を行う単位であるグリッド605を表している。グリッド605は全画面を16分割した領域であり、事前に設定されているものとする。
このとき、ステップS403において、監視対象変化検出部104は、時刻T3になる直前数秒間の注視点が含まれるグリッドを保持する。そして、監視対象変化検出部104は、それらのグリッドを統合した領域を、加速度が正から負に変化した時点から最初に注視した領域、すなわち監視対象として抽出する。図6の(イ)において、時刻T3になる直前数秒間で注視点が含まれるグリッドは領域603を構成する2つのグリッドであるとすると、監視対象変化検出部104は監視対象として領域603を抽出する。
この後さらに減速し、時刻T6において停止した場合、図6の(ウ)のように撮影される。時刻T3と時刻T6では、撮影されている映像が図6の(ア)から(ウ)へ変化する。したがって、ステップS404において、監視対象変化検出部104は、図6の(イ)の領域603内でエッジ抽出を行い、それぞれのエッジを含む画像をテンプレートとして、時間経過後の画像とマッチングをとる。これにより、監視対象変化検出部104は、時間経過後の画像においてもエッジのある領域を追従させることができる。監視対象変化検出部104は、この追従を監視対象に含まれる全てのエッジに対して行うことによって、監視対象を含む領域を領域604へ拡大する。なお、テンプレートによるマッチングによる手法により説明したが、他の追従方法を用いてもよい。このように追従した結果、監視対象変化検出部104は領域604を静止時点の監視領域として抽出する。
つぎに、ユーザが静止し、出発するまでの監視対象変化検出部104と出力制御部105の動作について説明する。図7がこの処理におけるフローチャートである。まず、監視対象変化検出部104は、車が停止した後にユーザの操作等により、表示装置、音出力装置等に対し現在情報等を出力しているか否かを出力制御部105から取得する(ステップS701)。出力していない場合(ステップS701でNo)はそのまま終了する。出力している場合(ステップS701でYes)、監視対象変化検出部104は移動検出部101から得られる移動変化により車が停止中かどうか判定する(ステップS702)。車は停止中でない、すなわち車が移動している場合(ステップS702でNo)、監視対象変化検出部104は車が移動していることを出力制御部105に通知し、出力制御部105は出力を停止し(ステップS704)、終了する。
一方、車が停止中の場合(ステップS702でYes)、監視対象変化検出部104は、図4による処理で設定された監視領域に変化があったかどうか判定する(ステップS703)。この判定においては、監視対象変化検出部104は、映像解析用データベース121に登録されている変化の判定条件に従って変化の有無を検出する。
映像解析用データベース121は、例えば、図8の右列の(1)〜(5)に示す変化の判定条件を保持している。図8の(ア)(イ)は、本発明で想定する監視対象の一例を示している。
図8の(ア)は信号機810である。信号機のランプ部分811に相当するだけの大きさの領域において、(1)明るさの変化があった場合、(2)色彩に変化があった場合に、監視対象変化検出部104は監視対象が変化したと判定する。
図8の(イ)は自動車820である。自動車の後部ランプ821、および室内灯822に相当するだけの大きさの領域において、(3)明るさが変化した場合、(4)色彩に変化があった場合に、監視対象変化検出部104は監視対象が変化したと判定する。さらに、(5)ナンバープレート823内の文字の大きさが変化した場合に、監視対象変化検出部104は監視対象が変化したと判定する。
以上に示した監視領域の変化の抽出処理において、(5)を除いて、監視対象変化検出部104は、監視対象の物体を画像処理により識別する処理は行わない。ただし、(5)については、監視対象変化検出部104は、実用化されているナンバープレート認識技術を用いてナンバープレート823を識別した後、(5)の処理を行うこととする。(1)〜(4)に挙げた処理については、ユーザの利用形態に合わせて、信号機のランプ部分811、自動車の後部ランプ821、室内灯822に相当する最小の大きさを、事前に監視対象変化検出部104に設定する。そして、監視対象変化検出部104は、その大きさ以上の領域において、明るさ、もしくは色彩の変化があった場合に全て監視対象が変化したとして判定する。なお、将来的に信号機や車の物体認識が画像処理により実現されるようになった場合は、監視対象変化検出部104は、信号機のランプ部分1011、後部ランプ1021、室内灯1022それぞれを識別した上で、(1)〜(4)までの変化があったかどうか個別に判定するのでもよい。このように、監視対象変化検出部104は、監視領域の変化判定方法を持ち、変化判定をすることで、判定精度を上げることができる。
以上の処理により、監視領域に変化があったと判定した場合(図7のステップS703でYes)、監視対象変化検出部104は監視領域に変化があったことを出力制御部105に通知し、出力制御部105は出力装置に対する出力を停止させ(ステップS704)、終了する。監視領域に変化がないと判定した場合(ステップS703でNo)、監視対象変化検出部104は出力制御部105に何も通知せず、出力制御部105は出力装置に対する出力を継続させ(ステップS705)、ステップS701の処理に戻る。
本第1の実施形態によれば、ユーザが移動を停止する判断をするきっかけとなった視覚情報(監視対象)の変化を自動的に検知し、変化があった場合には、出力装置がユーザに対し情報等を出力するのを停止させるなどの制御を行う。これにより、停止中に新たに表示や出力がされた情報にユーザが気をとられてしまうことに伴う弊害を防止することができる。
なお、移動検出部101、映像入力部102、視線検出部103、監視対象変化検出部104、出力制御部105は、以下に述べる構成、動作であってもよい。
移動検出部101は、車速、もしくはユーザのアクセル、ブレーキ操作以外に、GPS(Global Positioning System)により位置を取得し、気圧や電波を利用した高度計から高度を取得し、機械式、光学式、半導体式などの加速度センサから加速度を取得し、車の移動に関するデータを検出してもよい。また、車の移動に関するデータを監視対象変化検出部104に通知する条件を保持可能とし、例えば加速度の変化が閾値以上あった場合にのみ、移動検出部101は監視対象変化検出部104に通知するようにしてもよい。
監視対象変化検出部104は、移動状態、映像、視線方向を受け続けるのではなく、車が停止した時に、車が減速する数秒前から停止するまでの間の映像、視線方向を映像入力部102、視線検出部からそれぞれ受信するのでもよい。このとき、映像入力部102、視線検出部103は、それぞれ映像データ、視線方向を一時的に蓄えるメモリ領域を用意する。さらに、メモリ領域の特定は、映像入力部102及び視線検出部103から視線検出部104へメモリ領域の指定アドレスを予め送信しておくことで実現可能である。また、図8に示した監視対象の変化の判定条件は、ユーザの使用態様に応じて、自由に設定可能である。さらに、映像入力部102を車の後方にも配置し、視線検出部103がルームミラーを通して車の後方をユーザが停止前に注視していることを検出する場合においては、監視対象変化検出部104は、後続車のヘッドライトの明るさもしくは色彩の変化を検出すると、監視対象が変化したと判定してもよい。
出力制御部105は、モニタなどの表示装置、スピーカなどの音出力装置以外に、車載マッサージ機のような圧力出力装置に対する出力を制御してもよい。さらに、出力制御部105は、監視対象変化検出部104からの通知を受け、情報生成装置に出力内容を変更させる制御を行ってもよい。ここでの出力内容の変更とは、例えば、監視領域が変化したことを映像又は音などでユーザに数秒間通知させた後、出力装置に対する出力を停止させる処理を情報生成装置に行わせることなどが挙げられる。その場合、図7のステップS704の処理において、出力制御部105は、出力内容を変更させる処理を行う。
また、前述した出力制御装置100は、自動車の車載装置ばかりでなく、自転車、自動二輪に搭載され、ハンドル部分に設置された表示装置等に対する出力を制御する出力制御装置にも適用できる。この場合、移動検出部101は、速度計ばかりではなく、ペダルの回転をセンサから取得して、自転車の移動状態を検出してもよい。映像入力部102は自転車、自動二輪の前方を撮影するように設置される。他の視線検出部103、監視対象変化検出部104、出力制御部105の内部構成、動作は前述のとおりでよい。
なお、出力制御装置100は、変形例として、図9に示すように移動制御部106を有する構成としてもよい。移動制御部106は、移動検出部101と出力制御部105から、車が停止中に、ユーザの操作等により、出力装置に出力を行っていることの通知を受けた場合には、車が移動できないように制御する機能を有する。例えば、ブレーキが解除できないようにブレーキの制御を行うことで実現する。以上の構成により、ユーザが前方を見ていない状況下で移動し始めることによる衝突事故を防ぐことができる。
(第2の実施形態)
第1の実施形態では、加速度が正から負に変化した時点から最初に注視した領域を監視対象としていた。しかし、加速度が正から負に変化した時点から停止するまでにユーザが注視した領域は1つとは限らない。そこで、第2の実施形態では、加速度が正から負に変化した時点から停止するまでにユーザが注視した領域全てを監視対象として、監視対象の1つでも変化があった場合に、出力を停止する。
図10は、第2の実施形態の出力制御装置100aに関するブロック図である。図10において、監視対象変化検出部104a以外は、第1の実施形態と同じ動作なので、同一の符号を付しており、説明を省略する。
監視対象変化検出部104aは、加速度が正から負に変化した時点から停止するまでにユーザが注視した領域全てを監視対象として、監視対象の1つでも変化があった場合に、出力制御部105に通知する。
監視対象変化検出部104aは、第1の実施形態と監視対象の決定の動作のみが異なるので、その動作を図11のフローチャートを用いて説明する。図11では、図4に比べてステップS1101を含むことのみ異なるので、異なる部分を中心に説明する。監視対象変化検出部104は、ステップS401で得られるフレーム毎の注視点について、フレーム間の注視点の移動距離を測定し、その移動距離が予め定めた閾値を超えた場合、別の対象を注視していると推定する。そして、監視対象変化検出部104は、同じ対象を注視しているとみなされたフレーム群を抽出する(ステップS1101)。そしてフレーム群毎に、ステップS402〜S404の処理を実行することによって、複数の監視対象を抽出する。フレーム群を抽出するための閾値は、固定値であってもよいが、ユーザ毎に設定可能としてもよい。
ここで、図11における監視対象変化検出部104の処理の具体例を、図3と図12を用いて説明する。図12は信号を見て停止に至るまでの速度の変化点における使用者の前方映像の例である。図12では、信号機601と前方を走る車1201が映し出されている。図12の(ア)と(イ)は映像入力部102により撮影された画像であり、図3の時刻T4に対応する。また、図12の(ウ)は図3の時刻T6に対応する。
図3の時刻T4において、表示領域が図12の(ア)のように表示されている。ユーザは、時刻T3の数秒前から時刻T4の数秒前まで信号機601を注視し、それからユーザは前方の車1201に視線を移すことによってフレーム間の注視点の移動距離が閾値以上となり、それ以降停止するまで前方の車1201を注視していたとする。このとき、監視対象変化検出部104は、ステップS401において、時刻T3の数秒前から時刻T4の数秒前までのフレーム群と、時刻T4の数秒前から停止するまでの2つのフレーム群を検出する。そして、ステップS402、ステップS403の処理によって、監視対象変化検出部104は、信号機601を含む領域603と前方の車1201を含む領域1202の両方を監視対象として抽出する。以降は、ステップS404の処理によって、監視対象変化検出部104は、領域603と1202双方でエッジ検出を行い、前述した追従によって、静止時点の監視領域1203、1204を得る。以上の処理により、監視領域を決定する。
本第2の実施形態によれば、加速度が正から負に変化した時点から停止するまでに注視した複数の監視対象の変化を検出し、第1の実施形態のように出力装置に対し情報等の出力を停止させるなどの制御をすることができる。
(第3の実施形態)
つぎに、第3の実施形態について説明する。第3の実施形態は、監視対象が変化すると、ユーザに提示する出力映像を変える応用例であり、主にビデオシースルー型ヘッドマウントディスプレイなどの表示装置に適用される。第1、第2の実施形態は、出力制御装置100、100aとして、自動車等の車載装置を想定していた。その場合、映像入力部102は、進行方向前方に向けて設置されるので、監視領域決定後、監視領域を継続して撮影することが可能である。しかし、出力制御装置100、100aをビデオシースルーヘッドマウントディスプレイなどの表示装置への出力を制御する出力制御装置に適用する場合、映像入力部102を常に進行方向前方に向けて配置することは現実的でない。そこで、第3の実施形態では、監視対象変化検出部104bが監視領域を設定した後、監視領域を継続的に監視できるよう、映像入力部102aが自らの姿勢、ズームの制御を行う。
図13は、第3の実施形態の出力制御装置を含む表示装置に係るブロック図である。図13では、表示装置200はビデオシースルーヘッドマウントディスプレイなどの表示装置を指し、出力制御装置100b、情報出力部201、映像合成部202、表示部203から構成される。出力制御装置100bは、移動検出部101a、映像入力部102a、視線検出部103a、監視対象部104bと出力制御部105aを有する。出力制御装置100bの構成要素は全て第1、第2の実施形態と一部動作が異なるので異なる符号を付している。そして、映像入力部102aは第1の撮影部131、第2の撮影部132とカメラ制御部112を有する。視線検出部103aは方向取得部111aを有する。方向取得部111aは第1、第2の実施形態と一部動作が異なるので異なる符号を付している。
情報出力部201は、外部の映像出力装置から得られた画像、出力装置で保有する機能、設定画面、メールなど、ユーザが静止時に閲覧する情報を出力する。また、後述する第1の撮影部131で撮影された画像から画像認識により人物顔等を検出し、人物に関連する情報などの補足情報を出力する。
映像合成部202は、後述する出力制御部105aからの通知に基づいて、後述する第1の撮影部131で撮影された映像と情報出力部201が出力した情報を合成した映像を生成する。或いは、何も合成せずに、第1の撮影部131の映像を出力する。表示部203は、映像合成部202から出力された映像を表示する。
移動検出部101aは、ユーザに装着したGPS(Global Positioning System)により位置を取得し、ユーザに装着した気圧や電波を利用した高度計から高度を取得し、ユーザに装着した機械式、光学式、半導体式などの加速度センサから加速度を取得する。そして、位置、高度の時間変化、加速度の時間変化から歩行、走行、停止などのユーザの移動に関するデータを検出する。このように複数のセンサを利用する場合、センサ毎に誤差が異なるため、移動状態を監視対象変化検出部104に通知する条件を設定する場合は、移動検出部101において閾値をセンサ毎に設定できるようにするとよい。
映像入力部102aの第1の撮影部131は、ユーザの前方映像を常に撮影するカメラ等の撮影装置である。第2の撮影部132は、図4の処理により監視領域が決定された後、その監視領域を常に撮影するカメラ等の撮影装置である。カメラ制御部112は、第1の撮影部131と第2の撮影部132の姿勢とズームを制御する。カメラ制御部112は、姿勢制御で角度を取得するためにジャイロセンサ或いは方位センサを含んでおり、後述する方向取得部111aに対して、空間中の特定の方向を基準としたカメラの光軸方向の向きφcを出力する。
視線検出部103aは、ユーザの視線方向を検出する。ただし、ビデオシースルー型ヘッドマウントディスプレイに第1の撮影部131で撮影された映像を表示し、ユーザはそれを見ながら停止のきっかけとなる視覚情報を注視することになるので、第1の実施形態に比べて、視線検出方法を以下のように簡略化することができる。
図14は、ヘッドマウントディスプレイの表示画面と視線方向との関係を示した図である。図中の表示画面はヘッドマウントディスプレイの表示画面を指し、この表示画面を図のようにuv座標系で表すとする。また、点E'は眼球位置、点Q'は表示画面中のユーザの注視点を示し、点E'から点Q'に向かう方向が視線方向を示す。そして、点E'からヘッドマウントディスプレイの表示画面に垂線を下ろし、その垂線の足を点R'とする。点R'のuv座標系での座標(u'R,v'R)は予めキャリブレーションにより求めておく。さらに、点Q'のuv座標系での座標を(u'Q,v'Q)とし、uv座標系で(u'Q,v'R)なる点を点S'とする。ここで、線分E'R'、線分E'S'とのなす角θhと、線分E'Q'、線分E'S'とのなす角θvとしたとき、視線方向は(θh,θv)と表される。図14の場合では、ヘッドマウントディスプレイに装着されている視線検出装置は、直接(θh,θv)を検出することができる。また、この場合の通常の使用態様では、映像入力部102はユーザの頭に装着されており、カメラの光軸方向が顔の向きと同じに設定される。したがって、視線検出装置から得られた(θh,θv)から注視領域を決定できるので、(θh,θv)を監視対象変化検出部104bに送信すればよい。
また、視線検出部103a内の方向取得部111aは、第1の実施形態の方向取得部111に比べて、カメラ制御部112に顔の向きを送信することのみが異なる。
監視対象変化検出部104bは、監視領域の変化がカメラの移動による変化か、監視対象の移動による変化かを区別するため、カメラ制御部112が有するジャイロセンサを用いてカメラの動きを算出し、映像の座標系を絶対座標系に変換することで監視領域の移動変化量を補正する。或いは、映像全体に対する監視領域の相対的な動きベクトルの変化を検出することで、監視対象変化検出部104が監視領域に変化があったと判定してもよい。
出力制御部105aは、監視対象変化検出部104bからの通知に基づいて、第1の撮影部131で撮影された映像をそのまま出力するか、第1の撮影部131で撮影された映像と情報出力部201が出力した情報を合成した映像を出力するかを決定し、どの出力形態にするかを映像合成部202に通知する。
第3の実施の形態においては、図4に示した監視対象変化検出部104bの監視領域の決定処理は同じであるので省略する。そして、ユーザが静止し、出発するまでの監視対象変化検出部104b、出力制御部105a、映像合成部202の動作を図15のフローチャートを用いて説明する。
まず、監視対象変化検出部104bは、現在ユーザの指示により合成画像を表示中か否かを出力制御部105aから取得する(ステップS1501)。この判定のため、出力制御部105aが合成表示状態を保持していてもよい。もし、合成画像を表示中でない場合、すなわち第1の撮影部131で撮影された画像をそのまま出力している場合(ステップS1501でNo)、監視対象変化検出部104bは何も動作せず、出力制御部105aは映像合成部202に何も通知を行わない。したがって、映像合成部202はこれまでの表示形態を変えずに描画処理する(ステップS1506)。
合成画像を表示中である場合、すなわち第1の撮影部131で撮影された画像を情報出力部201が出力した情報を合成した映像を出力している場合(ステップS1501でYes)、監視対象変化検出部104bは現在ユーザが停止しているか否かを判定する(ステップS1502)。ユーザが停止していないと判定した場合(ステップS1502でNo)、監視対象変化検出部104bは出力制御部105aにユーザが移動していることを通知し、出力制御部105aは合成を解除することを決定し(ステップS1504)、第1の撮影部131の映像のみ表示するよう映像合成部202に通知することで合成が解除される。そして、映像合成部202が第1の撮影部131の映像を表示部203に出力する(ステップS1506)。
ユーザが停止していると判定した(ステップS1502でYes)場合、監視対象変化検出部104bは監視領域に変化があったかを判定する(ステップS1503)。監視領域に変化がなかった場合(ステップS1503でNo)、監視対象変化検出部104bは出力制御部105aに監視領域に変化がないことを通知し、出力制御部105aは合成を継続することを決定する(ステップS1505)。そして、映像合成部202はこれまでの表示形態を変えずに描画処理する(ステップS1506)。監視領域に変化があった場合(ステップS1503でYes)には、監視対象変化検出部104bはその旨出力制御部105aに通知する。そして、出力制御部105aは、合成を解除することを決定し(ステップS1504)、第1の撮影部131の映像のみ表示するよう映像合成部202に通知することで合成が解除される。そして、映像合成部202が第1の撮影部131の映像を表示部203に出力する(ステップS1506)。
描画処理(ステップS1506)を終了すると、ユーザによる終了指示があるかどうか判定する(ステップS1507)。もし、終了指示がある場合(ステップS1507でYes)、そのまま終了する。終了指示がなければ(ステップS1507でNo)、ステップS1501に戻り、上記の処理を繰り返す。
つぎに、本実施形態の画面合成例を説明する。図16は表示部203に表示される映像を表している。まず、ユーザが信号1602のランプ部分を見て停止し、監視領域1603が設定されている。このとき、ユーザには、図16の(ア)のような第1の撮影部131から入力された映像が表示されている。図16の(イ)は、ユーザが外部の機器を操作するなどし、情報出力部201がメールの受信一覧1604の情報を生成し、映像合成部202が第1の撮影部131から入力された映像と合成した場合における表示部203の出力画像である。このとき、監視領域1603の信号が変わるなど変化があった場合には、監視対象変化検出部104bが変化の検知を行い、出力制御部105aに通知する。出力制御部105aは、監視対象変化検出部104bから通知を受けると映像合成部202に対して合成表示の解除を通知する。映像合成部202は出力制御部105aからの通知を受け、図16の(ウ)のように合成表示を解除し、第1の撮影部131からの映像のみを表示する。
つぎに、監視領域設定後、ユーザが監視領域とは別の方向を見ていて、ユーザの視野には監視領域がない場合に、第2の撮影部132が継続して監視領域を監視する動作、もしくはカメラ制御部112が第1の撮影部131の姿勢とズームを制御することによって、監視領域を継続して監視する動作について説明する。
まず、図17の(ア)のように、信号機1702が第1の撮影部131により撮影され、ユーザに表示されているとする。このとき、領域1703が監視領域として設定されているものとする。この状態から、ユーザが頭を動かして人物1706に目を向けたとすると、第1の撮影部131で撮影された映像のみユーザに表示した場合、図17の(イ)の領域1705のように表示される。
ここで、第2の撮影部132は、領域1703を継続的に監視するために、領域1701を撮影し続けるようにカメラ制御部112が第2の撮影部132の姿勢とズームを調整する。つまり、図4の処理によって監視領域が設定された後は第2の撮影部132がその監視領域を継続的に撮影できるよう、カメラ制御部112が第2の撮影部132の姿勢とズームを調整する。
つぎに、カメラ制御部112が第1の撮影部131の姿勢とズームを制御することによって、監視領域を継続して監視する動作について説明する。この動作は、第2の撮影部132を有しない構成であっても実現可能である。カメラ制御部112は、方向取得部111aからユーザの顔の向きを取得し、その向きの変化から、ユーザの表示領域が領域1701から領域1705に変化することを算出する。つぎに、監視領域1703と領域1705が含まれる領域1704を算出し、領域1701の中心1707から領域1704の中心1708に、第1の撮影部131の方向を変化させる。同時にカメラ制御部112はズームアウトし、撮影領域を領域1704に変更する。なお、この動作によりユーザが意図していない視界の映像を取得するため、ユーザの視界である領域1705を拡大してユーザに表示してもよい。この処理により、ズーム動作を行ったとしても、ズームの影響を受けていない映像をユーザに表示することができる。
つぎに、図17の動作を行っているときに、第1の撮影部131の映像に表示されている対象物の補足情報を表示した例を図18に示す。ユーザが首を振るなどして第1の撮影部131の撮影領域が1701から1705に移動した場合、図18の(ア)から(イ)のように表示領域が変更する。また、第2の撮影部132が領域1503を継続的に監視できるよう、カメラ制御部112が第2の撮影部132の姿勢とズームを調整する。このとき、情報出力部201は、第1の撮影部131で撮影された画像内の人物顔を画像処理により解析し、画像内の人物1706の補足情報1801を生成し、映像合成部202に送信する。映像合成部202は、第1の撮影部131の映像と情報出力部201が出力した補足情報1801と映像内の人物表示位置から合成画像1705を生成し、表示部203がその合成画像を表示する。
このとき、信号1702が変わるなど変化があった場合には、監視対象変化検出部104bは、第2の撮影部132が撮影した映像中の監視領域1703の変化を検出し、出力制御部105aに通知する。出力制御部105aは、監視対象変化検出部104bから通知を受けると、映像合成部202に対して、合成表示の解除を通知する。映像合成部202は、図18の(ウ)のように表示領域1705に対する補足情報1801の合成表示を解除して第1の撮影部131の映像を表示部203に出力する。
なお、第3の実施形態においては、第1の撮影部131で撮影された映像に対し、監視領域を強調する画像を生成し、ユーザに表示する態様であってもよい。この場合、出力制御部105aは、図15のステップS1501において合成画像を表示中でない場合に、監視対象変化検出部104bから監視領域の変化が通知されると、第1の撮影部131で撮影された映像に対し、管理領域を強調する画像を出力すると決定し、映像合成部202に通知する。そして、映像合成部202は、出力制御部105aからの通知を受け、第1の撮影部131で撮影された映像に対し、監視領域を強調する画像を生成する。
監視領域を強調した画像の生成方法としては、監視領域の周りに点灯もしくは点滅するマーク、或いは点滅する枠を表示した画像を生成する方法がある。或いは、監視領域の輝度を上げた画像を生成する方法であってもよい。または、他の領域の色調をグレーで目立たなく変化させた画像を生成する方法であってもよい。
また、第3の実施形態においては、出力制御部105aは第1の撮影部131と第2の撮影部132で撮影された映像を合成した映像を出力するかについても決定し、映像合成部202は、第1の撮影部131と第2の撮影部132で撮影された映像を合成してもよい。或いは、監視領域の変化があったときに、情報出力部201が新たな情報を生成し、出力制御部105aは第1の撮影部131で撮影された映像と情報出力部201が生成した情報を合成した映像を出力するかについて決定し、映像合成部202は、第1の撮影部131で撮影された映像と情報出力部201が生成した情報を合成してもよい。これらの表示に関して、図19を用いて説明する。
まず、図17の動作を行っているときに、第2の撮影部132が撮影した映像を子画面として合成する場合の表示を、図19の(ア)に示す。図19の(ア)において、第1の撮影部131で撮影された領域が1705であり、ユーザに対する表示画面には、領域1705が表示されている。また、第2の撮影部132の撮影領域が1701であり、監視対象である信号機が1702である。このとき領域1703が監視領域として設定されている。
出力制御部105aは、監視対象変化検出部104bから監視領域1703に変化があった通知を受けると、表示画面の領域1705の一部の領域1901で監視領域の映像を重ね合わせて表示するよう決定し、映像合成部202はこのような合成画像を生成する。これにより、図18のような補足情報の消去がなくてもユーザは停止動作のきっかけとなった監視領域が変化したことを確認することができる。なお、視線検出部103aから現在のユーザの視線方向を取得することで、出力制御部105aは、表示画面の領域1705の中で監視領域に最も近い場所に、或いは監視領域から遠い場所に、子画面領域1901を表示するよう決定し、映像合成部202はこのような合成画像を生成してもよい。
さらに、図19の(イ)を用いて、監視領域がユーザの視界内にない、もしくは監視領域の向きとユーザの視線方向が大きく異なる場合に、ユーザの視線を誘導する表示を行う場合の表示例を説明する。図19の(ア)と同じ構成要素については同じ符号を用い、説明を省略する。現在のユーザの視線が指す領域を1903とすると、領域1903から領域1703の方向に向け誘導するための矢印1902などを表示するよう、出力制御部105aは決定する。この表示はユーザの視界の妨げにならないよう、半透過表示又は点滅させてもよい。こうすることにより、ユーザの視界を妨げることなく、注視領域の変化をユーザに伝えることができる。
なお、図16、19に挙げた動作は、ビデオシースルー型ヘッドマウントディスプレイだけではなく、光学シースルー型ヘッドマウントディスプレイでも実現することが可能である。この場合、第1の撮影部131は不要となり、ユーザがハーフミラーを通して見る外界が図16の1601、図19の1705に該当する。
このとき、視線検出部103aの方向取得部111aは、前述したカメラの光軸方向の向きφcをカメラ制御部112から取得する。つぎに、方向取得部111aは、空間中の特定の方向を基準としたユーザの顔の方向φpを求める。そして、方向取得部111aは(式1)におけるユーザの顔の方向とカメラの光軸方向とのなす角φcpを以下の式により算出する。
φcp=φp−φc(式4)
視線検出部103aの他の動作は第1の実施形態と同じである。
さらに、映像合成部202は、単に情報出力部201が出力した情報をディスプレイに表示するか、第2の撮影部が監視している監視領域を切り出してディスプレイに表示する動作を行う。出力制御部105aは、情報出力部201が出力した情報をディスプレイに表示するかどうか、または第2の撮影部が監視している監視領域を切り出してディスプレイに表示するかどうかを決定し、映像合成部202に通知する。
本第3の実施形態によれば、ユーザが移動を停止する判断をするきっかけとなった視覚情報(監視対象)がユーザ停止後にユーザの視界から外れても、監視対象を含む領域である監視領域の映像を継続的に取得し、監視対象変化検出部104bが監視領域の変化を検出することができる。これにより、映像入力部102aを常に進行方向前方に向けて配置することは現実的でない場合であっても、監視領域を設定した後、映像入力部102aが監視領域を継続的に撮影し、監視対象の変化を検出することができる。
本発明に係る出力装置は、自動者や歩行者向けナビゲーション、各種車載装置などに適用可能である。特に、移動を開始したユーザに対して、これらの装置への出力を停止すると、ユーザの安全性や利便性が向上する場合に有用である。
100、100a、100b 出力制御装置
101、101a 移動検出部
102、102a 映像入力部
103、103a 視線検出部
104、104a、104b 監視対象変化検出部
105、105a 出力制御部
106 移動制御部
111、111a 方向取得部
112 カメラ制御部
121 映像解析用データベース
131 第1の撮影部
132 第2の撮影部
200 表示装置
201 情報出力部
202 映像合成部
203 表示部
810 信号機
811 信号機のランプ
820 自動車
821 自動車の後部ランプ
822 自動車の室内灯
823 自動車のナンバープレート
1601、1701、1705 表示部に表示される画面領域
1602、1702 信号機
1603、1703 監視領域
1604 合成画像としての外部入力映像のメール受信画面
1704 第1の撮影部によりズームアウトして撮影された領域
1706 第1の撮影部により撮影された人物
1707 領域1701の中心点
1708 領域1704の中心点
1801 合成画像としての対象1706の補足情報
1901 子画面表示領域
1902 ユーザの視線を誘導する表示
1903 現在の注視領域

Claims (16)

  1. ユーザに対して情報を出力する出力装置に接続され、前記出力装置の出力を制御する出力制御装置であって、
    ユーザの移動、停止を検出する移動検出部と、
    ユーザの視線方向の映像を撮影する撮影部と、
    ユーザが注視する注視点を検出する注視点検出部と、
    前記移動検出部においてユーザが停止したことを検出すると、前記撮影部で撮影されたユーザ停止時点の映像から前記注視点を含む領域を抽出して監視領域として特定する監視領域特定部と、
    前記監視領域の映像に変化があったことを検出する監視領域変化検出部と、
    前記監視領域変化検出部が前記監視領域の映像に変化があったことを検出すると、前記出力装置の出力を制御する出力制御部を備えることを特徴とする出力制御装置。
  2. 前記監視領域特定部は、ユーザが停止に至る減速を開始した時点での前記撮影部で撮影された映像からユーザの注視点を含む領域を抽出して監視候補領域として特定し、ユーザが停止した時点まで監視候補領域を追従することによって、監視領域を特定することを特徴とする
    請求項1の出力制御装置。
  3. 前記監視領域特定部は、ユーザが停止に至る減速を開始した時点から停止した時点までの前記撮影部で撮影された映像からユーザの注視点を含む複数の領域を抽出して複数の監視候補領域として特定し、前記複数の監視候補領域をユーザが停止した時点まで監視候補領域を追従することによって複数の監視領域を特定し、
    前記監視領域変化検出部は、前記複数の監視領域のいずれか1つにおいて変化があったことを検出し、
    前記出力制御部は、前記監視領域変化検出部が前記複数の監視領域のいずれか1つにおいて変化があったことを検出すると、前記出力装置の出力を制御することを特徴とする
    請求項1の出力制御装置。
  4. ユーザの視線方向に向けて撮影した映像を解析し、映像に合成すべき付加情報の画像信号を生成し、ユーザの視界方向の映像に合成する合成画像生成部と、
    ユーザに対し、前記合成画像生成部で合成された映像を表示する表示部とをさらに備え、
    前記出力制御部は、前記監視領域変化検出部が監視領域の映像に変化があったことを検出すると、前記合成画像生成部が合成した画像を前記表示部に出力することを停止し、ユーザの視界方向の映像のみを前記表示部に出力することを特徴とする請求項1〜3のいずれか1つに記載の出力制御装置。
  5. 前記監視領域変化検出部は、前記監視領域において輝度、色彩などの変化を判断するための条件を保持する前記映像解析用のデータベースを有し、前記条件に基づき、監視領域の変化を検出することを特徴とする請求項1〜4のいずれか1つに記載の出力制御装置。
  6. 前記監視領域変化検出部は、前記視覚情報の候補となる対象物の映像中の大きさを前記映像解析用のデータベースに保持し、前記視覚情報の候補の中で最小となる映像中の大きさよりも大きな領域において、輝度、色彩などの変化を検出した場合、監視領域の変化として検出することを特徴とする請求項5に記載の出力制御装置。
  7. 前記監視領域変化検出部は、前記監視領域内にナンバープレートが存在することを認識した場合には、ナンバープレートに記載された文字の大きさが変化したことで監視領域の変化を検出することを特徴とする請求項5に記載の出力制御装置。
  8. 前記出力装置が、ユーザの停止中の操作により、新たな情報を出力しているときに、
    前記出力制御部は、前記監視領域変化検出部が前記監視領域に変化があったことを検出すると、前記出力装置に対し前記新たな情報の出力を停止させることを特徴とする
    請求項1〜4のいずれか1つに記載の出力制御装置。
  9. 前記監視領域変化検出部が前記監視領域の変化を検出していない場合は、ユーザが移動できないように制御するための移動制御部を有することを特徴とする請求項8に記載の出力制御装置。
  10. 前記映像入力部は、カメラの姿勢やズームを制御するカメラ制御部をさらに有し、
    ユーザの視界が変化した場合に、撮影範囲にユーザの視線方向と監視領域の両方がはいるようにカメラ制御部がズーム操作とカメラの姿勢制御を行うことを特徴とする請求項4に記載の出力制御装置。
  11. 前記映像入力部は、ユーザの視線方向を撮影した映像を入力するための第1の撮影部と、前記監視領域の映像を撮影し続ける第2の撮影部を有することを特徴とする請求項4に記載の出力制御装置。
  12. 前記出力制御部は、前記監視領域変化検出部が監視領域の変化があったことを検出すると、監視領域の変化があったことをユーザに伝達する情報を前記出力装置に出力させることを特徴とする
    請求項1〜4のいずれか1つに記載の出力制御装置。
  13. 前記合成画像生成部は、前記監視領域変化検出部が監視領域の変化があったことを検出すると、第2の撮影部の映像から得た前記監視領域の映像を子画面で表示する合成画像を生成することを特徴とする請求項12に記載の出力制御装置。
  14. 前記合成画像生成部は、前記監視領域変化検出部が監視領域の向きと現在の視線方向が大きく異なる場合に、ユーザの視線を誘導するための合成画像を生成することを特徴とする請求項12に記載の出力制御装置。
  15. 前記出力制御部は、前記監視領域変化検出部が監視領域の変化を検出した際に、前記合成画像生成部が合成表示していないと判断した場合には、前記出力装置に対し、監視領域に変化があったことを通知する表示を行わせることを特徴とする請求項12に記載の出力制御装置。
  16. ユーザに対して情報を出力する出力装置に接続され、前記出力装置の出力を制御する出力制御方法であって、
    ユーザの移動、停止を検出するステップと、
    ユーザの視線方向の映像を撮影するステップと、
    ユーザが注視する注視点を検出するステップと、
    ユーザが停止したことを検出すると、撮影されたユーザ停止時点の映像から前記注視点を含む領域を抽出し、監視領域として特定するステップと、
    前記監視領域の映像に変化があったことを検出するステップと、
    前記監視領域の映像に変化があったことを検出すると、前記出力装置の出力を制御するステップを含むことを特徴とする出力制御方法。
JP2009195851A 2009-08-26 2009-08-26 出力制御装置、出力制御方法 Pending JP2011049773A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009195851A JP2011049773A (ja) 2009-08-26 2009-08-26 出力制御装置、出力制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009195851A JP2011049773A (ja) 2009-08-26 2009-08-26 出力制御装置、出力制御方法

Publications (1)

Publication Number Publication Date
JP2011049773A true JP2011049773A (ja) 2011-03-10

Family

ID=43835671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009195851A Pending JP2011049773A (ja) 2009-08-26 2009-08-26 出力制御装置、出力制御方法

Country Status (1)

Country Link
JP (1) JP2011049773A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059788A (ja) * 2012-09-19 2014-04-03 Fujitsu Ltd 注視行動推定装置,注視行動推定方法及び注視行動推定プログラム
CN104699746A (zh) * 2013-12-10 2015-06-10 哈曼国际工业有限公司 情境感知主动数字助理
WO2018100883A1 (ja) * 2016-11-29 2018-06-07 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
WO2018105222A1 (ja) * 2016-12-08 2018-06-14 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2019012454A (ja) * 2017-06-30 2019-01-24 株式会社デンソー ドライバ監視支援装置、ドライバ監視支援制御装置、ドライバ監視支援方法、及びドライバ監視支援装置制御方法
CN110936963A (zh) * 2018-09-21 2020-03-31 威斯通全球技术公司 用于显示交通信息的驾驶员辅助系统和方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059788A (ja) * 2012-09-19 2014-04-03 Fujitsu Ltd 注視行動推定装置,注視行動推定方法及び注視行動推定プログラム
CN104699746A (zh) * 2013-12-10 2015-06-10 哈曼国际工业有限公司 情境感知主动数字助理
JP2015115069A (ja) * 2013-12-10 2015-06-22 ハーマン インターナショナル インダストリーズ インコーポレイテッド コンテキストアウェアプロアクティブデジタルアシスタント
WO2018100883A1 (ja) * 2016-11-29 2018-06-07 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
WO2018105222A1 (ja) * 2016-12-08 2018-06-14 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US11080882B2 (en) 2016-12-08 2021-08-03 Sony Corporation Display control device, display control method, and program
JP2019012454A (ja) * 2017-06-30 2019-01-24 株式会社デンソー ドライバ監視支援装置、ドライバ監視支援制御装置、ドライバ監視支援方法、及びドライバ監視支援装置制御方法
CN110936963A (zh) * 2018-09-21 2020-03-31 威斯通全球技术公司 用于显示交通信息的驾驶员辅助系统和方法
JP2020053046A (ja) * 2018-09-21 2020-04-02 ビステオン グローバル テクノロジーズ インコーポレイテッド 交通情報を表示するための運転者支援システム及び方法

Similar Documents

Publication Publication Date Title
JP5555526B2 (ja) 車両用ディスプレイ装置
JP7331696B2 (ja) 情報処理装置、情報処理方法、プログラム、および移動体
JP5492962B2 (ja) 視線誘導システム
JP4935571B2 (ja) 運転支援装置
JP2006327527A (ja) 車両の走行安全装置
JP2009113621A (ja) 乗員画像撮像装置、運転支援装置
JP2011049773A (ja) 出力制御装置、出力制御方法
JP2018127099A (ja) 車両用表示制御装置
CN105793909B (zh) 用于借助车辆周围环境的通过摄像机采集的两个图像产生警告的方法和设备
US20170308262A1 (en) Display control apparatus and display system
KR20200131820A (ko) 화상 표시 시스템, 정보 처리 장치, 정보 처리 방법, 프로그램, 및 이동체
JP2017007481A (ja) 車載ヘッドアップディスプレイ装置及び車載表示システム
JP2007263931A (ja) ドライバ思考推定装置、ドライバ思考推定方法及びドライバ思考推定プログラム
JP2018144554A (ja) 車両用ヘッドアップディスプレイ装置
JP6589991B2 (ja) ヒューマンインターフェース
JP4857159B2 (ja) 車両運転支援装置
JP2005067369A (ja) 車両用表示装置
JP6115278B2 (ja) 車両用表示装置
JP7127565B2 (ja) 表示制御装置及び表示制御プログラム
JP2008162550A (ja) 外部環境表示装置
JP2016071666A (ja) 車両の視線誘導装置
JP2007218655A (ja) ナビゲーション装置
JP2007230314A (ja) 映像提示装置及び映像提示方法
JP2008305283A (ja) 運転支援装置および運転支援方法
WO2020008876A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826