JP2019121102A - 車載機器操作装置 - Google Patents

車載機器操作装置 Download PDF

Info

Publication number
JP2019121102A
JP2019121102A JP2017254743A JP2017254743A JP2019121102A JP 2019121102 A JP2019121102 A JP 2019121102A JP 2017254743 A JP2017254743 A JP 2017254743A JP 2017254743 A JP2017254743 A JP 2017254743A JP 2019121102 A JP2019121102 A JP 2019121102A
Authority
JP
Japan
Prior art keywords
vehicle
occupant
sight
line
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017254743A
Other languages
English (en)
Inventor
天野 幹大
Mikihiro Amano
幹大 天野
勇介 竹内
Yusuke Takeuchi
勇介 竹内
昭則 秦
Akinori Hata
昭則 秦
知美 小川
Tomomi Ogawa
知美 小川
努 小名木
Tsutomu Onaki
努 小名木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017254743A priority Critical patent/JP2019121102A/ja
Publication of JP2019121102A publication Critical patent/JP2019121102A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】視線情報に基づいて車載機器を操作可能な車載機器操作装置において、視線情報を精度良く検知する。【解決手段】車載機器操作装置10は、乗員Pの頭部Hに装着される装着部30と、装着部が装着された状態で乗員Pの目の前に配置される透明の表示部32とを含んで構成された本体部28と、本体部28又は車両本体に設けられ、乗員Pの視線を検知する視線検知部と、表示部32に車載機器操作用のアイコンを表示させると共に、視線検知部からの信号に基づいて乗員Pの視線が前記アイコンへ向けられていると判断した場合に、アイコンに対応する車載機器を操作可能な状態とする制御部36と、を有する。【選択図】図1

Description

本発明は、車載機器操作装置に関する。
特許文献1には、ユーザの視線を検知する視線検出部を備えた車載制御装置が開示されており、この車載制御装置は、視線検出部によって検知されたユーザの視線情報と音声認識部で認識された音声信号から操作キーを特定するように構成されている。
国際公開第2014/168188号
上記特許文献1では、運転者がステアリングホールから手を離すことなく操作キーを操作することができる。しかしながら、操作キーが表示された表示器が乗員から離れた場所に設けられている場合、乗員がどこを見ているのかを視線検出部で検知するのは困難であり、視線情報を精度良く検知する観点で改善の余地がある。
本発明は上記事実を考慮し、視線情報に基づいて車載機器を操作可能な車載機器操作装置において、視線情報を精度良く検知することを目的とする。
請求項1に記載の本発明に係る車載機器操作装置は、乗員の頭部に装着される装着部と、前記装着部が装着された状態で乗員の目の前に配置される透明の表示部とを含んで構成された本体部と、前記本体部又は車両本体に設けられ、乗員の視線を検知する視線検知部と、前記表示部に車載機器操作用のアイコンを表示させると共に、前記視線検知部からの信号に基づいて乗員の視線が前記アイコンへ向けられていると判断した場合に、前記アイコンに対応する車載機器を操作可能な状態とする制御部と、を有する。
請求項1に記載の本発明に係る車載機器操作装置では、装着部と透明の表示部とを含んで本体部が構成されており、装着部が乗員の頭部に装着され、表示部は、装着部が装着された状態で乗員の目の前に配置される。また、本体部又は車両本体には、乗員の視線を検知する視線検知部が設けられている。さらに、表示部に車載機器のアイコンを表示させる制御部が設けられている。ここで、制御部は、視線検知部からの信号に基づいて乗員の視線がアイコンへ向けられていると判断した場合に、アイコンに対応する車載機器を操作可能な状態とする。これにより、乗員が操作キーなどを直接手で操作することなく車載機器を操作可能な状態とすることができる。
また、乗員の目の前に配置される透明の表示部に車載機器のアイコンが表示されるため、表示部が乗員から離れた場所に設けられた構成と比較して、視線情報を精度良く検知することができる。
請求項2に記載の本発明に係る車載機器操作装置は、請求項1において、乗員の目の挙動を検知する挙動検知部を備え、前記制御部は、前記車載機器が操作可能な状態で前記挙動検知部によって検知された目の挙動が予め設定された挙動であると判断した場合に、前記車載機器に対して特定の処理を実行させる。
請求項2に記載の本発明に係る車載機器操作装置では、乗員の目の挙動によって車載機器に特定の処理を実行させることができるため、乗員が操作キー直接手で操作する必要がない。また、発話する必要がないため、例えば、会話中であっても車載機器の処理を実行させることができる。
請求項3に記載の本発明に係る車載機器操作装置は、請求項2において、前記制御部は、前記挙動検知部によって乗員の片目だけが閉じた状態を検知した場合に前記車載機器に対して処理を実行させる。
請求項3に記載の本発明に係る車載機器操作装置では、乗員が片目だけを閉じた場合に車載機器に対して処理を実行させることで、瞬きなどの乗員の自然動作によって車載機器の処理が誤って実行されるのを抑制することができる。
請求項4に記載の本発明に係る車載機器操作装置は、請求項1〜3の何れか1項において、前記本体部は、車両本体と通信可能で運転者に装着されるウェアラブル機器である。
請求項4に記載の本発明に係る車載機器操作装置では、運転者が運転中にステアリングホイールから手を離すことなく車載機器の処理を実行することができる。また、ウェアラブル機器とすることで、車両本体側に本体部が設けられた構成と比較して、運転者の顔の動きに追従して表示することができる。
請求項5に記載の本発明に係る車載機器操作装置は、請求項1〜4の何れか1項において、前記車載機器は、オーディオ機器、空調装置、ワイパ装置及びヘッドランプの少なくとも一つを含む。
請求項5に記載の本発明に係る車載機器操作装置では、操作キーなどを直接手で操作することなく、オーディオ機器、空調装置、ワイパ装置及びヘッドランプの少なくとも一つの車載機器を操作し、又は操作可能な状態とすることができる。
請求項6に記載の本発明に係る車載機器操作装置は、請求項1〜5の何れか1項において、前記視線検知部は、前記本体部に設けられている。
請求項6に記載の本発明に係る車載機器操作装置では、視線検知部が車両本体側に設けられた構成と比較して、視線検知部から乗員の目までの距離を短くすることができる。
以上説明したように、請求項1に係る車載機器操作装置によれば、視線情報に基づいて車載機器を操作可能な車載機器操作装置において、視線情報を精度良く検知することができる、という優れた効果を奏する。
請求項2に係る車載機器操作装置によれば、手による操作及び発話による操作を必要とせずに車載機器の処理を実行することができる、という優れた効果を奏する。
請求項3に係る車載機器操作装置によれば、意図せずに車載機器の処理が実行されるのを抑制することができる、という優れた効果を奏する。
請求項4に係る車載機器操作装置によれば、車両本体側に本体部が設けられた構成と比較して、視線情報を精度良く検知するこという優れた効果を奏する。
請求項5に係る車載機器操作装置によれば、オーディオ機器、空調装置、ワイパ装置及びヘッドランプの少なくとも一つの車載機器について、運転者から手が届くインスツルメントパネルなどに配置する必要がなくなり、車室内の意匠の自由度を向上させることができる、という優れた効果を奏する。
請求項6に係る車載機器操作装置によれば、視線検知部による視線の検知精度を向上させることができる、という優れた効果を奏する。
実施形態に係る車載機器操作装置が搭載された車両の車室を示す側面図である。 実施形態に係る車載機器操作装置を構成するウェアラブル機器を概略的に示す概略図である。 実施形態に係るウェアラブル機器の表示部を示す図であり、(A)には初期状態が示されており、(B)には空調装置が操作可能となった状態が示されている。 実施形態に係る車載機器操作装置のブロック図である。 実施形態に係る車載機器操作装置のフローチャートの一例である。 (A)には実施形態に係るウェアラブル機器の表示部の第1変形例が示されており、(B)には実施形態に係るウェアラブル機器の表示部の第2変形例が示されている。
以下、図面を参照して、実施形態に係る車載機器操作装置10について説明する。なお、各図に適宜示される矢印FRは車両前方側を示しており、矢印UPは車両上方側を示しており、矢印RHは車両右側を示している。また、以下の説明で特記なく前後、上下、左右の方向を用いる場合は、車両前後方向の前後、車両上下方向の上下、進行方向を向いた場合の左右を示すものとする。
また、図1では、実際の乗員の代わりに衝突試験用のダミーが図示されており、このダミーは、一例として国際統一側面衝突ダミー(World Side Impact Dummy;WorldSID)のAM50(米国人成人男性の50パーセンタイル)である。以下の説明において、ダミーを「乗員P」と称する。
図1に示されるように、本実施形態に係る車載機器操作装置10を備えた車両12の車室内には、運転席14が設けられている。運転席14は、乗員Pの背部を支持するシートバック16と、乗員Pの頭部Hを支持するヘッドレスト18と、乗員Pの大腿部(臀部)を支持するシートクッション(不図示)とを含んで構成されている。
運転席14の車両前方側には、フロントウインドシールドガラス20が設けられており、このフロントウインドシールドガラス20の下端部は、インストルメントパネル22に接続されている。インストルメントパネル22は、シートバック16と対向する位置に配置されており、このインストルメントパネル22から車室内へステアリングシャフト24が延出されている。また、ステアリングシャフト24の先端部には、運転時に乗員Pによって把持されるステアリングホイール26が設けられている。
ここで、乗員Pの頭部Hには、車載機器操作装置10を構成する本体部としてのウェアラブル機器28が装着されている。以下、本実施形態に係るウェアラブル機器28について説明する。
(ウェアラブル機器)
図2に示されるように、ウェアラブル機器28は、乗員Pの頭部Hに装着されるメガネ型に形成されており、装着部30と表示部32(表示部32L、32R)とを含んで構成されている。装着部30は、左右一対の耳掛け部30Aと、耳掛け部30Aを連結する連結部30Bとを含んで構成されている。左右一対の耳掛け部30Aはそれぞれ、乗員Pの頭部Hの側部に沿って延在された長尺状の部分であり、乗員Pの耳に掛けられる形状に形成されている(図1参照)。
連結部30Bは、一対の耳掛け部30Aを略直線状に繋いでおり、この連結部30Bの長手方向中央部には、視線検知部及び挙動検知部としてのセンサ34が設けられている。このセンサ34は、ウェアラブル機器28が乗員Pの頭部Hに装着された状態で、乗員Pの両目を撮像するカメラを含んで構成されている。なお、図2では、一つのセンサ34で乗員Pの両目を撮像できるように構成されているが、これに限らず、センサ34を左右一対配置した構成としてもよい。
連結部30Bには、一対の表示部32L、Rが取り付けられており、連結部30Bにおける表示部32Lと表示部32Rの間の部分は鼻掛け部30Cであり、この鼻掛け部30Cは、乗員Pの鼻の形状に対応して凹状に形成されている。そして、このウェアラブル機器28の装着状態で鼻掛け部30Cが鼻に支持されるように構成されている。
表示部32L、Rは、透明な材質で形成されており、ウェアラブル機器28が装着された状態で乗員Pの目の前に配置される部分に設けられている。表示部32Lは、ウェアラブル機器28の装着状態で左目の前に位置しており、表示部32Rは、ウェアラブル機器28が装着状態で右目の前に位置している。また、表示部32L、Rは、後述する車載機器に対応するアイコンが表示可能に構成されている。なお、ここでいう「透明」とは、表示部32L、R越しに乗員Pが車両12の外側を視認可能である構成を広く含む概念であり、半透明を含む。
また、ウェアラブル機器28には、図示しない送受信部が設けられている。この送受信部は、後述する制御部としてのECU(Electronic Control Unit)36と通信できるように構成されており、この送受信部からECU36へウェアラブル機器28側のデータを送信できる。また逆に、ECU36からのデータを受信することができる。
図1に示されるように、本実施形態では一例として、インストルメントパネル22の内部にECU36が配置されている。そして、図4に示されるように、ECU36は、車載機器としてのオーディオ機器38、空調装置40、ヘッドランプ42及びワイパ装置44と電気的に接続されている。
オーディオ機器38は、車室内で音楽を再生する機器であり、作動されることで車室内に設けられた図示しないスピーカから任意の曲を再生するオーディオ機器である。また、空調装置40は、作動することで車室内に冷風又は温風を送風する装置である。さらに、ヘッドランプ42は、車両前部の下部に配置され前方を照らして視界を確保する装置であり、作動することでハイビームとロービームとを切り替える。さらにまた、ワイパ装置44は、モータ、ワイパアーム及びワイパブレードを含んで構成され、作動することで、フロントウインドシールドガラス20を払拭する装置である。
そして、上述したこれらの車載機器は、ECU36の車載機器制御部52と電気的に接続されており、この車載機器制御部52からの信号に基づいて車載機器が制御される。具体的な制御方法については後述する。
ECU36は、主として、画像出力部46、視線判定部48、挙動判定部50及び車載機器制御部52を含んで構成されている。画像出力部46は、所定の通信方法でウェアラブル機器28の送受信部へデータを送信して表示部32L及び表示部32Rに画像を表示させる。そして、ここでいう画像とは、上述した各車載機器に対応するアイコンであり、本実施形態では、図3(A)に示されるように、アイコン54A、54B、54C、54Dの4つのアイコンが表示されている。
図4に示されるように、ECU36の視線判定部48及び挙動判定部50は、所定の通信方法でウェアラブル機器28のセンサ34からのデータを取得する。そして、視線判定部48は、センサ34からの視線情報に基づいて、乗員Pの視線がどこを向いているかを判定する。また、挙動判定部50は、センサ34からの視線情報に基づいて、乗員Pの目の挙動が予め設定された挙動と一致するか否かを判定する。
ここで、図3及び図5に基づいて、乗員Pが車載機器操作装置10を用いて車載機器に処理を実行させるフローについて説明する。
図5のステップS102では、ウェアラブル機器28が乗員Pに装着されているか否かについて判断する。このステップでは、例えば、ウェアラブル機器28のセンサ34によって乗員Pの目が検知された際に、ウェアラブル機器28からECU36へ装着状態であることを通知する。そして、これによってウェアラブル機器28が乗員Pに装着されたと判断し、ステップS104へ移行する。また、ウェアラブル機器28が装着されたと判断されるまでステップS102を繰り返す。なお、乗員Pがウェアラブル機器28を装着した後に所定の動作によってウェアラブル機器28が装着されたことをECU36へ通知するようにしてもよい。例えば、ウェアラブル機器28に予め設定されたボタンを押すことで通知してもよい。
ステップS104では、乗員Pの視線情報を取得する。具体的には、図4に示されるセンサ34で乗員Pの視線を検知し、その視線情報をECU36の視線判定部48が取得する。また、視線判定部48は、センサ34から取得した視線情報に基づいて、乗員Pの視線が表示部32におけるどの座標を向いているかを算出する。
図5に示されるステップS106では、視線判定部48によって算出された乗員Pの視線が表示部32に表示されたアイコン54A、54B、54C、54Dの何れかに向いているか否かについて判断する。ここで、図3(A)に示されるように、本実施形態では、表示部32Lにおける左上の隅にアイコン54Aが表示されており、左下の隅にアイコン54Bが表示されている。アイコン54Aは、オーディオ機器38に対応するアイコンであり、アイコン54Bは、空調装置40に対応するアイコンである。また、表示部32Rにおける右上の隅にアイコン54Cが表示されており、右下の隅にアイコン54Dが表示されている。アイコン54Cは、ヘッドランプ42に対応するアイコンであり、アイコン54Dは、ワイパ装置44に対応するアイコンである。そして、これらのアイコン54A、54B、54C、54Dは、乗員Pの運転の妨げとならないように、半透明の状態で表示されている。
ここで、視線判定部48によって乗員Pの視線がアイコン54A、54B、54C、54Dの何れかに向いていると判断された場合は、ステップS108へ移行する。一方、乗員Pの視線がアイコン54A、54B、54C、54Dの何れにも向いていないと判断された場合は、ステップS104へ戻り、再びセンサ34で乗員Pの視線情報を取得する。
ステップS108では、ECU36の画像出力部46によって視線が向けられたアイコンの表示を変更する。ここでは、一例として、ステップS106で乗員Pの視線が空調装置40のアイコン54Bに向けられたと判断された場合について説明する。この場合、ステップS108では、図3(B)に示されるように、画像出力部46が空調装置40のアイコン54Bを拡大させて、表示部32Lの中央下部に表示させる。
また、画像出力部46は、拡大されたアイコン54Bの横に、「ON?」の文字を表示させる。なお、初期状態で空調装置40が作動していない状態であるため、上記文字を表示させており、空調装置40が作動している状態であった場合には、他の文字を表示させる。例えば、拡大されたアイコン54Bの横に「OFF?」の文字を表示させてもよい。
以上のように、ステップS108で選択したアイコン54Bの表示を変更させることにより、このアイコン54Bに対応する車載機器である空調装置40を操作可能な状態とする。また、このように表示させることで、乗員Pに対して空調装置40が操作可能状態にあることを報せる。
続いて、図5のステップS110では、挙動判定部50によって乗員Pの目が予め設定された挙動をしたか否かについて判断する。ここでは、一例として、乗員Pの片目だけが閉じた状態を所定の挙動と設定しておき、センサ34から取得した目の挙動が、上記挙動をしたか否かについて挙動判定部50が判断する。そして、視線情報に基づいて片目だけが閉じた状態と判断された場合は、ステップS112へ移行する。一方、所定の挙動とは異なる挙動であると判断した場合は、ステップS110に戻って再び目の挙動を取得する。
ステップS112では、ECU36の車載機器制御部52によって車載機器の処理を実行させる。ここでは、空調装置40を作動させる(ONにする)。このように、任意のアイコンに視線を向けて、さらに片目だけを閉じることで、ステアリングホイール26から手を離すことなく、車載機器の所定の処理を実行させることができる。
なお、ステップS108でアイコン54Bを拡大表示したが、拡大表示を行ってから所定の時間が経過した場合には、図3(A)に示される初期状態へ戻す処理を行ってもよい。
また、上記の説明では、車載機器として空調装置40に処理を実行させる場合について説明したが、オーディオ機器38、ヘッドランプ42及びワイパ装置44についても同様の手順で処理を実行させることができる。例えば、オーディオ機器38であれば、図5のステップS108で、図3(B)のアイコン54Bの位置にアイコン54Aを拡大して表示させる。そして、ステップS112では、オーディオ機器38を作動又は停止させる。すなわち、曲の再生又は停止を行う。
また、ヘッドランプ42であれば、図5のステップS108で、図3(A)のアイコン54Cを拡大させて、表示部32Rの中央下部に表示させる。また、図5のステップS112では、ヘッドランプ42をロービームからハイビームに切り替える、又はハイビームからロービームに切り替える。
さらに、ワイパ装置44であれば、図5のステップS108で、図3(A)のアイコン54Dを拡大させて、表示部32Rの中央下部に表示させる。また、図5のステップS112では、ワイパ装置44を作動又は停止させる。すなわち、フロントウインドシールドガラス20の払拭を開始又は停止させる。
(作用並びに効果)
次に、本実施形態の作用並びに効果を説明する。
本実施形態に係る車載機器操作装置10では、上述したように、装着部30と透明の表示部32L、Rとを含んでウェアラブル機器28が構成されており、このウェアラブル機器28には、乗員Pの視線を検知するセンサ34が設けられている。また、表示部32L、32Rに車載機器のアイコンを表示させ、乗員Pの視線がアイコンへ向けられていると判断した場合に、アイコンに対応する車載機器を操作可能な状態とする。これにより、乗員Pが操作キーなどを直接手で操作することなく車載機器を操作可能な状態とすることができる。
また、乗員Pの目の前に配置される表示部32に車載機器のアイコンが表示されるため、表示部32が乗員Pから離れた場所に設けられた構成と比較して、乗員Pの視線情報を精度良く検知することができる。このように、視線情報に基づいて車載機器を操作可能な車載機器操作装置10において、視線情報を精度良く検知することができる。
さらに、本実施形態では、目の挙動によって車載機器に対して特定の処理を実行させることができる。このため、乗員Pが操作キー直接手で操作することなく、空調装置40を作動させたり、また、発話する必要がないため、例えば、会話中であっても車載機器の処理を実行させることができる。すなわち、手による操作及び発話による操作を必要とせずに車載機器の処理を実行することができる。
特に、本実施形態のように乗員Pが片目だけを閉じた場合に車載機器に対して処理を実行させることで、瞬きなどの乗員Pの自然動作によって車載機器の処理が誤って実行されるのを抑制することができる。すなわち、意図せずに車載機器の処理が実行されるのを抑制することができる。
さらにまた、本実施形態の車載機器操作装置10は、車両本体と通信可能なウェアラブル機器28を備えているため、車両本体側に本体部が設けられた構成と比較して、乗員Pの顔の動きに追従して表示することができる。この効果について、例えば、本体部を運転席14のヘッドレスト18に取り付けて、着座状態の乗員Pの目の前に表示部としてのディスプレイを配置させるようにした構成では、乗員Pの頭部Hとディスプレイとが離間している。このため、頭部Hの動きに合わせてディスプレイを動かすことができず、視線をアイコンに向けるのが困難となる場合がある。これに対して、本実施形態のようにウェアラブル機器28を乗員Pの頭部Hに装着する構成では、頭部Hが動いた場合でも乗員Pの目と表示部32L、32Rとの相対位置が変わらないため、視線情報を検知精度を良好に維持することができる。
また、本実施形態では、オーディオ機器38、空調装置40、ヘッドランプ42及びワイパ装置44を操作できるように構成されている。このため、これらの車載機器の操作パネル等を運転者から手が届くインストルメントパネル22などに配置する必要がなくなり、車室内の意匠の自由度を向上させることができる。
さらに、本実施形態では、図2に示されるように、ウェアラブル機器28にセンサ34を設けているため、例えば、センサ34が車両本体側に設けられた構成と比較して、センサ34から乗員Pの目までの距離を短くすることができる。この結果、センサ34による視線の検知精度を向上させることができる。
なお、本実施形態では、図3(B)に示されるように、選択されたアイコン54Bを拡大表示するようにしたが、これに限定されず、図6(A)に図示された第1変形例の構成としてもよい。
(第1変形例)
図6(A)に示されるように、本変形例では、表示の方法を異ならせている。初期状態は、図3(A)に示されるように、アイコン54A、54B、54C、54Dが半透明の状態で表示されている。そして、この状態で乗員Pが視線をアイコン54Cに向けた場合、アイコン54Cが半透明から不透明の状態へ変化される。これにより、アイコン54Cに対応するヘッドランプ42が操作可能状態にあることを乗員Pに報せる。
なお、実施形態と同様に片目だけを閉じることで、ヘッドランプ42に対して所定の処理を実行させることができる。ここでいう所定の処理とは、ヘッドランプ42をハイビームに切り替える処理又はロービームに切り替える処理である。
以上のように、選択したアイコンを不透明の状態に変化させれば、アイコンのサイズを変更せずに車載機器が操作可能状態にあることを乗員Pに報せることができる。
また、本実施形態では、空調装置40を作動(ON)させるか停止(OFF)させるかの処理を実行する例について説明したが、これに限定されず、図6(B)の第2変形例の構成としてもよい。
(第2変形例)
本変形例では、図3(A)に図示されたアイコン54Bが選択されると、図6(B)に示されるように、アイコン54Bがアイコン54Eへ変化する。また、表示部32Lの中央上部には、上向きの矢印を模したアイコン54Fが表示されており、表示部32Lの中央下部には、下向きの矢印を模したアイコン54Gが表示されている。本変形例では、この状態でアイコン54Gに対応する空調装置40の風量の強弱を調節できる構成である。
具体的には、図6(B)の状態は、空調装置40を操作可能な状態となっており、この状態で所定の目の挙動を検知して、挙動に応じた処理を実行させる。ここで、図6(B)のアイコン54Gでは、長さの異なる5本のバーが表示されており、左側の3本のバーが不透明に表示されている。一方、右側の2本のバーが半透明に表示されている。すなわち、この状態では、最大風量を5としたときに、3の風量で空調装置40が作動していることを示している。
この状態から、例えば、乗員Pが一方の目を閉じ、さらに他方の目の視線を上下に移動させることで、センサ34を介して挙動判定部50が所定の挙動であると判断して処理を実行させる。一方の目を閉じ、他方の目の視線を水平方向から上側へ移動させると、空調装置40の風量を1つ増やして4の風量となるように処理を実行させる。また逆に、一方の目を閉じ、他方の目の視線を水平方向から下側へ移動させると、空調装置40の風量を1つ減らして2の風量となるように処理を実行させる。
なお、他の挙動によって風量の調節を行ってもよい。例えば、両目の視線を水平方向から上側へ移動させることで風量を増やすように処理を実行してもよい。
また、上記変形例では、空調装置40についてのみ説明したが、他の車載機器であっても同様に処理を実行させることができる。例えば、オーディオ機器38であれば、音量の調節や、曲の選択を行うことができる。また、ワイパ装置44であれば、ワイパの払拭速度を調節できる。
以上、本発明の実施形態及び変形例に係る車載機器操作装置10について説明したが、本発明の要旨を逸脱しない範囲において、種々なる態様で実施し得ることは勿論である。例えば、上記実施形態及び変形例では、視線判定部48によって視線がアイコンに向けられていると判断した場合にアイコンに対応する車載機器を操作可能な状態とし、この後に挙動判定部50で挙動を判断して処理を実行させたが、これに限定されない。他の方法として、音声によって処理を実行させてもよい。この場合、例えば、ウェアラブル機器28又は車両本体側にマイクを設けておき、図3(B)に示されるように、空調装置40が操作可能な状態で、マイクから入力された音声信号から特定のキーワードを検知して処理を実行してもよい。すなわち、乗員が「ON」と発話した場合に、特定のキーワードと一致すると判断して空調装置40を作動させるようにしてもよい。
また、上記実施形態及び変形例では、図2に示されるように、ウェアラブル機器28にセンサ34を設けたが、これに限定されず、車両本体側にセンサを設けてもよい。この場合、車室内におけるルームミラー(不図示)に乗員Pの視線を検知可能なカメラ等を設けて、このカメラによって乗員Pの視線及び目の挙動を取得する方法などがある。
さらに、上記実施形態及び変形例では、運転席14に着座した運転者がウェアラブル機器28を装着した状態を説明したが、これに限定されず、他の乗員がウェアラブル機器28を装着して車載機器を操作してもよい。また、複数の乗員がそれぞれウェアラブル機器28を装着してもよい。
10 車載機器操作装置
28 ウェアラブル機器(本体部)
30 装着部
32 表示部
34 センサ(視線検知部、挙動検知部)
36 ECU(制御部)
38 オーディオ機器(車載機器)
40 空調装置(車載機器)
42 ヘッドランプ(車載機器)
44 ワイパ装置(車載機器)
54A アイコン
54B アイコン
54C アイコン
54D アイコン
P 乗員
H 頭部

Claims (6)

  1. 乗員の頭部に装着される装着部と、前記装着部が装着された状態で乗員の目の前に配置される透明の表示部とを含んで構成された本体部と、
    前記本体部又は車両本体に設けられ、乗員の視線を検知する視線検知部と、
    前記表示部に車載機器のアイコンを表示させると共に、前記視線検知部からの信号に基づいて乗員の視線が前記アイコンへ向けられていると判断した場合に、前記アイコンに対応する車載機器を操作可能な状態とする制御部と、
    を有する車載機器操作装置。
  2. 乗員の目の挙動を検知する挙動検知部を備え、
    前記制御部は、前記車載機器が操作可能な状態で前記挙動検知部によって検知された目の挙動が予め設定された挙動であると判断した場合に、前記車載機器に対して特定の処理を実行させる請求項1に記載の車載機器操作装置。
  3. 前記制御部は、前記挙動検知部によって乗員の片目だけが閉じた状態を検知した場合に前記車載機器に対して処理を実行させる請求項2に記載の車載機器操作装置。
  4. 前記本体部は、車両本体と通信可能で運転者に装着されるウェアラブル機器である請求項1〜3の何れか1項に記載の車載機器操作装置。
  5. 前記車載機器は、オーディオ機器、空調装置、ワイパ装置及びヘッドランプの少なくとも一つを含む請求項1〜4の何れか1項に記載の車載機器操作装置。
  6. 前記視線検知部は、前記本体部に設けられている請求項1〜5の何れか1項に記載の車載機器操作装置。
JP2017254743A 2017-12-28 2017-12-28 車載機器操作装置 Pending JP2019121102A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017254743A JP2019121102A (ja) 2017-12-28 2017-12-28 車載機器操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254743A JP2019121102A (ja) 2017-12-28 2017-12-28 車載機器操作装置

Publications (1)

Publication Number Publication Date
JP2019121102A true JP2019121102A (ja) 2019-07-22

Family

ID=67307808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254743A Pending JP2019121102A (ja) 2017-12-28 2017-12-28 車載機器操作装置

Country Status (1)

Country Link
JP (1) JP2019121102A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands
JP2015133088A (ja) * 2014-01-16 2015-07-23 カシオ計算機株式会社 Guiシステム、表示処理装置、入力処理装置及びプログラム
JP2015170175A (ja) * 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、および情報処理方法
JP2016161734A (ja) * 2015-03-02 2016-09-05 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
JP2016212022A (ja) * 2015-05-12 2016-12-15 富士通テン株式会社 情報表示装置および情報表示方法
JP2017120488A (ja) * 2015-12-28 2017-07-06 セイコーエプソン株式会社 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2017182500A (ja) * 2016-03-30 2017-10-05 富士通株式会社 入力装置、入力プログラム、及び入力方法
JP2017182217A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands
JP2015133088A (ja) * 2014-01-16 2015-07-23 カシオ計算機株式会社 Guiシステム、表示処理装置、入力処理装置及びプログラム
JP2015170175A (ja) * 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、および情報処理方法
JP2016161734A (ja) * 2015-03-02 2016-09-05 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
JP2016212022A (ja) * 2015-05-12 2016-12-15 富士通テン株式会社 情報表示装置および情報表示方法
JP2017120488A (ja) * 2015-12-28 2017-07-06 セイコーエプソン株式会社 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2017182217A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2017182500A (ja) * 2016-03-30 2017-10-05 富士通株式会社 入力装置、入力プログラム、及び入力方法

Similar Documents

Publication Publication Date Title
US20170329329A1 (en) Controlling autonomous-vehicle functions and output based on occupant position and attention
JP5692049B2 (ja) ステアリング位置制御システム
US20160170485A1 (en) Visual line input apparatus
KR20130063911A (ko) 주행중 운전자의 시선 이탈 방지 시스템
JP4481187B2 (ja) 車両用操作装置
JPWO2015125243A1 (ja) 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法
JPWO2015151243A1 (ja) 車両用情報呈示装置
JP5588764B2 (ja) 車載機器操作装置
JP2012140106A (ja) 後方視界支援システム
CN111409689B (zh) 车载装置操作系统
JP2009262635A (ja) インストルメントパネル装置
CN109507799A (zh) 车载hud显示方法和系统
JP2021064906A (ja) 画像表示システム
KR101648021B1 (ko) 시선 인식 기능을 갖는 차량 및 그 제어방법과 시선 인식 시스템
US20180297471A1 (en) Support to handle an object within a passenger interior of a vehicle
JP6686450B2 (ja) メガネ型情報表示装置
JP5666066B2 (ja) 車載用ナビゲーション装置
JP2019121102A (ja) 車載機器操作装置
JP2016006601A (ja) 視線入力装置
JP2009280194A (ja) インストルメントパネル装置
JP7043845B2 (ja) 車両用表示連携制御装置
KR101525351B1 (ko) 휴대용 단말기와 연동하는 차량의 표시 제어시스템
US9536414B2 (en) Vehicle with tactile information delivery system
JP4026471B2 (ja) 車両用視認機器調整装置
JPH05270296A (ja) 車両用操作装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220419