JP2018205429A - 表示制御装置 - Google Patents

表示制御装置 Download PDF

Info

Publication number
JP2018205429A
JP2018205429A JP2017108172A JP2017108172A JP2018205429A JP 2018205429 A JP2018205429 A JP 2018205429A JP 2017108172 A JP2017108172 A JP 2017108172A JP 2017108172 A JP2017108172 A JP 2017108172A JP 2018205429 A JP2018205429 A JP 2018205429A
Authority
JP
Japan
Prior art keywords
information
display
vehicle
calculation unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017108172A
Other languages
English (en)
Inventor
政義 栢野
Masayoshi Kayano
政義 栢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017108172A priority Critical patent/JP2018205429A/ja
Publication of JP2018205429A publication Critical patent/JP2018205429A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】視覚情報と体感情報との不一致を低減できる表示制御装置を提供する。【解決手段】車両80の挙動情報を算出する乗り物情報算出部31と、車両80の室内で表示器60の画面46を見るユーザの水平な基準面に対する頭姿勢情報を算出する絶対頭姿勢算出部34と、算出された挙動情報と、算出された基準面に対する頭姿勢情報とから、ユーザの中耳が検出している体感情報を算出する体感情報算出部35と、算出された体感情報に合わせて変化する映像である体感映像を生成する体感映像生成部36と、生成された体感映像を画面46,91に表示させる体感出力部43,44と、を備える。【選択図】図1

Description

本開示は、車室内の画面に画像を表示する技術に関する。
人は、視覚から得られる運動情報と中耳で体感する運動情報とが一致する場合には違和感を覚えないが、一致しない場合には違和感を覚えることがある。車両などの乗り物の乗員が、車両内でスマートフォンなどの画面を見ている場合、視覚情報は、画面に対する乗員の相対的な変位に関する情報だけであるのに対して、中耳で得られる体感情報は、車両運動に関する情報が含まれる。したがって、この場合、視覚情報と体感情報とが一致せず、乗員は違和感を覚えて乗り物酔いすることがある。
そこで、特許文献1に記載の車載情報提供装置は、車両運動を推定し、推定した車両運動を表すオプティカルフロー画像を生成している。そして、上記車載情報提供装置は、生成したオプティカルフロー画像と乗員に提供する享楽画像との重畳画像を、表示器の画面に表示している。これにより、視覚情報には、車両運動に関する情報が含まれることになる。
特開2006−248450号公報
しかしながら、中耳の体感は、人の姿勢によっても異なる。つまり、車両が同じ運動をしていても、乗員が正面を向いている場合と下を向いている場合とでは、体感情報は異なる。よって、車両運動を考慮しただけでは、視覚情報と体感情報との不一致を十分に低減することができず、乗り物酔いを抑制できない可能性がある。
本開示は、上記実情に鑑みてなされたものであり、視覚情報と体感情報との不一致を低減できる表示制御装置を提供することを目的とする。
本開示は、表示制御装置であって、乗り物情報算出部(31)と、絶対頭姿勢算出部(34)と、体感情報算出部(35)と、体感映像生成部(36)と、体感出力部(43,44)と、を備える。乗り物情報算出部は、乗り物(80)の挙動情報を算出する。絶対頭姿勢算出部(34)は、水平面を基準面として、乗り物の室内で表示器(60)の画面(46,91)を見るユーザの基準面に対する頭姿勢情報を算出する。体感情報算出部(35)は、乗り物情報算出部により算出された挙動情報と、絶対頭姿勢算出部により算出された基準面に対する頭姿勢情報とから、ユーザの中耳が検出している体感情報を算出する。体感映像生成部(36)は、体感情報算出部により算出された体感情報に合わせて変化する映像である体感映像を生成する。体感出力部(43,44)は、体感映像生成部により生成された体感映像を前記画面に表示させる。
本開示によれば、乗り物の挙動情報と、ユーザの基準面に対する頭姿勢情報とから、体感情報が算出される。すなわち、乗り物の挙動情報だけでなくユーザの姿勢を考慮して、ユーザの中耳が検出している体感情報が算出される。そして、算出された体感情報に合わせて変化する体感映像が生成され、生成された体感映像が表示器の画面に表示される。こ
れにより、ユーザは、自身の中耳が検出している体感情報を視覚情報として得ることができる。よって、視覚情報と体感情報との不一致を低減することができる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
表示器の構成を示したブロック図である。 頭部が車両の進行方向を向いている場合における、中耳の体感情報を説明する図である。 頭部が車両の進行方向と異なる方向を向いている場合における、中耳の体感情報を説明する図である。 車両の加速に伴い水面が傾く様子を説明する図である。 第1実施形態に係る酔い軽減映像を表示する処理手順を示すフローチャートである。 表示器の姿勢と頭姿勢と中耳の体感情報との関係を説明する図である。 車両が加減速していないときの酔い軽減映像を示す図である。 車両が加速しているときの酔い軽減映像を示す図である。 車両が減速しているときの酔い軽減映像を示す図である。 表示器が横方向に傾いたときの酔い軽減映像を示す図である。 主映像の表示領域の外側に酔い軽減映像を表示した状態を示す図である。 第2実施形態に係る酔い軽減映像を表示する処理手順を示すフローチャートである。 車室内の壁面と一体化した画面に、酔い軽減映像を表示した状態を示す図である。
以下、図面を参照しながら、発明を実施するための形態を説明する。
(第1実施形態)
<1−1.構成>
まず、本実施形態に係る表示器60の構成について、図1を参照して説明する。本実施形態では、乗り物は車両80を想定しており、表示器60は、車両80の室内でユーザにより使用されるスマートフォンやタブレット端末などの携帯端末を想定している。
車両80は、第1加速度センサ11、及び第1ジャイロセンサ12を備える。第1加速度センサ11は、互いに垂直な3方向の車両80の加速度を検出するセンサである。第1ジャイロセンサ12は、互いに垂直な3方向の軸回りの車両80の角速度を検出するセンサである。第1加速度センサ11及び第1ジャイロセンサ12は、CAN(登録商標)などのネットワークを介して車両80の無線通信機に接続されており、それぞれ、所定の時間間隔でセンサ値を表示器60へ送信する。
表示器60は、CPU30、ROM37、RAM38、OSD回路43、前処理部41、信号処理部42、合成部44、及び表示部45を備える。また、表示器60は、第2加速度センサ21、第2ジャイロセンサ22、及び頭姿勢検出センサ23を備える。
第2加速度センサ21は、互いに垂直な3方向の表示器60の加速度を検出するセンサである。第2ジャイロセンサ22は、互いに垂直な3方向の軸回りの表示器60の角速度を検出するセンサである。第2加速度センサ21及び第2ジャイロセンサ22は、それぞれ、所定の時間間隔でセンサ値をCPU30へ送信する。また、頭姿勢検出センサ23は
、ユーザの頭部に関する情報を検出するセンサである。本実施形態では、頭姿勢検出センサ23は、表示器60に搭載されたカメラであり、ユーザの頭部を撮影した撮影画像を所定の時間間隔でCPU30へ送信する。
CPU30は、ROM37に格納されているプログラムを実行することにより、車両情報算出部31、表示器情報算出部32、第1頭姿勢算出部33、第2頭姿勢算出部34、演算処理部35、及び、映像生成部36の機能を実現する。また、このプログラムの実行により、プログラムに対応する方法が実行される。さらに、これらの機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。また、CPU30は、1つのCPUで構成されていてもよいし、複数のCPUで構成されていてもよい。
CPU30は、上記各機能を実現することで、酔い軽減映像を生成する。図2に示すように、車両80の車室内でユーザが表示器60を使用している場合、表示器60を目72で見て得られる視覚情報と、中耳71で得られる体感情報とが一致せず、ユーザが乗り物酔いすることがある。中耳71は、互いに垂直な3方向で運動情報を検出する。そこで、CPU30は、ユーザが、体感情報を視覚情報として得られるように、酔い軽減映像を生成する。
図4に示すように、コップに水をいれて車室内に置くと、車両80が静止または等速走行している場合には、水面は床面に水平な状態になる。この水平な水面を基準面β1とすると、車両80が加速した場合には、手前側の水面α1は基準面β1よりも上昇し、奥側の水面γ1は基準面β1よりも下降する。このとき、基準面β1と水面α1との位置差ΔDは、中耳71が体感する車両80の挙動に応じた大きさとなる。つまり、水面α1の変化を目72で見ることで、中耳71が体感する車両80の挙動を視覚情報として得られる。よって、CPU30は、図4に示す水面のように、車両80の挙動で変化する酔い軽減映像を生成する。
ただし、図2及び図3に示すように、ユーザの頭姿勢によって、中耳71が検出する体感情報は異なる。よって、CPU30は、車両80の挙動とユーザの頭姿勢を考慮して、中耳71が検出する体感情報を算出し、酔い軽減映像を生成する。なお、CPU30による酔い軽減映像の生成の詳細は後述する。本実施形態では、表示制御装置は、CPU30、OSD43、合成部44、ROM37、及びRAM38を含んで構成されている。
図1に戻って、前処理部41は、ユーザに提示される入力映像を輝度信号と色信号とに分離して、信号処理部42へ出力する。この入力映像は、体感情報に依存することなく表示される映像である。信号処理部42は、入力された輝度信号及び色信号に基づいて、マトリクス状の映像を生成し、合成部44へ供給する。合成部44は、信号処理部42から供給された映像に、OSD回路43で生成された映像を重畳して、表示部45へ供給する。
OSD回路43は、オンスクリーンディスプレイ回路の略であり、画面46上に任意の文字や記号を表示する機能を有する回路である。表示部45は、液晶パネルや有機ELパネルなどの画面46を備え、合成部44から供給された映像を画面46に表示する。
<1−2.処理>
次に、酔い軽減映像を表示する処理手順について、図5のフローチャートを参照して説明する。本処理手順は、表示制御装置が所定周期で繰り返し実行する。
まず、S10では、車両情報算出部31が、第1加速度センサ11及び第1ジャイロセ
ンサ12から送信されたセンサ値を取得する。また、表示器情報算出部32が、第2加速度センサ21及び第2ジャイロセンサ22から送信されたセンサ値を取得する。さらに、第1頭姿勢算出部33が、頭姿勢検出センサ23から送信された撮影画像を取得する。
続いて、S20では、車両情報算出部31が、車両80の姿勢及び挙動に関する車両情報を算出する。具体的には、車両情報算出部31は、車両80の停止または等速度走行の状態から、車両80の姿勢を算出して、この姿勢をベースにする。そして、車両情報算出部31は、車両80のピッチ角、ヨー角、ロール角のいずれかの変化があれば、ベースの姿勢に加算して、車両80の姿勢を逐次更新する。車両の挙動には、3方向の加速度や、ヨー角Φ(°/s)で動いているなどの3方向の角速度が含まれる。また、表示器情報算出部32が、表示器60の姿勢を算出する。具体的には、表示器情報算出部32は、地上の水平面を基準面とし、表示器60の静止時に、基準面に対する表示器60の姿勢を算出して、表示器60の運動時に、第2ジャイロセンサ22のセンサ値を用いて、表示器60の姿勢を逐次更新する。基準面に対する表示器60の姿勢は、図6に示すように、基準面に対する表示器60の画面46の角度である姿勢角度θ2である。
また、第1頭姿勢算出部33は、頭姿勢検出センサ23から送信された撮影画像から、ユーザの頭部70を認識し、表示器60に対するユーザの頭姿勢を算出する。表示器60に対するユーザの頭姿勢は、図6に示すように、ユーザの頭部の中心を通る鉛直方向の軸を中心軸とし、中心軸に平行で左右の中耳71を通る断面を中耳断面とすると、表示器60の画面46に対する中耳断面の角度である姿勢角度θ3である。姿勢角度θ3は、相対的なユーザの頭姿勢を示す。
さらに、第2頭姿勢算出部34は、表示器情報算出部32により算出された姿勢角度θ2と、第1頭姿勢算出部33により算出された姿勢角度θ3とから、基準面に対するユーザの頭姿勢を算出する。基準面に対するユーザの頭姿勢は、図2に示すように、基準面に対する中耳断面の角度である姿勢角度θ1であり、θ1=θ2+θ3である。姿勢角度θ1は、絶対的なユーザの頭姿勢を示す。ただし、車両80が坂道などの走行中で、基準面に平行でない場合は、基準面に対する車両80の角度θ4を加味し、姿勢角度θ1は、θ1=θ2+θ3−θ4とする。つまり、姿勢角度θ1は、車両80の床の水平面に対するユーザの頭姿勢を表す。
続いて、S30では、演算処理部35が、中耳71の体感情報を算出する。具体的には、演算処理部35は、図6に示すように、S20で算出した姿勢角度θ1を用いて、車両80の加速度A1を、車両80の進行方向に平行な鉛直断面上でユーザの頭姿勢に合わせた軸に分解する。ユーザの頭姿勢に合わせた軸は、中耳71を通り中心軸に平行なy軸とy軸に垂直で顔面方向のx軸である。つまり、演算処理部35は、加速度A1をx軸方向の成分である加速度A1x=A1×sinθ1と、y軸方向の成分である加速度A1y=A1×cosθ1とに分解する。そして、加速度A1xが、頭姿勢に合わせた車両80の加速度、すなわち中耳71の体感情報となる。
続いて、S40では、映像生成部36が、酔い軽減映像を生成する。具体的には、映像生成部36は、酔い軽減映像として、図7〜図11に示すように、標準線Rlと体感線Slとを含む映像を生成する。図7は、車両80が基準面に水平で加減速しておらず、つまり、車両80が基準面に水平で静止または等速走行しているとのときの画面46を示す。図7に示すように、標準線Rlは、車両80が基準面に水平で加減速していない場合の体感情報を表す線である。ここでは、標準線Rlは、画面46の横方向に水平な直線であり、画面46の縦方向の中央の位置に示される。
標準線Rlは、標準となる体感情報以外の情報も示すようにしてもよい。例えば、標準
線Rlを、表示器60のバッテリ残量が多いほど上の位置に表示されるようにし、標準線Rlの位置を、表示器60のバッテリ残量に応じて変化させるようにしてもよい。あるいは、標準線Rlを、表示器60の受信電波強度が強いほど上の位置に表示されるようにし、標準線Rlの位置を、表示器60の受信電波強度に応じて変化させるようにしてもよい。
また、体感線Slは、標準線Rlに対して体感情報すなわち加速度A1xに応じた位置関係となるように位置が変化する波線である。図8は車両80が加速している場合の画面46を示し、図9は車両80が減速している場合の画面46を示す。標準線Rlと体感線Slとの距離の差分ΔLが、加速度A1xの大きさに応じた値とされる。そして、車両80が加速している場合は、標準線Rlよりも下側に体感線Slが表示され、車両80が減速している場合は、標準線Rlよりも上側に体感線Slが表示される。また、図10は、ユーザが表示器60を横に傾けたときの画面46を示す。この場合、標準線Rlは、体感線Slに対して、表示器60の傾き角度に相当する角度だけ傾くように表示される。
続いて、S50では、OSD回路43及び合成部44が、信号処理部42から供給された主映像に、S40で生成された酔い軽減映像を合成し、図7〜図10に示すように、合成映像を画面46に表示させる。なお、主映像に酔い軽減映像を重ねて表示しなくてもよい。図11に示すように、画面46において、主映像を表示する表示領域46aの外側の表示領域46bに、酔い軽減映像を表示するようにしてもよい。また、画面46の外枠の一部分47に、液晶パネルや有機ELパネルなどを設けて、酔い軽減映像を表示してもよい。
また、演算処理部35が、ユーザの乗り物酔いの進行度合を判定し、乗り物酔いの進行度合が予め設定された閾値を超えた場合に限って、酔いの進行を抑制するために、酔い軽減映像を画面46などに表示させるようにしてもよい。乗り物酔いの進行度合いは、例えば、差分ΔLの積算値で判定してもよいし、車両80の進行方向とユーザの顔の向きとの差で判定してもよい。さらに、この場合、判定した乗り物酔いの進行度を画面46などに表示させてもよい。また、ユーザが、表示された酔い軽減映像と自身の体感とで不一致を感じた場合には、姿勢角度θ1のキャリブレーションを行うようにしてもよい。以上で本処理を終了する。
なお、本実施形態では、車両情報算出部31、表示器情報算出部32、第1頭姿勢算出部33、及び第2頭姿勢算出部34が、特許請求の範囲の乗り物挙動算出部、表示器姿勢算出部、相対頭姿勢算出部、絶対頭姿勢算出部に相当する。また、演算処理部35が、特許請求の範囲の体感情報算出部及び酔い判定部に相当し、映像生成部36が、特許請求の範囲の体感映像生成部に相当する。さらに、OSD回路43及び合成部44が、特許請求の範囲の体感出力部に相当し、酔い軽減映像、標準線Rl、体感線Slが、特許請求の範囲の体感映像、標準表示、体感表示に相当する。また、第1加速度センサ11及び第1ジャイロセンサ12が、特許請求の範囲の車載センサに相当し、頭姿勢検出センサ23が、特許請求の範囲の表示器センサに相当する。
<1−3.効果>
以上説明した第1実施形態によれば、以下の効果が得られる。
(1)車両80の挙動情報と、ユーザの姿勢角度θ1とから、体感情報である加速度A1xが算出される。そして、算出された加速度A1xに合わせて変化する酔い軽減映像が生成され、生成された酔い軽減映像が画面46に表示される。これにより、ユーザは、自身の中耳が検出している体感情報を視覚情報として得ることができるため、視覚情報と体感情報との不一致を低減することができる。
(2)基準面に対する表示器60の姿勢角度θ2と、表示器60に対するユーザの姿勢角度θ3とから、基準面に対するユーザの姿勢角度θ1を算出することができる。
(3)標準線Rlと体感線Slとの差分ΔLを加速度A1xに応じた値とすることにより、ユーザは、標準線Rlに対する体感線Slの相対的な位置から、中耳71の体感情報を視覚情報として得ることができる。
(4)標準線Rlの位置を、表示器60のバッテリ残量または受信電波強度に応じて変化させることにより、ユーザは、中耳71の体感情報に加えて、表示器60のバッテリ残量または受信電波の強度も視覚情報として得ることができる。
(5)ユーザの乗り物酔いの進行度合が閾値を超えた場合に限って、体感映像を画面46に表示させることにより、乗り物酔いの進行度合が低い場合には、体感映像を不表示にして、ユーザが不要な体感映像にわずらわされることを防止することができる。また、乗り物酔いの進行度合いが高い場合には、体感映像を表示して、ユーザの乗り物の酔いの進行を抑制することができる。
(6)主映像を表示する表示領域46aの外側に、体感映像を表示させることにより、ユーザは、主映像と体感映像とを重ねて見る必要がない。ひいては、ユーザが、体感映像をわずらわしく感じることを抑制することができる。
(第2実施形態)
<2−1.第1実施形態との相違点>
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第1実施形態では、表示器60は、携帯端末で、一人のユーザを対象とした画面46を備えていた。これに対し、第2実施形態では、表示器60は、車室内に設置され、複数のユーザを対象とした画面91を備える点で、第1実施形態と相違する。具体的には、図13に示すように、画面91は、車両80の室内の壁面やダッシュボードの表面に形成され、室内と一体化した有機ELパネルなどである。表示器60は、画面91と車載装置とから構成されていてもよいし、画面91と、画面91に設置された第2加速度センサ21、第2ジャイロセンサ22及び頭姿勢検出センサ23と、いずれかのユーザが利用する携帯端末などとから構成されていてもよい。また、表示器60は、複数の別体の装置から構成されていてもよい。本実施形態では、複数のユーザが画面91を見るため、複数のユーザの頭姿勢を考慮して、酔い軽減映像を生成する。
<2−2.処理>
次に、酔い軽減映像を表示する処理手順について、図12のフローチャートを参照して説明する。本処理手順は、表示制御装置が所定周期で繰り返し実行する。本実施形態では、ユーザを4人と想定しているが、2人や3人、5人以上の場合も同様の処理手順である。
まず、S100では、S10と同様の処理を実行する。このとき、第1頭姿勢算出部33は、頭姿勢検出センサ23により撮影された4人の頭部が撮影された撮影画像を取得する。撮影画像は、1枚に4人の頭部が撮影されたものでもよいし、複数の撮影画像に4人の頭部が分かれて撮影されたものでもよい。
続いて、S110では、S20と同様に、車両80の姿勢及び挙動と、表示器60の姿勢角度θ2とを算出する。また、第1頭姿勢算出部33は、撮影画像から4人の頭部70
をそれぞれ認識し、4人のユーザの姿勢角度θ3をそれぞれ算出する。さらに、第2頭姿勢算出部34は、4人のユーザの姿勢角度θ1をそれぞれ算出する。
続いて、S120では、演算処理部35が、S110で算出した4人の姿勢角度θ1を平均して、平均角度θ1avを算出する。このとき、演算処理部35は、4人のユーザの乗り物酔いの進行度合を判定し、乗り物酔いの進行度合が閾値を超えたユーザの姿勢角度θ1だけを平均して、平均角度θ1avを算出してもよい。つまり、酔い軽減映像は、乗り物酔いのリスクが高いユーザにとって有効であり、乗り物酔いのリスクが低いユーザには不要であるため、乗り物酔いしやすいユーザの姿勢角度θ1だけを平均して、平均角度θ1avを算出してもよい。なお、ここでの平均は、乗り物酔いしやすいユーザが一人だけの場合に、そのユーザの姿勢角度θ1を平均角度θ1avとすることも含める。
続いて、S130〜S150では、姿勢角度θ1の代わりに平均角度θ1avを用いて、S30〜S50と同様の処理を行う。このとき、4人のユーザすべての乗り物酔いの進行度合が閾値以下の場合には、酔い軽減映像を画面91に表示させないようにしてもよい。以上で本処理を終了する。
<2−3.効果>
以上説明した第2実施形態によれば、前述した第1実施形態の効果(1)〜(6)に加え、以下の効果が得られる。
(7)複数のユーザが1つの画面91を見ている場合には、複数のユーザの姿勢角度θ1が平均されて姿勢角度θ1avが算出され、姿勢角度θ1avを用いて体感映像が生成される。よって、複数のユーザが1つの画面91を見ている場合には、複数のユーザに対して、視覚情報と体感情報の不一致を低減することができる。
(8)複数のユーザのうちの乗り物しやすいと判定されたユーザの姿勢角度θ1に限って平均して、姿勢角度θ1avを算出する場合には、乗り物酔いしやすいユーザに合わせて、視覚情報と体感情報の不一致を低減することができる。ひいては、乗り物酔いしやすいユーザの乗り物酔いを抑制することができる。
(他の実施形態)
以上、本開示を実施するための形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(a)上記各実施形態では、体感映像は、標準線Rlと体感線Slとを含んでいるが、標準線Rlは必ずしも体感映像に含まれていなくてもよい。標準線Rlが表示されていなくても、体感線Slの変動を見ることで、ユーザは中耳71の体感情報を視覚情報として得ることができる。
(b)上記各実施形態では、体感情報を線で示しているが、本開示はこれに限定されるものではない。例えば、標準線Rl上の点を始点とし、体感線Slに向かう矢印としてしめしてもよい。この場合、矢印の視点が標準表示となり、矢印の終点が体感表示となる。ユーザが視覚情報として体感情報が得られるのであれば、どのように体感情報を示してもよい。
(c)上記各実施形態では、頭姿勢検出センサ23をカメラとしているが、本開示はこれに限定されるものではない。例えば、頭姿勢検出センサ23は、表示器60に設けられた赤外線レーザでもよいし、ユーザが装着している眼鏡に設けられたカメラや赤外線レーザでもよい。
(d)上記各実施形態では、車両80の挙動情報を、第1加速度センサ11及び第1ジャイロセンサ12のセンサ値から算出しているが、ユーザが装着したウエアラブル機器のセンサの検出値から算出してもよい。ウエアラブル機器のセンサは、加速度センサを含む。
(e)上記各実施形態では、OSD回路43を用いて、酔い軽減映像を画面46,91に表示しているが、OSD回路43は必ずしも必要ではない。例えば、レイヤー層などを用いて、酔い軽減映像を画面46,91に表示してもよい。
(f)上記各実施形態では、乗り物を車両としているが、乗り物は車両に限らず、電車やバス、飛行機などの移動体でもよい。
(g)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
(h)上述した表示制御装置の他、当該表示制御装置を構成要素とするシステム、当該表示制御装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、表示制御方法など、種々の形態で本開示を実現することもできる。
31…車両情報算出部、34…第2頭姿勢算出部、35…演算処理部、36…映像生成部、43…OSD回路、44…合成部、46,91…画面、60…表示器、80…車両。

Claims (10)

  1. 乗り物(80)の挙動情報を算出するように構成された乗り物情報算出部(31)と、
    水平面を基準面として、前記乗り物の室内で表示器(60)の画面(46,91)を見るユーザの前記基準面に対する頭姿勢情報を算出するように構成された絶対頭姿勢算出部(34)と、
    前記乗り物情報算出部により算出された前記挙動情報と、前記絶対頭姿勢算出部により算出された前記基準面に対する頭姿勢情報とから、前記ユーザの中耳が検出している体感情報を算出するように構成された体感情報算出部(35)と、
    前記体感情報算出部により算出された前記体感情報に合わせて変化する映像である体感映像を生成するように構成された体感映像生成部(36)と、
    前記体感映像生成部により生成された前記体感映像を前記画面に表示させるように構成された体感出力部(43,44)と、
    を備える、表示制御装置。
  2. 前記画面(91)は、前記乗り物の室内に設置されており、
    前記画面を見るユーザは複数のユーザを含み、
    前記絶対頭姿勢算出部は、前記複数のユーザの前記基準面に対する頭姿勢情報を平均して、前記基準面に対する頭姿勢情報を算出するように構成されている、
    請求項1に記載の表示制御装置。
  3. 前記画面(91)は、前記乗り物の室内に設置されており、
    前記画面を見るユーザは複数のユーザを含み、
    前記絶対頭姿勢算出部は、前記複数のユーザのうちの乗り物酔いしやすいと判定されたユーザの前記基準面に対する頭姿勢情報を平均して、前記基準面に対する頭姿勢情報を算出するように構成されている、
    請求項1に記載の表示制御装置。
  4. 前記基準面に対する前記表示器の姿勢を算出するように構成された表示器情報算出部(32)と、
    前記ユーザの前記表示器に対する頭姿勢情報を算出するように構成された相対頭姿勢算出部(33)と、を備え、
    前記絶対頭姿勢算出部は、前記表示器情報算出部により算出された前記表示器の姿勢と、前記相対頭姿勢算出部により算出された前記表示器に対する頭姿勢情報とから、前記基準面に対する頭姿勢情報を算出するように構成されている、
    請求項1〜3のいずれか1項に記載の表示制御装置。
  5. 前記体感映像生成部は、前記乗り物が加減速していないときの前記体感情報を表す標準表示と、前記標準情報に対して前記体感情報算出部により算出された前記体感情報に応じた位置関係となるように位置が変化する体感表示と、を含む前記体感映像を生成する、ように構成されている、
    請求項1〜4のいずれか1項に記載の表示制御装置。
  6. 前記体感映像生成部は、前記標準表示の位置が、前記表示器のバッテリ残量、または、前記表示器の受信電波の強度に応じて変化する前記体感映像を生成するように構成されている、
    請求項5に記載の表示制御装置。
  7. 前記ユーザの乗り物酔いの進行度合を判定するように構成された酔い判定部(35)を備え、
    前記体感出力部は、前記酔い判定部により判定された前記進行度合が予め設定された閾値を超えた場合に、前記体感映像を前記画面に表示させるように構成されている、
    請求項1〜6のいずれか1項に記載の表示制御装置。
  8. 前記乗り物情報算出部は、車載センサ(11,12)により検出されたセンサ値、並びに前記ユーザが身に着けているウエアラブル機器のセンサにより検出されたセンサ値の少なくとも一方から、前記乗り物の挙動情報を検出するように構成されている、
    請求項1〜7のいずれか1項に記載の表示制御装置。
  9. 前記相対頭姿勢算出部は、前記表示器が備える表示器センサ(23)により検出された前記ユーザの頭部に関する情報から前記表示器に対する頭姿勢情報を算出するように構成されている、
    請求項4に記載の表示制御装置。
  10. 前記体感出力部は、前記ユーザに提示する映像であって、前記体感情報に依存しない主映像を表示する前記画面の表示領域の外側に、前記体感映像を表示させるように構成されている、
    請求項1〜9のいずれか1項に記載の表示制御装置。
JP2017108172A 2017-05-31 2017-05-31 表示制御装置 Pending JP2018205429A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017108172A JP2018205429A (ja) 2017-05-31 2017-05-31 表示制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017108172A JP2018205429A (ja) 2017-05-31 2017-05-31 表示制御装置

Publications (1)

Publication Number Publication Date
JP2018205429A true JP2018205429A (ja) 2018-12-27

Family

ID=64957077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017108172A Pending JP2018205429A (ja) 2017-05-31 2017-05-31 表示制御装置

Country Status (1)

Country Link
JP (1) JP2018205429A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140487A (ja) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 処理装置、処理方法およびプログラム
WO2024024695A1 (ja) * 2022-07-25 2024-02-01 スタンレー電気株式会社 乗物酔い低減装置、及び乗物酔い低減方法
WO2024116391A1 (ja) * 2022-12-01 2024-06-06 日産自動車株式会社 視覚的信号生成方法及び車両
JP7573613B2 (ja) 2019-12-13 2024-10-25 ノバレス フランス 自動車に組み込まれた、加速度病に対処することを意図した装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140487A (ja) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 処理装置、処理方法およびプログラム
US11592303B2 (en) 2019-02-28 2023-02-28 Toyota Jidosha Kabushiki Kaisha Processing apparatus, processing method, and program
JP7573613B2 (ja) 2019-12-13 2024-10-25 ノバレス フランス 自動車に組み込まれた、加速度病に対処することを意図した装置
WO2024024695A1 (ja) * 2022-07-25 2024-02-01 スタンレー電気株式会社 乗物酔い低減装置、及び乗物酔い低減方法
WO2024116391A1 (ja) * 2022-12-01 2024-06-06 日産自動車株式会社 視覚的信号生成方法及び車両

Similar Documents

Publication Publication Date Title
JP6642432B2 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
JP2018205429A (ja) 表示制御装置
CN104781873B (zh) 图像显示装置、图像显示方法、移动装置、图像显示系统
US9122064B2 (en) Display device, terminal device, and display method
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
EP3340024B1 (en) Information processing device
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
KR20160147735A (ko) 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램
US11899844B2 (en) Robust motion sickness reduction device
JP6212666B1 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
JP2017220224A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
WO2019087623A1 (ja) 表示装置、表示装置の制御方法
JP2019174523A (ja) 慣性力とは反対の姿勢を促す表示装置、並びに表示制御プログラム及び方法
JP7057197B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6966246B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020113291A (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP6738308B2 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
JP7322692B2 (ja) 画像調整装置、バーチャル・リアリティ画像表示システム、及び画像調整方法
JP7443749B2 (ja) 画像調整装置、バーチャル・リアリティ画像表示システム、及び画像調整方法
WO2024135475A1 (ja) 情報処理装置及び情報処理方法
JP6675615B2 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP7443751B2 (ja) バーチャル・リアリティ画像表示システム及びバーチャル・リアリティ画像表示システムの制御方法
JP7443750B2 (ja) バーチャル・リアリティ画像表示システム及びバーチャル・リアリティ画像表示システムの制御方法
JP7380177B2 (ja) バーチャル・リアリティ画像表示システム及びバーチャル・リアリティ画像表示システムの制御方法
JP7379253B2 (ja) 挙動推定システム及び挙動推定方法