JP7439699B2 - Vehicle display device - Google Patents
Vehicle display device Download PDFInfo
- Publication number
- JP7439699B2 JP7439699B2 JP2020143257A JP2020143257A JP7439699B2 JP 7439699 B2 JP7439699 B2 JP 7439699B2 JP 2020143257 A JP2020143257 A JP 2020143257A JP 2020143257 A JP2020143257 A JP 2020143257A JP 7439699 B2 JP7439699 B2 JP 7439699B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- vibration
- control unit
- unit
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 claims description 51
- 238000001514 detection method Methods 0.000 claims description 27
- 230000004044 response Effects 0.000 claims description 6
- 238000000034 method Methods 0.000 description 32
- 230000001953 sensory effect Effects 0.000 description 27
- 238000012806 monitoring device Methods 0.000 description 21
- 239000006059 cover glass Substances 0.000 description 20
- 230000036544 posture Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 210000003128 head Anatomy 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 239000011347 resin Substances 0.000 description 4
- 229920005989 resin Polymers 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001290864 Schoenoplectus Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 229920001971 elastomer Polymers 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 229920003229 poly(methyl methacrylate) Polymers 0.000 description 2
- 239000004926 polymethyl methacrylate Substances 0.000 description 2
- 210000001217 buttock Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 239000000806 elastomer Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Instrument Panels (AREA)
Description
本発明は、車両用表示装置に関する。 The present invention relates to a display device for a vehicle.
従来の車両用表示装置として、特許文献1には、画像を表示する表示部と、表示部の手前に設けられたタッチパネルと、当該パネルを振動させる振動部とを備えるものが記載されている。 As a conventional display device for a vehicle, Patent Document 1 describes one that includes a display section that displays an image, a touch panel provided in front of the display section, and a vibration section that vibrates the panel.
また、パネルを振動させる技術として、特許文献2には、ユーザがタッチパネルに行ったタッチ操作に応じて当該パネルを振動させることにより、ユーザに感覚によって認識可能なフィードバック(以下、感覚フィードバックと言う。)を与えるハプティクスを応用したデバイスが記載されている。
Further, as a technique for vibrating a panel,
特許文献1に記載の車両用表示装置の構造では表示部の手前にパネル装置があるため、表示部の所定位置を視認する際に、表示部の正面から傾倒した方向にユーザの視線があると、当該所定位置に対して視差が生じる。特に、当該装置が用いられる車両内では、ユーザの位置や種別(例えば、運転者、同乗者といった種別)によって、前記の視差が生じやすい状況にある。この種の構造にハプティクスを適用した場合、前記の視差に起因して、制御システムがタッチ操作を受け付けて振動として感覚フィードバックを与える位置と、ユーザがタッチ操作を行った位置にずれが生じ、適切に感覚フィードバックを行えない虞がある。 In the structure of the vehicle display device described in Patent Document 1, there is a panel device in front of the display section, so when viewing a predetermined position of the display section, if the user's line of sight is in a direction tilted from the front of the display section, , parallax occurs with respect to the predetermined position. In particular, in a vehicle in which the device is used, the above-mentioned parallax is likely to occur depending on the position and type of user (eg, type of driver, passenger, etc.). When haptics is applied to this type of structure, due to the above-mentioned parallax, the position where the control system accepts the touch operation and provides sensory feedback in the form of vibrations and the position where the user performs the touch operation may be misaligned, resulting in an appropriate There is a risk that sensory feedback may not be possible.
本発明は、上記実情に鑑みてなされたものであり、タッチ操作に対する感覚フィードバックを適切に実行できる車両用表示装置を提供することを目的とする。 The present invention has been made in view of the above-mentioned circumstances, and an object of the present invention is to provide a display device for a vehicle that can appropriately perform sensory feedback in response to a touch operation.
上記目的を達成するため、本発明に係る車両用表示装置は、
画像を画面に表示する表示部と、
前記画面に設定された有効領域に対して行われたユーザによるタッチ操作を検出する操作検出部と、
前記操作検出部が前記有効領域に対して行われた前記タッチ操作を検出したことに応じて、前記有効領域に含まれる特定位置に振動を与えることが可能な振動制御部と、
前記表示部に対する前記ユーザの位置であるユーザ位置を推定するユーザ推定部と、を備え、
前記振動制御部は、前記ユーザ推定部によって推定された前記ユーザ位置に応じて前記特定位置を補正可能であり、前記特定位置を補正した場合は、当該補正後の位置である補正位置に振動を与える。
In order to achieve the above object, a vehicle display device according to the present invention includes:
a display section that displays images on a screen;
an operation detection unit that detects a touch operation performed by a user on an effective area set on the screen;
a vibration control unit capable of applying vibration to a specific position included in the effective area in response to the operation detection unit detecting the touch operation performed on the effective area;
a user estimation unit that estimates a user position that is a position of the user with respect to the display unit;
The vibration control unit is capable of correcting the specific position according to the user position estimated by the user estimation unit, and when the specific position is corrected, the vibration control unit applies vibration to the corrected position that is the corrected position. give.
本発明によれば、タッチ操作に対する感覚フィードバックを適切に実行できる。 According to the present invention, sensory feedback for touch operations can be appropriately performed.
本発明の一実施形態について図面を参照して説明する。 An embodiment of the present invention will be described with reference to the drawings.
本実施形態に係る車両用表示装置10は、図1に示すように、車両用表示システムSの一部を構成する。車両用表示システムSは、車両1に搭載され、車両用表示装置10と、視線検出装置20と、シート状態監視装置30と、ミラー状態監視装置40と、を備える。車両用表示システムSは、各部が通信を行って車両用表示装置10に各種情報を表示する。
The
車両用表示装置10は、車両1に関する情報(以下、車両情報と言う。)だけでなく、車両情報以外の情報も統合的にユーザUに表示する。また、車両用表示装置10は、ユーザUの指F(図2参照)によるタッチ操作で操作可能である。タッチ操作は、図2に示すように、車両1の運転席2に着座したドライバU1と、助手席3に着座した同乗者U2の双方によって可能となっている。この実施形態では、車両1がRHD(Right Hand Drive)であるものとする。
The
車両用表示装置10は、図1に示すように、表示ユニット100と、制御装置200と、を備える。
The
表示ユニット100は、例えばCID(Center Information Display)であり、図2に示すように、車両1の室内において、ドライバU1及び同乗者U2の双方に視認可能な位置に設けられている。表示ユニット10は、例えば、ダッシュボード4(インストルメントパネル)に設けられている。
The
表示ユニット100は、図1及び図3に示すように、表示部110と、タッチセンサ120と、振動発生部130と、を備える。また、表示ユニット100は、図3に示すように、ケース140と、ホルダ150と、カバーガラス160と、弾性支持体170と、を備える。
The
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)等から構成され、制御装置200の制御の下で、前面110aに画像を表示する。表示ユニット100全体で考えると、表示部110が前面110aに表示した画像は、後述のタッチセンサ120及びカバーガラス160を透過して、表示ユニット100の画面100aに表示される。つまり、表示部110は、画面100aに画像を表示する。この実施形態では、画面100aは、後述するカバーガラス160の表面に相当する。表示部110は、例えば、正面視で矩形状をなす。
The
タッチセンサ120は、例えば静電容量方式のセンサシートであり、ユーザUの指Fが画面100a(正確には、後述するカバーガラス160の表面)に接触したことを示すタッチ情報を制御装置200に供給する。タッチ情報は、画面100aにおいて指Fが接触した位置を示すタッチ位置も含む。タッチセンサ120は、透光性を有し、表示部110の手前に位置するとともに画面100aに対応する範囲に渡って設けられている。
The
振動発生部130は、制御装置200の制御の下で、画面100aにおける任意の位置に振動を与える。振動発生部130は、図3に示すように、後述のホルダ150の外底面に設置された複数の振動子131から構成される。振動子131は、例えば、リニア共振アクチュエータ方式、偏心回転質量方式、ピエゾアクチュエータ方式等の公知の振動アクチュエータから構成される。各振動子131は、制御装置200の制御によって選択的に駆動され、図4に示すように、画面100aに設定された複数の振動可能位置Pのうち任意の位置に振動を付与可能に配列されている。この実施形態では、振動可能位置Pはマトリクス状に設定されている。なお、振動子131の個数及び設置箇所は、所望の振動可能位置Pに振動を付与することができる限りにおいては任意であり、公知の技術を適宜採用することができる。例えば、振動子131は、カバーガラス160の端部に設置されていてもよい。また、表示部110が表示する画像の視認性を妨げない限りにおいては、カバーガラス160における表示部110と重なる位置に振動子131を設置してもよい。
The
ケース140は、樹脂により形成され、開口する箱状をなす。ケース140は、ダッシュボード4に固定される。
The
ホルダ150は、表示部110を保持するものであり、金属又は樹脂により形成され、ケース140と同一方向に向かって開口する箱状をなす。ホルダ150は、ケース140内に収容される。
The
カバーガラス160は、例えば、ポリメタクリル酸メチル樹脂(PMMA)などの透光性を有する樹脂から形成された板状の部材である。カバーガラス160は、ホルダ150に、ホルダ150の開口部を塞ぐ態様で設置される。カバーガラス160の背面には、タッチセンサ120が積層されている。つまり、タッチセンサ120は、カバーガラス160と表示部110の間に位置する。例えば、タッチセンサ120は、表示部110と若干の間隔を空けて対向する。
The
弾性支持体170は、ケース140に対してホルダ150を支持するものであり、例えば、ホルダ150の外周側面とケース140の内周側面の間に位置する。これにより、ホルダ150は、ケース140内で浮いた状態で支持される。弾性支持体170は、ゴム、エラストマー、バネ等の弾性材からなる。振動発生部130が振動すると、ホルダ150、表示部110、タッチセンサ120及びカバーガラス160が一体物として振動する。つまり、振動発生部130の振動により、画面100aを構成するカバーガラス160が振動する。弾性支持体170は、この一体物の振動を許容するとともに、ケース140に振動が伝達することを抑制する。
The
図1に戻って、制御装置200は、車両用表示装置10の全体動作を制御するマイクロコンピュータからなり、CPU(Central Processing Unit)等から構成される制御部210と、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成される記憶部220と、を備える。記憶部220のROMには、後述する感覚フィードバック処理を実行するためのプログラムPG、補正量算出データD1、振動パターンデータD2等の各種データが記憶されている。また、記憶部220のROMには、表示部110の表示画像を生成するための画像パーツデータが記憶されている。また、制御装置200は、図示しない構成として、表示部110、タッチセンサ120及び振動発生部130の各々を駆動するための駆動回路、車両用表示装置10の外部と通信を行うための入出力回路等を備える。なお、制御装置200は、後述の機能を充足する限りにおいては、その構成や配置は任意である。例えば、制御装置200は、互いに通信する複数のコンピュータによって実現されてもよい。
Returning to FIG. 1, the
視線検出装置20は、ユーザUの視線方向を検出する公知の構成であり、赤外線カメラ、ステレオカメラ、TOF(Time of Flight)カメラ等からなる撮像部と、撮像部で撮像した画像のデータ(撮像データ)を解析する視線解析部と、を有する。撮像部の撮像範囲は、ドライバU1と同乗者U2の双方を撮像可能な範囲に設定されている。視線解析部は、撮像データをパターンマッチング法などの公知の手法により画像解析することで、ユーザUの視線方向及びユーザUの視点位置を特定し、これらを示す視線情報を制御装置200に送信する。なお、視点位置は、ユーザUの両眼の代表位置(例えば、両眼の重心)であってもよいし、左右それぞれの眼の位置であってもよい。
The line-of-
シート状態監視装置30は、図5に示すように、シート5の状態を監視する装置であり、第1感圧センサ31と、第2感圧センサ32と、座席位置センサ33と、を有する。第1感圧センサ31は、シート5の背もたれに加わる圧力(以下、シートバック圧力と言う。)を検出する。第2感圧センサ32は、シート5のクッション部(ユーザUの臀部が乗る位置)に加わる圧力(以下、クッション圧力と言う。)を検出する。座席位置センサ33は、シート5の前後方向における位置(以下、座席位置と言う。)を検出する。シート状態監視装置30は、シートバック圧力、クッション圧力及び座席位置を示すシート情報を制御装置200に送信する。なお、シート状態監視装置30は、運転席2及び助手席3のそれぞれのシート情報を制御装置200に送信可能である。
As shown in FIG. 5, the seat
ミラー状態監視装置40は、車両1に設けられた後写鏡の状態を監視する装置である。例えば、ミラー状態監視装置40は、図2に示す、ルームミラー6(室内後写鏡)及びドアミラー7(室外後写鏡)の各々の姿勢を示すミラー状態情報を制御装置200に送信する。前記姿勢は、例えば、ユーザUが調整可能な各ミラーの傾きである。例えば、ミラー状態監視装置40は、各ミラーに設けられたジャイロセンサを含んで構成される。なお、後写鏡が、図示しないカメラによる車両1の後方映像を表示するデジタルミラーである場合、ミラー状態情報は当該カメラのアングルを示すものであってもよい。
The mirror
視線検出装置20、シート状態監視装置30及びミラー状態監視装置40は、前記の各種情報(以下、監視情報とも言う。)を直接、又は、車両1の各部を制御するECU(Electronic Control Unit)を介して、制御装置200に送信する。
The line of
制御部210は、図1に示すように、主な機能として、表示制御部211と、操作検出部212と、振動制御部213と、ユーザ推定部214と、を備える。
As shown in FIG. 1, the
表示制御部211は、表示部110の動作を制御し、画面100aに画像を表示させる。図4に示す画像Gは、画面100aに表示される画像の一例を示す。画像Gは、ユーザUがタッチ操作により操作可能な対象を示す操作用アイコン画像G1,G2を含む。なお、表示制御部211は、操作検出部212の指示に応じて、画像Gの表示内容を切り替えることが可能である。
The
操作検出部212は、タッチセンサ120からのタッチ情報に基づきタッチ操作を検出する。なお、タッチ操作とは、画面100aにユーザUの指Fが接触又は近接することでなされる所定機器(表示部110を含む。)に対する操作を言う。操作検出部212は、検出したタッチ操作が画面100aに設定された有効領域に対して行われたか否かを判別する。以下では、説明の理解を容易にするため、タッチセンサ120が検出可能なタッチ位置が、図4に示す振動可能位置Pと対応するものと仮定する。実際には、タッチセンサ120の分解能と振動可能位置Pとの各設定は任意であり、タッチセンサ120に設定されたタッチ位置を示す座標が、図4に示す各振動可能位置Pよりも細かくてもよいことは勿論である。
図4に示す例では、操作用アイコン画像G1に対するユーザUによるタッチ操作の有効領域A1は、2行2列目の位置(2,2)、2行3列目の位置(2,3)、2行4列目の位置(2,4)の3マスからなる領域に設定されている。操作検出部212は、有効領域A1に対してタッチ操作が行われたと判別した場合は、操作用アイコン画像G1に対する操作が行われたとして、表示制御部211に対する表示内容の切り替え指示を行ったり、当該操作対象に対して操作内容を示す信号を出力したりする。操作用アイコン画像G1は、図示しないミュージックプレイヤーに対する操作が可能であることを示す画像である。したがって、操作用アイコン画像G1に対する操作が行われた場合、操作検出部212は、表示制御部211にミュージックプレイヤーに関する詳細表示を表す画面に切り替える指示を行ったり、ミュージックプレイヤーに音楽再生指示を示す信号を出力したりする。
また、操作用アイコン画像G2に対するユーザUによるタッチ操作の有効領域A2は、4行2列目の位置(4,2)、4行3列目の位置(4,3)、4行4列目の位置(4,4)の3マスからなる領域に設定されている。操作検出部212は、有効領域A2に対してタッチ操作が行われたと判別した場合は、操作用アイコン画像G2に対する操作が行われたとして、表示制御部211に対する表示内容の切り替え指示を行ったり、当該操作対象に対して操作内容を示す信号を出力したりする。操作用アイコン画像G2は、図示しないカーナビゲーション装置に対する操作が可能であることを示す画像である。したがって、操作用アイコン画像G2に対する操作が行われた場合、操作検出部212は、表示制御部211にカーナビゲーション装置に関する詳細表示を表す画面に切り替える指示を行ったり、カーナビゲーション装置に関する各種設定操作を示す信号を出力したりする。
The
In the example shown in FIG. 4, the effective area A1 for the touch operation by the user U on the operation icon image G1 is the position (2, 2) in the second row and second column, the position (2, 3) in the second row and third column, It is set in an area consisting of three squares at the position (2, 4) of the 2nd row and 4th column. If the
In addition, the effective areas A2 for the touch operation by the user U on the operation icon image G2 are the position (4, 2) of the 4th row and 2nd column, the position (4, 3) of the 4th row and 3rd column, and the position (4, 3) of the 4th row and 4th column. It is set in an area consisting of three squares at position (4, 4). When the
振動制御部213は、操作検出部212が有効領域に対して行われたタッチ操作を検出したことに応じて、振動発生部130を構成する振動子131を選択的に駆動し、当該有効領域に含まれる特定位置に振動を与える。これにより、タッチ操作を行ったユーザUは、自身が行ったタッチ操作が受け付けられたことを、画面100aの特定位置で発生して指Fに伝わる振動で感覚的に把握することができる。例えば、図4に示す有効領域A1に対してタッチ操作が行われると、振動制御部213は、有効領域A1に含まれる特定位置Pv1に振動を与える。特定位置Pv1は、2行3列目の位置(2,3)に設定されている。また、図4に示す有効領域A2に対してタッチ操作が行われると、振動制御部213は、有効領域A2に含まれる特定位置Pv2に振動を与える。特定位置Pv2は、4行3列目の位置(4,3)に設定されている。
The
ここで、ユーザUの位置によっては前述の課題で述べた視差が生じる。例えば、図7に示す表示部110の表示位置Pdに、タッチ操作の対象に関連した関連画像(前述の操作用アイコン画像G1等)が表示されていた場合、ユーザUの位置であるユーザ位置Puが画面100aの正面からずれた方向にあると、視差によって、ユーザUは、表示位置Pdから当該方向にずれた位置に当該関連画像を視認することになる。そうすると、振動制御部213が特定位置Pv(前述の特定位置Pv1等)に振動を与えた場合に、画面100aにおける特定位置Pvからずれた位置にユーザUの指Fが触れている虞があり、適切に感覚フィードバックとしての振動をユーザFに伝えることができない可能性がある。なお、図7に示す法線Nは、画面100aの法線を示す。
より具体的に説明すると、例えば、ユーザUがドライバU1である場合、感覚フィードバックとして、振動制御部213が図4に示す特定位置Pv1(2,3)に振動を与えたにもかかわらず、ドライバU1の指F1(図2参照)が図4に示す位置(2,4)に触れている虞がある。また、ユーザUが同乗者U2である場合、感覚フィードバックとして、振動制御部213が図4に示す特定位置Pv1(2,3)に振動を与えたにもかかわらず、同乗者U2の指F2(図2参照)が図4に示す位置(2,2)に触れている虞がある。つまり、視差による感覚フィードバックの位置ずれ現象は、ユーザ位置Puに応じて発生する。なお、ユーザ位置Puは、後述のユーザ推定部214によって推定可能である。
Here, depending on the position of the user U, the parallax described in the above problem occurs. For example, if a related image related to the target of the touch operation (such as the operation icon image G1 described above) is displayed at the display position Pd of the
To explain more specifically, for example, when the user U is the driver U1, even though the
振動制御部213は、上記現象を踏まえ、ユーザ位置Puに応じて振動を与える特定位置Pvを補正可能であり、特定位置Pvを補正した場合は、図7に示すように、補正後の位置である補正位置Paに振動を与える。一例として、振動制御部213は、次に述べる手法で補正位置Paを求める。
Based on the above phenomenon, the
まず、振動制御部213は、予め車両1の室内に設定された三次元座標系における、ユーザ推定部214が推定したユーザ位置Puの座標と、関連画像(前述の操作用アイコン画像G1等)の表示位置Pdの座標とを結ぶ直線Lを求める。直線Lは、ユーザUの視線に相当する。そして、振動制御部213は、画面100aと直線Lの交点を算出し、算出した交点に相当する位置を補正位置Paとする。具体的には、振動制御部213は、図4に示す複数の振動可能位置Pのうち、算出した交点を含むものを補正位置Paとする。つまり、特定位置Pvから補正位置Paまでの補正量ΔPの分だけ特定位置Pvを補正する。補正量ΔPは、画面100aの面内方向におけるベクトル量である。
図4に示す例で説明すれば、特定位置Pv1(2,3)の補正後の補正位置Paが(2,4)であった場合、補正量ΔPは、位置(2,3)から位置(2,4)までずらした量である。特定位置Pv1(2,3)の補正後の補正位置Paが(1,4)であった場合、補正量ΔPは、位置(2,3)から位置(1,4)までずらした量である。つまり、振動制御部213は、画面100aの面内方向において、特定位置Pvをユーザ位置Puに向かってずらした位置を補正位置Paとする。
上記のように、補正位置Pa及び補正量ΔPを算出するための数式データは、補正量算出データD1として記憶部220のROMに予め記憶されている。なお、補正量算出データD1は、ユーザ位置Pu及び表示位置Pdの各座標の組み合わせと、補正位置Paとが関連付けられて構成されたテーブルデータであってもよい。
First, the
To explain using the example shown in FIG. 4, when the corrected position Pa after correction of the specific position Pv1 (2, 3) is (2, 4), the correction amount ΔP is changed from the position (2, 3) to the position ( 2,4). When the corrected position Pa after correction of the specific position Pv1 (2, 3) is (1, 4), the correction amount ΔP is the amount shifted from the position (2, 3) to the position (1, 4). . That is, the
As described above, the mathematical data for calculating the correction position Pa and the correction amount ΔP is stored in advance in the ROM of the
また、振動制御部213は、次に述べるユーザ推定部214が推定したユーザUの種別に応じて特定位置Pv又は補正位置Paに与える振動のパターンを変更する。例えば、車両1の運転席2の前方に、エンジン又はモータからなる車両1の原動機が位置する場合、振動の種類によっては原動機の振動と干渉して、感覚フィードバックとしての振動がユーザUに伝わりづらくなる虞がある。したがって、推定されたユーザUの種別がドライバU1である場合には、同乗者U2である場合と異なるパターンの振動を特定位置Pv又は補正位置Paに与える。ドライバU1である場合に与える振動のパターンを第1パターン、同乗者U2である場合に与える振動のパターンを第2パターンとすれば、第1パターンの振動は、第2パターンの振動と振幅と周波数の少なくともいずれかが異なる。例えば、第1パターンの振動は、第2パターンの振動よりも振幅が大きく、且つ、原動機による振動と干渉しない周波数の振動として予め設定されていればよい。第1パターン及び第2パターンの振動条件を示すデータと、当該振動条件を実現すべく振動発生部130を制御するためのデータは、振動パターンデータD2として記憶部220のROMに予め記憶される。
Further, the
ユーザ推定部214は、視線検出装置20、シート状態監視装置30及びミラー状態監視装置40の少なくともいずれかからの情報に基づき、表示部110に対するユーザUの位置であるユーザ位置Puを推定する。この推定には種々の手法が適用可能であるため、以下、場合分けをして説明する。
The user estimation unit 214 estimates a user position Pu, which is the position of the user U with respect to the
(視線検出装置20からの情報に基づく場合)
ユーザ推定部214は、視線検出装置20から取得した視線情報が含むユーザUの視点位置を、ユーザ位置Puとして推定する。
(When based on information from line of sight detection device 20)
The user estimation unit 214 estimates the viewpoint position of the user U included in the line-of-sight information acquired from the line-of-
(シート状態監視装置30からの情報に基づく場合)
ユーザ推定部214は、シート状態監視装置30からのシート情報に基づき、図6(a)~(c)に示すユーザUの着座姿勢を特定し、特定した着座姿勢に応じてユーザ位置Puを推定する。
図6(a)に示す通常の着座姿勢は、第1感圧センサ31からのシートバック圧力があり、且つ、第2感圧センサ32からのクッション圧力の分布に基づいてシート5のクッション部の後方に荷重が集中している場合に特定される。図6(a)に示す姿勢では、座席位置センサ33が示す座席位置の上方にユーザUの頭部があると想定される。このため、ユーザ推定部214は、座席位置センサ33から取得した座席位置をユーザ位置Puの前後方向における位置とするとともに、予め設定した頭部の高さ情報(例えば標準体型のユーザUの頭の高さ)を考慮し、推定されるユーザ位置Puを算出する。前述のように、ユーザ位置Puは、予め車両1の室内に設定された三次元座標系における座標を示す。
図6(b)に示す背もたれを使わずに着座した姿勢は、第1感圧センサ31からのシートバック圧力が無く、且つ、第2感圧センサ32からのクッション圧力の分布に基づいてシート5のクッション部の後方に荷重が集中している場合に特定される。図6(b)に示す姿勢では、座席位置センサ33が示す座席位置よりも前方にユーザUの頭部があると想定される。このため、ユーザ推定部214は、座席位置センサ33から取得した座席位置を、前方に第1の量だけ移動した位置をユーザ位置Puの前後方向における位置とするとともに、予め設定した頭部の高さ情報を考慮し、推定されるユーザ位置Puを算出する。
図6(c)に示す身を乗り出して着座した姿勢は、第1感圧センサ31からのシートバック圧力が無く、且つ、第2感圧センサ32からのクッション圧力の分布に基づいてシート5のクッション部の前方に荷重が集中している場合に特定される。図6(c)に示す姿勢では、座席位置センサ33が示す座席位置よりも前であって、図6(b)の姿勢よりもさらに前方にユーザUの頭部があると想定される。このため、ユーザ推定部214は、座席位置センサ33から取得した座席位置を、前方に第2の量(前記の第1の量よりも大きい量)だけ移動した位置をユーザ位置Puの前後方向における位置とするとともに、予め設定した頭部の高さ情報を考慮し、推定されるユーザ位置Puを算出する。
(When based on information from the sheet condition monitoring device 30)
The user estimation unit 214 identifies the seating posture of the user U shown in FIGS. 6(a) to 6(c) based on the seat information from the seat
In the normal sitting posture shown in FIG. 6(a), there is a seat back pressure from the first pressure sensor 31, and the cushion portion of the seat 5 is adjusted based on the distribution of the cushion pressure from the second pressure sensor 32. Identified when the load is concentrated at the rear. In the posture shown in FIG. 6A, it is assumed that the head of the user U is above the seat position indicated by the seat position sensor 33. Therefore, the user estimation unit 214 sets the seat position acquired from the seat position sensor 33 as the position of the user position Pu in the front-rear direction, and also sets preset head height information (for example, the height of the head of the user U with a standard body type). The estimated user position Pu is calculated by considering the height). As described above, the user position Pu indicates coordinates in a three-dimensional coordinate system set in advance in the interior of the vehicle 1.
In the seated posture shown in FIG. 6(b) without using the backrest, there is no seat back pressure from the first pressure sensor 31, and the seat 5 is adjusted based on the distribution of cushion pressure from the second pressure sensor 32. This is identified when the load is concentrated at the rear of the cushion section. In the posture shown in FIG. 6(b), it is assumed that the head of the user U is located in front of the seat position indicated by the seat position sensor 33. Therefore, the user estimation unit 214 sets the seat position obtained from the seat position sensor 33 to a position that is moved forward by a first amount as the position of the user position Pu in the front-rear direction, and also sets a preset height of the head. The estimated user position Pu is calculated by taking the information into account.
In the leaning posture shown in FIG. 6(c), there is no seat back pressure from the first pressure sensor 31, and the seat 5 is adjusted based on the distribution of cushion pressure from the second pressure sensor 32. It is identified when the load is concentrated in front of the cushion part. In the posture shown in FIG. 6(c), it is assumed that the head of the user U is in front of the seat position indicated by the seat position sensor 33 and further forward than in the posture shown in FIG. 6(b). For this reason, the user estimation unit 214 moves the seat position acquired from the seat position sensor 33 forward by a second amount (larger amount than the first amount) to a position in the front-rear direction of the user position Pu. In addition to the position, an estimated user position Pu is calculated by taking into account preset head height information.
(ミラー状態監視装置40からの情報に基づく場合)
ユーザ推定部214は、ミラー状態監視装置40からの後写鏡(ルームミラー6、ドアミラー7)の姿勢を示すミラー状態情報に基づき、ユーザUの頭部又は視点位置を演算する。後写鏡を調整するユーザUは通常ドライバU1であるため、ミラー状態情報に基づいて推定可能なユーザ位置Puは、ドライバU1の位置だけである。したがって、ミラー状態情報に基づくユーザ位置Puの推定手法は、前述の他の推定手法と組み合わせて用いられることが好ましい。
(When based on information from mirror status monitoring device 40)
The user estimation unit 214 calculates the head or viewpoint position of the user U based on mirror state information indicating the attitude of the rear view mirror (room mirror 6, door mirror 7) from the mirror
ユーザ推定部214は、以上に述べた複数の手法のうち少なくともいずれかの手法を用いてユーザ位置Puを推定する。なお、複数の手法を組み合わせて用いる場合は、例えば、ユーザ位置Puの推定精度の高い手法による演算結果が支配的になるように、各手法で算出されたユーザ位置Puに対して重み付け演算を行うことができる。 The user estimation unit 214 estimates the user position Pu using at least one of the plurality of methods described above. Note that when using a combination of multiple methods, for example, a weighting calculation is performed on the user position Pu calculated by each method so that the calculation result by the method with high estimation accuracy of the user position Pu becomes dominant. be able to.
また、ユーザ推定部214は、視線検出装置20から取得した視線情報に基づき、予め定められた複数の種別(ドライバU1、同乗者U2)からユーザUの種別を推定する。ユーザ推定部214は、視線情報が示すユーザUの視線方向及び視点位置に基づき、表示部110(表示ユニット100)を視認しているユーザUがドライバU1であるか同乗者U2であるかを特定する。なお、ドライバU1と同乗者U2が同時に表示部110を視認している場合には、例えば、ユーザ推定部214は、より長く表示部110を注視している方をユーザUと特定してもよいし、ドライバU1と同乗者U2の一方のみが特定されるまでユーザUの種別を推定する処理を待機してもよい。
Further, the user estimation unit 214 estimates the type of the user U from a plurality of predetermined types (driver U1, passenger U2) based on the line of sight information acquired from the line of
(感覚フィードバック処理)
続いて、制御部210がプログラムPGに従って実行する感覚フィードバック処理について、図8及び図9を参照して説明する。感覚フィードバック処理は、例えば、車両用表示システムSを構成する各部の動作中において継続して実行される。
(Sensory feedback processing)
Next, the sensory feedback process executed by the
図8に示す感覚フィードバック処理を開始すると、制御部210は、タッチ操作を検出したか否かを判別する(ステップS101)。タッチ操作を検出していない場合は待機する(ステップS101;No)一方、制御部210は、タッチ操作を検出すると(ステップS101;Yes)、そのタッチ操作が有効であるか(つまり、有効領域に対して行われたものであるか)否かを判別する(ステップS102)。タッチ操作が有効でない場合(ステップS102;No)、制御部210は、処理をステップS101に戻す。
When starting the sensory feedback process shown in FIG. 8, the
タッチ操作が有効である場合(ステップS102;Yes)、制御部210は、振動を付与すべき特定位置Pvを決定する(ステップS103)。図4を参照して具体例を説明すると、有効と判別したタッチ操作が有効領域A1で実行された場合、制御部210は、位置(2,3)を特定位置Pv1に決定する。
If the touch operation is valid (step S102; Yes), the
続いて、制御部210は、振動位置補正処理(ステップS200)を図9に示すフローに従って実行し、まず、視線検出装置20から視線情報を取得する(ステップS201)。続いて、制御部210は、取得した視線情報に基づき、ユーザUの種別(ドライバU1か同乗者U2か)を推定する(ステップS202)。
Subsequently, the
続いて、制御部210は、推定したユーザUの種別がドライバU1であるか否かを判別する(ステップS203)。ユーザUがドライバU1である場合(ステップS203;Yes)、制御部210は、付与する振動を第1パターンに決定する(ステップS204)。ユーザUがドライバU1でない、つまり同乗者U2である場合(ステップS203;No)、制御部210は、付与する振動を第2パターンに決定する(ステップS205)。
Subsequently, the
ステップS204又はS205の処理に続いて、制御部210は、視線検出装置20、シート状態監視装置30及びミラー状態監視装置40から、必要な監視情報を取得し(ステップS206)、前述の手法でユーザ位置Puを推定する(ステップS207)。そして、制御部210は、前述のように推定したユーザ位置Puに応じて補正量ΔPを算出し(ステップS208)、振動位置補正処理を終了する。
Following the processing in step S204 or S205, the
図8に戻って、振動位置補正処理(ステップS200)に続いて、制御部210は、振動位置の補正があったか否かを判別する(ステップS104)。具体的には、ステップS208で算出した補正量ΔPが0(ゼロ)であった場合、制御部210は、補正がなかったと判別し(ステップS104;No)、振動発生部130を制御してステップS103で決定した特定位置Pvに振動を一定期間(例えば数秒)だけ発生させる(ステップS105)。一方、ステップS208で算出した補正量ΔPが0(ゼロ)でなかった場合、制御部210は、補正ありと判別し(ステップS104;Yes)、振動発生部130を制御してステップS103で決定した特定位置Pvに補正量ΔPを加味した補正位置Paに振動を一定期間(例えば数秒)だけ発生させる(ステップS106)。具体的に、補正位置Paは、ベクトル量である補正量ΔPが示す大きさ及び方向に、特定位置Pvをずらした位置である。
Returning to FIG. 8, following the vibration position correction process (step S200), the
ステップS105又はS106の実行後、制御部210は、ステップS101に戻って処理を実行する。以上が感覚フィードバック処理である。
After executing step S105 or S106, the
(変形例)
以上の実施形態では、図3に示すように表示部110と平板状のカバーガラス160の間隔が一定である例を示した。しかしながら、図10(a)に模式的に示すように、表示ユニット100には、湾曲したカバーガラス160(例えば、自由曲面形状を有するカバーガラス160)も適用可能である。このように湾曲したカバーガラス160の場合、表示部110との間隔が画面100a内の領域によって異なってくるため、図7を参照して説明した視差の生じ方が画面100a内の領域毎に異なるという現象が生じる。この現象は、図10(a)を参照して概念的に説明すれば、領域B1の方が領域B2よりも大きな視差が生じてしまうといった現象である。この現象を考慮して感覚フィードバック処理を実行すべく、制御部210の振動制御部213は、特定位置Pvを補正する際に、図10(b)に示すように、画面100aを仮想的に分割して得られる複数の制御エリアC1~Cn毎に特定位置Pvから補正位置Paまでの補正量ΔPを制御可能であってもよい。このように制御エリアC1~Cnを設定した場合、例えば、制御部210(振動制御部213)は、図8に示すステップS103で決定した特定位置Pvが制御エリアC1~Cnのいずれに属するかを特定すればよい。そして、制御部210は、図9に示すステップ208で、制御エリアC1~Cnのうち、特定された制御エリアに適した演算を実行し、補正量ΔPを算出すればよい。なお、制御エリアに適した演算とは、当該エリアにおける表示部110とカバーガラス160の間隔、カバーガラス160の厚み及び曲率を考慮した演算であり、考え方は図7を参照して説明した補正量ΔPの算出手法と同様である。
このように制御エリアC1~Cnを設定することにより、エリアに応じた補正量ΔPを算出することができるため、様々な形状の車両用表示装置10においても、発生する視差を考慮した感覚フィードバックの位置補正を適切に実行できる。なお、このように制御エリアC1~Cnを設定すれば、カバーガラス160が凸面を有していても、凹面を有していても適切に感覚フィードバック処理を実行することができる。また、図10(b)では、画面100aを左右方向に分割することで得られる制御エリアの例を示したが、制御エリアは、画面100aにおいてマトリックス状に配列されていてもよいし、上下方向に配列されていてもよい。また、画面100aにおける制御エリアの数も任意である。
(Modified example)
In the above embodiment, as shown in FIG. 3, an example was shown in which the distance between the
By setting the control areas C1 to Cn in this way, it is possible to calculate the correction amount ΔP according to the area, so even in the
なお、本発明は以上の実施形態、変形例、及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。 Note that the present invention is not limited to the above embodiments, modifications, and drawings. It is possible to make changes (including deletion of constituent elements) as appropriate without changing the gist of the present invention.
以上では、画面100aに、タッチ操作の対象(操作対象)に関連した関連画像として、操作対象を示す操作用アイコン画像G1,G2が表示される例を示したが、この例に限られない。関連画像は、操作対象そのものを示す画像でなくてもよく、少なくとも操作対象に関連した画像であればよい。
Although an example has been described above in which the operation icon images G1 and G2 indicating the operation target are displayed on the
以上では、ユーザ位置Puを三次元座標として算出する例を示したが、ユーザ位置Puは二次元座標であってもよい。例えば、ユーザ位置Puが車両1の高さ方向を除いた二次元座標であっても、制御部210は、左右方向の視差を考慮して感覚フィードバック処理を実行することができる。
Although an example has been shown above in which the user position Pu is calculated as three-dimensional coordinates, the user position Pu may be two-dimensional coordinates. For example, even if the user position Pu is a two-dimensional coordinate excluding the height direction of the vehicle 1, the
感覚フィードバック処理を構成する各処理の順序や変更は目的に応じて任意である。例えば、振動制御部213が補正位置Paを求める際に算出する直線Lの傾きが、視線検出装置20からの視線情報が示す視線方向の傾きと予め定めた所定量だけずれている状態が継続している場合には、ユーザUが表示部110を視認していないと見做せるため、制御部210は、ステップS208の処理をスキップしてもよい。また、タッチ操作が画面100aに同時に複数の指Fが触れるマルチタッチの場合であっても、各指Fに対する補正量ΔPを求めて、前述と同様の手法で感覚フィードバック処理を実行することができる。
The order and changes of each process constituting the sensory feedback process are arbitrary depending on the purpose. For example, if the slope of the straight line L that the
タッチ操作の際に画面100aに触れるユーザUの部位は、指F以外の掌の任意の箇所や、手の甲などであってもよいし、ユーザUがグローブを装着している場合における所定部位であってもよい。
The part of the user U who touches the
以上に説明した感覚フィードバック処理を実行するプログラムPGは、記憶部220に予め記憶されているものとしたが、着脱自在の記録媒体により配布・提供されてもよい。また、プログラムPGは、車両用表示装置10と接続された他の機器からダウンロードされるものであってもよい。また、車両用表示装置10は、他の機器と電気通信ネットワークなどを介して各種データの交換を行うことによりプログラムPGに従う各処理を実行してもよい。
Although the program PG for executing the sensory feedback process described above is stored in advance in the
(1)以上に説明した車両用表示装置10は、画像を画面100aに表示する表示部110と、画面100aに設定された有効領域(例えば、有効領域A1,A2)に対して行われたユーザUによるタッチ操作を検出する操作検出部212と、操作検出部212が有効領域に対して行われたタッチ操作を検出したことに応じて、有効領域に含まれる特定位置Pvに振動を与えることが可能な振動制御部213と、表示部110に対するユーザUの位置であるユーザ位置Puを推定するユーザ推定部214と、を備える。振動制御部213は、ユーザ推定部214によって推定されたユーザ位置Puに応じて特定位置Pvを補正可能であり、特定位置Pvを補正した場合は、当該補正後の位置である補正位置Paに振動を与える。
この構成によれば、タッチ操作に対する感覚フィードバックを適切に実行できる。また、タッチ操作が行われた位置に対して単純に感覚フィードバックとしての振動を返す制御では、タッチ操作が受け付けられていないにも関わらず当該振動を返してしまう事態が想定されるが、上記構成によれば、このような事態を回避することができる。
(1) The
According to this configuration, sensory feedback for touch operations can be appropriately performed. In addition, in a control that simply returns vibration as sensory feedback to the position where a touch operation has been performed, it is assumed that the vibration is returned even though the touch operation has not been accepted. According to this, such a situation can be avoided.
(2)また、ユーザ推定部214は、予め定められた複数の種別からユーザUの種別を推定可能であり、振動制御部213は、ユーザ推定部214が推定したユーザUの種別に応じて、特定位置Pv又は補正位置Paに与える振動のパターンを変更する。
この構成によれば、感覚フィードバックとしての振動がユーザUに伝わりづらくなることを回避できる。
(2) Further, the user estimating unit 214 can estimate the type of the user U from a plurality of predetermined types, and the
According to this configuration, it is possible to avoid difficulty in transmitting vibrations as sensory feedback to the user U.
(3)また、変形例で述べたように、振動制御部213は、特定位置Pvを補正する際に、画面100aを仮想的に分割して得られる複数の制御エリアC1~Cn毎に特定位置Pvから補正位置Paまでの補正量ΔPを制御可能であってもよい。
この構成によれば、制御エリアC1~Cnに応じた補正量ΔPを算出することができるため、様々な形状の車両用表示装置10においても、発生する視差を考慮した感覚フィードバックの位置補正を適切に実行できる。
(3) Furthermore, as described in the modification, when correcting the specific position Pv, the
According to this configuration, it is possible to calculate the correction amount ΔP according to the control areas C1 to Cn, so that even in the
(4)また、ユーザ推定部214がユーザ位置Puを推定する際に用いる情報は、ユーザUの視線情報を含んでいてもよい。
この構成によれば、ユーザ位置Puの推定精度が良好である。
(4) Moreover, the information used when the user estimation unit 214 estimates the user position Pu may include the user's U line of sight information.
According to this configuration, the estimation accuracy of the user position Pu is good.
(5)具体的に、振動制御部213は、特定位置Pvをユーザ位置Puに向かってずらした位置(詳しくは、画面100aの面内方向においてずらした位置)を補正位置Paとする。
(5) Specifically, the
(6)具体的に、表示部110は、画面100aにおける特定位置Pvを含む範囲に、タッチ操作の対象に関連した関連画像(例えば、操作用アイコン画像G1,G2)を表示する。
(6) Specifically, the
以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。 In the above description, descriptions of known technical matters have been omitted as appropriate in order to facilitate understanding of the present invention.
S…車両用表示システム
10…車両用表示装置
100…表示ユニット、100a…画面
110…表示部、110a…前面
120…タッチセンサ、130…振動発生部、131…振動子
140…ケース、150…ホルダ、160…カバーガラス、170…弾性支持体
200…制御装置
210…制御部
211…表示制御部、212…操作検出部、213…振動制御部、214…ユーザ推定部
220…記憶部、PG…プログラム、D1…補正量算出データ、D2…振動パターンデータ
20…視線検出装置
30…シート状態監視装置
31…第1感圧センサ、32…第2感圧センサ、33…座席位置センサ
40…ミラー状態監視装置
1…車両、2…運転席、3…助手席、4…ダッシュボード、5…シート
6…ルームミラー、7…ドアミラー
A1,A2…有効領域
C1~Cn…制御エリア
F,F1,F2…指
G…画像、G1,G2…操作用アイコン画像(関連画像の一例)、L…直線
P…振動可能位置
Pv,Pv1,Pv2…特定位置
Pa…補正位置、ΔP…補正量
Pd…表示位置、Pu…ユーザ位置
U…ユーザ、U1…ドライバ、U2…同乗者
S...
Claims (6)
前記画面に設定された有効領域に対して行われたユーザによるタッチ操作を検出する操作検出部と、
前記操作検出部が前記有効領域に対して行われた前記タッチ操作を検出したことに応じて、前記有効領域に含まれる特定位置に振動を与えることが可能な振動制御部と、
前記表示部に対する前記ユーザの位置であるユーザ位置を推定するユーザ推定部と、を備え、
前記振動制御部は、前記ユーザ推定部によって推定された前記ユーザ位置に応じて前記特定位置を補正可能であり、前記特定位置を補正した場合は、当該補正後の位置である補正位置に振動を与える、
車両用表示装置。 a display section that displays images on a screen;
an operation detection unit that detects a touch operation performed by a user on an effective area set on the screen;
a vibration control unit capable of applying vibration to a specific position included in the effective area in response to the operation detection unit detecting the touch operation performed on the effective area;
a user estimation unit that estimates a user position that is a position of the user with respect to the display unit;
The vibration control unit is capable of correcting the specific position according to the user position estimated by the user estimation unit, and when the specific position is corrected, the vibration control unit applies vibration to the corrected position that is the corrected position. give,
Vehicle display device.
前記振動制御部は、前記ユーザ推定部が推定した前記ユーザの種別に応じて、前記特定位置又は前記補正位置に与える振動のパターンを変更する、
請求項1に記載の車両用表示装置。 The user estimation unit is capable of estimating the type of the user from a plurality of predetermined types,
The vibration control unit changes a pattern of vibration applied to the specific position or the correction position according to the type of the user estimated by the user estimation unit.
The vehicle display device according to claim 1.
請求項1又は2に記載の車両用表示装置。 The vibration control unit is capable of controlling a correction amount from the specific position to the correction position for each of a plurality of control areas obtained by virtually dividing the screen when correcting the specific position.
The vehicle display device according to claim 1 or 2.
請求項1乃至3のいずれか1項に記載の車両用表示装置。 The information used by the user estimator to estimate the user position includes line-of-sight information of the user;
The vehicle display device according to any one of claims 1 to 3.
請求項1乃至4のいずれか1項に記載の車両用表示装置。 The vibration control unit sets a position shifted from the specific position toward the user position as the correction position.
The vehicle display device according to any one of claims 1 to 4.
請求項1乃至5のいずれか1項に記載の車両用表示装置。 The display unit displays a related image related to the target of the touch operation in a range including the specific position on the screen.
The vehicle display device according to any one of claims 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020143257A JP7439699B2 (en) | 2020-08-27 | 2020-08-27 | Vehicle display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020143257A JP7439699B2 (en) | 2020-08-27 | 2020-08-27 | Vehicle display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022038647A JP2022038647A (en) | 2022-03-10 |
JP7439699B2 true JP7439699B2 (en) | 2024-02-28 |
Family
ID=80498025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020143257A Active JP7439699B2 (en) | 2020-08-27 | 2020-08-27 | Vehicle display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7439699B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010286986A (en) | 2009-06-10 | 2010-12-24 | Funai Electric Co Ltd | Mobile terminal device |
JP2014131133A (en) | 2012-12-28 | 2014-07-10 | Kyocera Document Solutions Inc | Operation input device and information processing apparatus |
JP2015082300A (en) | 2013-10-24 | 2015-04-27 | アルプス電気株式会社 | Display input device |
WO2018193708A1 (en) | 2017-04-19 | 2018-10-25 | マクセル株式会社 | Head-up display device and display control method therefor |
JP2020107031A (en) | 2018-12-27 | 2020-07-09 | 株式会社デンソー | Instruction gesture detection apparatus and detection method therefor |
-
2020
- 2020-08-27 JP JP2020143257A patent/JP7439699B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010286986A (en) | 2009-06-10 | 2010-12-24 | Funai Electric Co Ltd | Mobile terminal device |
JP2014131133A (en) | 2012-12-28 | 2014-07-10 | Kyocera Document Solutions Inc | Operation input device and information processing apparatus |
JP2015082300A (en) | 2013-10-24 | 2015-04-27 | アルプス電気株式会社 | Display input device |
WO2018193708A1 (en) | 2017-04-19 | 2018-10-25 | マクセル株式会社 | Head-up display device and display control method therefor |
JP2020107031A (en) | 2018-12-27 | 2020-07-09 | 株式会社デンソー | Instruction gesture detection apparatus and detection method therefor |
Also Published As
Publication number | Publication date |
---|---|
JP2022038647A (en) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10394375B2 (en) | Systems and methods for controlling multiple displays of a motor vehicle | |
US20200167022A1 (en) | Systems and methods for distributing haptic effects to users interacting with user interfaces | |
JP6406308B2 (en) | Vehicle input device | |
US20180246573A1 (en) | Electrostatic Haptic Actuator and User Interface With an Electrostatic Haptic Actuator | |
JP6244822B2 (en) | In-vehicle display system | |
JP2010108255A (en) | In-vehicle operation system | |
JP6599242B2 (en) | Input device | |
JP7439699B2 (en) | Vehicle display device | |
US11385717B2 (en) | Vehicle input device with uniform tactile feedback | |
US20220100276A1 (en) | Method for generating a haptic feedback for an interface, and associated interface | |
JP2015182564A (en) | Occupant posture control device | |
CN113226827B (en) | Operating system with portable interface unit and motor vehicle with operating system | |
US11440407B2 (en) | Non-contact operating apparatus for vehicle and vehicle | |
WO2018230202A1 (en) | Chair and posture evaluating method | |
JP6941798B2 (en) | Input device | |
JP7111655B2 (en) | Behavior reporting system, behavior reporting device, behavior reporting method, and behavior reporting control program | |
US20200310154A1 (en) | Non-contact operating apparatus for vehicle and vehicle | |
JP2017149182A (en) | Display device for vehicle | |
JP2017090993A (en) | Haptic feedback device | |
JP2017091319A (en) | Input device | |
CN116611159A (en) | System for designing, auditing and/or presenting a vehicle prototype solution, corresponding method of operation and computer program product | |
JP2018122827A (en) | On-vehicle information input device and on-vehicle information input system | |
JP2022178179A (en) | Vehicle sheet order system and measurement sheet | |
JP2023005930A (en) | Control value setting apparatus and control value setting program | |
JP2020154516A (en) | Information processing device and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230616 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7439699 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |