JP7439699B2 - Vehicle display device - Google Patents

Vehicle display device Download PDF

Info

Publication number
JP7439699B2
JP7439699B2 JP2020143257A JP2020143257A JP7439699B2 JP 7439699 B2 JP7439699 B2 JP 7439699B2 JP 2020143257 A JP2020143257 A JP 2020143257A JP 2020143257 A JP2020143257 A JP 2020143257A JP 7439699 B2 JP7439699 B2 JP 7439699B2
Authority
JP
Japan
Prior art keywords
user
vibration
control unit
unit
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020143257A
Other languages
Japanese (ja)
Other versions
JP2022038647A (en
Inventor
幸蔵 西澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020143257A priority Critical patent/JP7439699B2/en
Publication of JP2022038647A publication Critical patent/JP2022038647A/en
Application granted granted Critical
Publication of JP7439699B2 publication Critical patent/JP7439699B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instrument Panels (AREA)

Description

本発明は、車両用表示装置に関する。 The present invention relates to a display device for a vehicle.

従来の車両用表示装置として、特許文献1には、画像を表示する表示部と、表示部の手前に設けられたタッチパネルと、当該パネルを振動させる振動部とを備えるものが記載されている。 As a conventional display device for a vehicle, Patent Document 1 describes one that includes a display section that displays an image, a touch panel provided in front of the display section, and a vibration section that vibrates the panel.

また、パネルを振動させる技術として、特許文献2には、ユーザがタッチパネルに行ったタッチ操作に応じて当該パネルを振動させることにより、ユーザに感覚によって認識可能なフィードバック(以下、感覚フィードバックと言う。)を与えるハプティクスを応用したデバイスが記載されている。 Further, as a technique for vibrating a panel, Patent Document 2 describes a technology that vibrates the panel in response to a touch operation performed by the user on the touch panel, thereby providing feedback that can be perceived by the user's senses (hereinafter referred to as sensory feedback). ) has been described that applies haptics.

特開2018-72930号公報JP2018-72930A 特許第6032657号公報Patent No. 6032657

特許文献1に記載の車両用表示装置の構造では表示部の手前にパネル装置があるため、表示部の所定位置を視認する際に、表示部の正面から傾倒した方向にユーザの視線があると、当該所定位置に対して視差が生じる。特に、当該装置が用いられる車両内では、ユーザの位置や種別(例えば、運転者、同乗者といった種別)によって、前記の視差が生じやすい状況にある。この種の構造にハプティクスを適用した場合、前記の視差に起因して、制御システムがタッチ操作を受け付けて振動として感覚フィードバックを与える位置と、ユーザがタッチ操作を行った位置にずれが生じ、適切に感覚フィードバックを行えない虞がある。 In the structure of the vehicle display device described in Patent Document 1, there is a panel device in front of the display section, so when viewing a predetermined position of the display section, if the user's line of sight is in a direction tilted from the front of the display section, , parallax occurs with respect to the predetermined position. In particular, in a vehicle in which the device is used, the above-mentioned parallax is likely to occur depending on the position and type of user (eg, type of driver, passenger, etc.). When haptics is applied to this type of structure, due to the above-mentioned parallax, the position where the control system accepts the touch operation and provides sensory feedback in the form of vibrations and the position where the user performs the touch operation may be misaligned, resulting in an appropriate There is a risk that sensory feedback may not be possible.

本発明は、上記実情に鑑みてなされたものであり、タッチ操作に対する感覚フィードバックを適切に実行できる車両用表示装置を提供することを目的とする。 The present invention has been made in view of the above-mentioned circumstances, and an object of the present invention is to provide a display device for a vehicle that can appropriately perform sensory feedback in response to a touch operation.

上記目的を達成するため、本発明に係る車両用表示装置は、
画像を画面に表示する表示部と、
前記画面に設定された有効領域に対して行われたユーザによるタッチ操作を検出する操作検出部と、
前記操作検出部が前記有効領域に対して行われた前記タッチ操作を検出したことに応じて、前記有効領域に含まれる特定位置に振動を与えることが可能な振動制御部と、
前記表示部に対する前記ユーザの位置であるユーザ位置を推定するユーザ推定部と、を備え、
前記振動制御部は、前記ユーザ推定部によって推定された前記ユーザ位置に応じて前記特定位置を補正可能であり、前記特定位置を補正した場合は、当該補正後の位置である補正位置に振動を与える。
In order to achieve the above object, a vehicle display device according to the present invention includes:
a display section that displays images on a screen;
an operation detection unit that detects a touch operation performed by a user on an effective area set on the screen;
a vibration control unit capable of applying vibration to a specific position included in the effective area in response to the operation detection unit detecting the touch operation performed on the effective area;
a user estimation unit that estimates a user position that is a position of the user with respect to the display unit;
The vibration control unit is capable of correcting the specific position according to the user position estimated by the user estimation unit, and when the specific position is corrected, the vibration control unit applies vibration to the corrected position that is the corrected position. give.

本発明によれば、タッチ操作に対する感覚フィードバックを適切に実行できる。 According to the present invention, sensory feedback for touch operations can be appropriately performed.

本発明の一実施形態に係る車両用表示装置を備える車両用表示システムのブロック図。1 is a block diagram of a vehicle display system including a vehicle display device according to an embodiment of the present invention. 同上実施形態に係る車両用表示システムが搭載される車両の室内を示す模式図。FIG. 2 is a schematic diagram showing the interior of a vehicle in which the vehicle display system according to the embodiment is mounted. 同上実施形態に係る表示ユニットの概略断面図。FIG. 3 is a schematic cross-sectional view of the display unit according to the embodiment. 同上実施形態に係る表示画像例を示す図であって、振動位置を説明するための図。FIG. 3 is a diagram showing an example of a display image according to the embodiment same as the above, and is a diagram for explaining a vibration position. 同上実施形態に係るシート状態監視装置の構成を説明するための図。FIG. 3 is a diagram for explaining the configuration of the seat condition monitoring device according to the embodiment. (a)~(c)は、同上実施形態に係るユーザ位置推定手法の一例を説明するための図。(a) to (c) are diagrams for explaining an example of a user position estimation method according to the embodiment. 視差を説明するための模式図。A schematic diagram for explaining parallax. 同上実施形態に係る感覚フィードバック処理の一例を示すフローチャート。The flowchart which shows an example of the sensory feedback process based on embodiment same as the above. 同上実施形態に係る振動位置補正処理の一例を示すフローチャート。A flowchart showing an example of vibration position correction processing according to the embodiment same as above. (a)及び(b)は、同上実施形態の変形例を説明するための図。(a) and (b) are figures for explaining a modification of the embodiment same as the above.

本発明の一実施形態について図面を参照して説明する。 An embodiment of the present invention will be described with reference to the drawings.

本実施形態に係る車両用表示装置10は、図1に示すように、車両用表示システムSの一部を構成する。車両用表示システムSは、車両1に搭載され、車両用表示装置10と、視線検出装置20と、シート状態監視装置30と、ミラー状態監視装置40と、を備える。車両用表示システムSは、各部が通信を行って車両用表示装置10に各種情報を表示する。 The vehicle display device 10 according to this embodiment constitutes a part of the vehicle display system S, as shown in FIG. The vehicle display system S is mounted on the vehicle 1 and includes a vehicle display device 10, a line of sight detection device 20, a seat condition monitoring device 30, and a mirror condition monitoring device 40. The vehicle display system S displays various information on the vehicle display device 10 by communicating with each other.

車両用表示装置10は、車両1に関する情報(以下、車両情報と言う。)だけでなく、車両情報以外の情報も統合的にユーザUに表示する。また、車両用表示装置10は、ユーザUの指F(図2参照)によるタッチ操作で操作可能である。タッチ操作は、図2に示すように、車両1の運転席2に着座したドライバU1と、助手席3に着座した同乗者U2の双方によって可能となっている。この実施形態では、車両1がRHD(Right Hand Drive)であるものとする。 The vehicle display device 10 integrally displays to the user U not only information regarding the vehicle 1 (hereinafter referred to as vehicle information), but also information other than vehicle information. Further, the vehicle display device 10 can be operated by a touch operation using the user's U's finger F (see FIG. 2). As shown in FIG. 2, the touch operation can be performed by both the driver U1 seated in the driver's seat 2 of the vehicle 1 and the fellow passenger U2 seated in the passenger seat 3. In this embodiment, it is assumed that the vehicle 1 is an RHD (Right Hand Drive).

車両用表示装置10は、図1に示すように、表示ユニット100と、制御装置200と、を備える。 The vehicle display device 10 includes a display unit 100 and a control device 200, as shown in FIG.

表示ユニット100は、例えばCID(Center Information Display)であり、図2に示すように、車両1の室内において、ドライバU1及び同乗者U2の双方に視認可能な位置に設けられている。表示ユニット10は、例えば、ダッシュボード4(インストルメントパネル)に設けられている。 The display unit 100 is, for example, a CID (Center Information Display), and as shown in FIG. 2, it is provided in the interior of the vehicle 1 at a position that is visible to both the driver U1 and the passenger U2. The display unit 10 is provided, for example, on the dashboard 4 (instrument panel).

表示ユニット100は、図1及び図3に示すように、表示部110と、タッチセンサ120と、振動発生部130と、を備える。また、表示ユニット100は、図3に示すように、ケース140と、ホルダ150と、カバーガラス160と、弾性支持体170と、を備える。 The display unit 100 includes a display section 110, a touch sensor 120, and a vibration generation section 130, as shown in FIGS. 1 and 3. The display unit 100 also includes a case 140, a holder 150, a cover glass 160, and an elastic support 170, as shown in FIG.

表示部110は、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)等から構成され、制御装置200の制御の下で、前面110aに画像を表示する。表示ユニット100全体で考えると、表示部110が前面110aに表示した画像は、後述のタッチセンサ120及びカバーガラス160を透過して、表示ユニット100の画面100aに表示される。つまり、表示部110は、画面100aに画像を表示する。この実施形態では、画面100aは、後述するカバーガラス160の表面に相当する。表示部110は、例えば、正面視で矩形状をなす。 The display unit 110 includes an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diode), etc., and displays an image on the front surface 110a under the control of the control device 200. Considering the entire display unit 100, an image displayed on the front surface 110a of the display section 110 is displayed on the screen 100a of the display unit 100 after passing through a touch sensor 120 and a cover glass 160, which will be described later. That is, the display unit 110 displays an image on the screen 100a. In this embodiment, the screen 100a corresponds to the surface of a cover glass 160, which will be described later. The display unit 110 has, for example, a rectangular shape when viewed from the front.

タッチセンサ120は、例えば静電容量方式のセンサシートであり、ユーザUの指Fが画面100a(正確には、後述するカバーガラス160の表面)に接触したことを示すタッチ情報を制御装置200に供給する。タッチ情報は、画面100aにおいて指Fが接触した位置を示すタッチ位置も含む。タッチセンサ120は、透光性を有し、表示部110の手前に位置するとともに画面100aに対応する範囲に渡って設けられている。 The touch sensor 120 is, for example, a capacitive sensor sheet, and sends touch information to the control device 200 indicating that the finger F of the user U has contacted the screen 100a (more precisely, the surface of the cover glass 160, which will be described later). supply The touch information also includes a touch position indicating a position touched by the finger F on the screen 100a. The touch sensor 120 has translucency, is located in front of the display unit 110, and is provided over a range corresponding to the screen 100a.

振動発生部130は、制御装置200の制御の下で、画面100aにおける任意の位置に振動を与える。振動発生部130は、図3に示すように、後述のホルダ150の外底面に設置された複数の振動子131から構成される。振動子131は、例えば、リニア共振アクチュエータ方式、偏心回転質量方式、ピエゾアクチュエータ方式等の公知の振動アクチュエータから構成される。各振動子131は、制御装置200の制御によって選択的に駆動され、図4に示すように、画面100aに設定された複数の振動可能位置Pのうち任意の位置に振動を付与可能に配列されている。この実施形態では、振動可能位置Pはマトリクス状に設定されている。なお、振動子131の個数及び設置箇所は、所望の振動可能位置Pに振動を付与することができる限りにおいては任意であり、公知の技術を適宜採用することができる。例えば、振動子131は、カバーガラス160の端部に設置されていてもよい。また、表示部110が表示する画像の視認性を妨げない限りにおいては、カバーガラス160における表示部110と重なる位置に振動子131を設置してもよい。 The vibration generator 130 applies vibration to any position on the screen 100a under the control of the control device 200. As shown in FIG. 3, the vibration generator 130 is composed of a plurality of vibrators 131 installed on the outer bottom surface of a holder 150, which will be described later. The vibrator 131 is composed of a known vibration actuator such as a linear resonance actuator type, an eccentric rotating mass type, or a piezo actuator type. Each vibrator 131 is selectively driven under the control of the control device 200, and as shown in FIG. ing. In this embodiment, the vibrating positions P are set in a matrix. Note that the number of vibrators 131 and the locations at which they are installed are arbitrary as long as vibration can be applied to a desired vibrating position P, and known techniques can be adopted as appropriate. For example, the vibrator 131 may be installed at the end of the cover glass 160. Furthermore, the vibrator 131 may be installed at a position on the cover glass 160 overlapping the display section 110 as long as the visibility of the image displayed by the display section 110 is not hindered.

ケース140は、樹脂により形成され、開口する箱状をなす。ケース140は、ダッシュボード4に固定される。 The case 140 is made of resin and has an open box shape. Case 140 is fixed to dashboard 4.

ホルダ150は、表示部110を保持するものであり、金属又は樹脂により形成され、ケース140と同一方向に向かって開口する箱状をなす。ホルダ150は、ケース140内に収容される。 The holder 150 holds the display section 110, is made of metal or resin, and has a box shape that opens in the same direction as the case 140. Holder 150 is housed within case 140.

カバーガラス160は、例えば、ポリメタクリル酸メチル樹脂(PMMA)などの透光性を有する樹脂から形成された板状の部材である。カバーガラス160は、ホルダ150に、ホルダ150の開口部を塞ぐ態様で設置される。カバーガラス160の背面には、タッチセンサ120が積層されている。つまり、タッチセンサ120は、カバーガラス160と表示部110の間に位置する。例えば、タッチセンサ120は、表示部110と若干の間隔を空けて対向する。 The cover glass 160 is a plate-shaped member made of a translucent resin such as polymethyl methacrylate resin (PMMA), for example. The cover glass 160 is installed in the holder 150 in such a manner that it closes the opening of the holder 150. The touch sensor 120 is stacked on the back surface of the cover glass 160. That is, the touch sensor 120 is located between the cover glass 160 and the display section 110. For example, the touch sensor 120 faces the display unit 110 with a slight distance therebetween.

弾性支持体170は、ケース140に対してホルダ150を支持するものであり、例えば、ホルダ150の外周側面とケース140の内周側面の間に位置する。これにより、ホルダ150は、ケース140内で浮いた状態で支持される。弾性支持体170は、ゴム、エラストマー、バネ等の弾性材からなる。振動発生部130が振動すると、ホルダ150、表示部110、タッチセンサ120及びカバーガラス160が一体物として振動する。つまり、振動発生部130の振動により、画面100aを構成するカバーガラス160が振動する。弾性支持体170は、この一体物の振動を許容するとともに、ケース140に振動が伝達することを抑制する。 The elastic support body 170 supports the holder 150 with respect to the case 140, and is located, for example, between the outer circumferential side of the holder 150 and the inner circumferential side of the case 140. Thereby, the holder 150 is supported in a floating state within the case 140. The elastic support body 170 is made of an elastic material such as rubber, elastomer, or spring. When the vibration generating section 130 vibrates, the holder 150, the display section 110, the touch sensor 120, and the cover glass 160 vibrate as an integrated body. In other words, the vibration of the vibration generator 130 causes the cover glass 160 forming the screen 100a to vibrate. The elastic support body 170 allows the vibration of this integrated body and suppresses the vibration from being transmitted to the case 140.

図1に戻って、制御装置200は、車両用表示装置10の全体動作を制御するマイクロコンピュータからなり、CPU(Central Processing Unit)等から構成される制御部210と、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成される記憶部220と、を備える。記憶部220のROMには、後述する感覚フィードバック処理を実行するためのプログラムPG、補正量算出データD1、振動パターンデータD2等の各種データが記憶されている。また、記憶部220のROMには、表示部110の表示画像を生成するための画像パーツデータが記憶されている。また、制御装置200は、図示しない構成として、表示部110、タッチセンサ120及び振動発生部130の各々を駆動するための駆動回路、車両用表示装置10の外部と通信を行うための入出力回路等を備える。なお、制御装置200は、後述の機能を充足する限りにおいては、その構成や配置は任意である。例えば、制御装置200は、互いに通信する複数のコンピュータによって実現されてもよい。 Returning to FIG. 1, the control device 200 is composed of a microcomputer that controls the overall operation of the vehicle display device 10, and includes a control section 210 composed of a CPU (Central Processing Unit) and the like, a ROM (Read Only Memory), The storage unit 220 includes a RAM (Random Access Memory) and the like. The ROM of the storage unit 220 stores various data such as a program PG for executing sensory feedback processing to be described later, correction amount calculation data D1, vibration pattern data D2, and the like. Further, the ROM of the storage unit 220 stores image parts data for generating a display image on the display unit 110. The control device 200 also includes a drive circuit for driving each of the display section 110, the touch sensor 120, and the vibration generation section 130, and an input/output circuit for communicating with the outside of the vehicle display device 10, as components not shown. Equipped with etc. Note that the configuration and arrangement of the control device 200 may be arbitrary as long as it satisfies the functions described below. For example, control device 200 may be implemented by multiple computers that communicate with each other.

視線検出装置20は、ユーザUの視線方向を検出する公知の構成であり、赤外線カメラ、ステレオカメラ、TOF(Time of Flight)カメラ等からなる撮像部と、撮像部で撮像した画像のデータ(撮像データ)を解析する視線解析部と、を有する。撮像部の撮像範囲は、ドライバU1と同乗者U2の双方を撮像可能な範囲に設定されている。視線解析部は、撮像データをパターンマッチング法などの公知の手法により画像解析することで、ユーザUの視線方向及びユーザUの視点位置を特定し、これらを示す視線情報を制御装置200に送信する。なお、視点位置は、ユーザUの両眼の代表位置(例えば、両眼の重心)であってもよいし、左右それぞれの眼の位置であってもよい。 The line-of-sight detection device 20 has a known configuration for detecting the line-of-sight direction of the user U, and includes an imaging unit including an infrared camera, a stereo camera, a TOF (Time of Flight) camera, etc. and a line-of-sight analysis unit that analyzes the data). The imaging range of the imaging unit is set to a range in which both the driver U1 and the passenger U2 can be imaged. The line-of-sight analysis unit identifies the line-of-sight direction of the user U and the viewpoint position of the user U by analyzing the image data using a known method such as a pattern matching method, and transmits line-of-sight information indicating these to the control device 200. . Note that the viewpoint position may be a representative position of both eyes of the user U (for example, the center of gravity of both eyes), or may be a position of each of the left and right eyes.

シート状態監視装置30は、図5に示すように、シート5の状態を監視する装置であり、第1感圧センサ31と、第2感圧センサ32と、座席位置センサ33と、を有する。第1感圧センサ31は、シート5の背もたれに加わる圧力(以下、シートバック圧力と言う。)を検出する。第2感圧センサ32は、シート5のクッション部(ユーザUの臀部が乗る位置)に加わる圧力(以下、クッション圧力と言う。)を検出する。座席位置センサ33は、シート5の前後方向における位置(以下、座席位置と言う。)を検出する。シート状態監視装置30は、シートバック圧力、クッション圧力及び座席位置を示すシート情報を制御装置200に送信する。なお、シート状態監視装置30は、運転席2及び助手席3のそれぞれのシート情報を制御装置200に送信可能である。 As shown in FIG. 5, the seat condition monitoring device 30 is a device that monitors the condition of the seat 5, and includes a first pressure sensor 31, a second pressure sensor 32, and a seat position sensor 33. The first pressure sensor 31 detects the pressure applied to the backrest of the seat 5 (hereinafter referred to as seatback pressure). The second pressure sensor 32 detects the pressure (hereinafter referred to as cushion pressure) applied to the cushion portion of the seat 5 (the position on which the user U's buttocks rest). The seat position sensor 33 detects the position of the seat 5 in the longitudinal direction (hereinafter referred to as the seat position). The seat condition monitoring device 30 transmits seat information indicating seat back pressure, cushion pressure, and seat position to the control device 200. Note that the seat condition monitoring device 30 can transmit seat information for each of the driver's seat 2 and the passenger seat 3 to the control device 200.

ミラー状態監視装置40は、車両1に設けられた後写鏡の状態を監視する装置である。例えば、ミラー状態監視装置40は、図2に示す、ルームミラー6(室内後写鏡)及びドアミラー7(室外後写鏡)の各々の姿勢を示すミラー状態情報を制御装置200に送信する。前記姿勢は、例えば、ユーザUが調整可能な各ミラーの傾きである。例えば、ミラー状態監視装置40は、各ミラーに設けられたジャイロセンサを含んで構成される。なお、後写鏡が、図示しないカメラによる車両1の後方映像を表示するデジタルミラーである場合、ミラー状態情報は当該カメラのアングルを示すものであってもよい。 The mirror condition monitoring device 40 is a device that monitors the condition of a rear view mirror provided in the vehicle 1. For example, the mirror state monitoring device 40 transmits to the control device 200 mirror state information indicating the respective postures of the room mirror 6 (indoor rear view mirror) and the door mirror 7 (outdoor rear view mirror) shown in FIG. The attitude is, for example, the tilt of each mirror that can be adjusted by the user U. For example, the mirror condition monitoring device 40 includes a gyro sensor provided on each mirror. Note that when the rear view mirror is a digital mirror that displays a rearward image of the vehicle 1 using a camera (not shown), the mirror state information may indicate the angle of the camera.

視線検出装置20、シート状態監視装置30及びミラー状態監視装置40は、前記の各種情報(以下、監視情報とも言う。)を直接、又は、車両1の各部を制御するECU(Electronic Control Unit)を介して、制御装置200に送信する。 The line of sight detection device 20, the seat condition monitoring device 30, and the mirror condition monitoring device 40 directly transmit the various types of information (hereinafter also referred to as monitoring information) or communicate with an ECU (Electronic Control Unit) that controls each part of the vehicle 1. The information is transmitted to the control device 200 via the host computer.

制御部210は、図1に示すように、主な機能として、表示制御部211と、操作検出部212と、振動制御部213と、ユーザ推定部214と、を備える。 As shown in FIG. 1, the control unit 210 includes a display control unit 211, an operation detection unit 212, a vibration control unit 213, and a user estimation unit 214 as main functions.

表示制御部211は、表示部110の動作を制御し、画面100aに画像を表示させる。図4に示す画像Gは、画面100aに表示される画像の一例を示す。画像Gは、ユーザUがタッチ操作により操作可能な対象を示す操作用アイコン画像G1,G2を含む。なお、表示制御部211は、操作検出部212の指示に応じて、画像Gの表示内容を切り替えることが可能である。 The display control unit 211 controls the operation of the display unit 110 and displays an image on the screen 100a. Image G shown in FIG. 4 shows an example of an image displayed on the screen 100a. The image G includes operation icon images G1 and G2 that indicate objects that can be operated by the user U through a touch operation. Note that the display control unit 211 can switch the display content of the image G according to instructions from the operation detection unit 212.

操作検出部212は、タッチセンサ120からのタッチ情報に基づきタッチ操作を検出する。なお、タッチ操作とは、画面100aにユーザUの指Fが接触又は近接することでなされる所定機器(表示部110を含む。)に対する操作を言う。操作検出部212は、検出したタッチ操作が画面100aに設定された有効領域に対して行われたか否かを判別する。以下では、説明の理解を容易にするため、タッチセンサ120が検出可能なタッチ位置が、図4に示す振動可能位置Pと対応するものと仮定する。実際には、タッチセンサ120の分解能と振動可能位置Pとの各設定は任意であり、タッチセンサ120に設定されたタッチ位置を示す座標が、図4に示す各振動可能位置Pよりも細かくてもよいことは勿論である。
図4に示す例では、操作用アイコン画像G1に対するユーザUによるタッチ操作の有効領域A1は、2行2列目の位置(2,2)、2行3列目の位置(2,3)、2行4列目の位置(2,4)の3マスからなる領域に設定されている。操作検出部212は、有効領域A1に対してタッチ操作が行われたと判別した場合は、操作用アイコン画像G1に対する操作が行われたとして、表示制御部211に対する表示内容の切り替え指示を行ったり、当該操作対象に対して操作内容を示す信号を出力したりする。操作用アイコン画像G1は、図示しないミュージックプレイヤーに対する操作が可能であることを示す画像である。したがって、操作用アイコン画像G1に対する操作が行われた場合、操作検出部212は、表示制御部211にミュージックプレイヤーに関する詳細表示を表す画面に切り替える指示を行ったり、ミュージックプレイヤーに音楽再生指示を示す信号を出力したりする。
また、操作用アイコン画像G2に対するユーザUによるタッチ操作の有効領域A2は、4行2列目の位置(4,2)、4行3列目の位置(4,3)、4行4列目の位置(4,4)の3マスからなる領域に設定されている。操作検出部212は、有効領域A2に対してタッチ操作が行われたと判別した場合は、操作用アイコン画像G2に対する操作が行われたとして、表示制御部211に対する表示内容の切り替え指示を行ったり、当該操作対象に対して操作内容を示す信号を出力したりする。操作用アイコン画像G2は、図示しないカーナビゲーション装置に対する操作が可能であることを示す画像である。したがって、操作用アイコン画像G2に対する操作が行われた場合、操作検出部212は、表示制御部211にカーナビゲーション装置に関する詳細表示を表す画面に切り替える指示を行ったり、カーナビゲーション装置に関する各種設定操作を示す信号を出力したりする。
The operation detection unit 212 detects a touch operation based on touch information from the touch sensor 120. Note that the touch operation refers to an operation performed on a predetermined device (including the display unit 110) by the user's U's finger F touching or coming close to the screen 100a. The operation detection unit 212 determines whether the detected touch operation is performed on the valid area set on the screen 100a. In the following, in order to facilitate understanding of the explanation, it is assumed that the touch position that can be detected by the touch sensor 120 corresponds to the vibration possible position P shown in FIG. 4 . In reality, the settings of the resolution of the touch sensor 120 and the vibrating positions P are arbitrary, and the coordinates indicating the touch positions set on the touch sensor 120 are finer than the vibrating positions P shown in FIG. Of course, this is a good thing.
In the example shown in FIG. 4, the effective area A1 for the touch operation by the user U on the operation icon image G1 is the position (2, 2) in the second row and second column, the position (2, 3) in the second row and third column, It is set in an area consisting of three squares at the position (2, 4) of the 2nd row and 4th column. If the operation detection unit 212 determines that a touch operation has been performed on the effective area A1, it assumes that an operation has been performed on the operation icon image G1 and instructs the display control unit 211 to switch the display content, A signal indicating the operation content is output to the operation target. The operation icon image G1 is an image indicating that a music player (not shown) can be operated. Therefore, when an operation is performed on the operation icon image G1, the operation detection unit 212 instructs the display control unit 211 to switch to a screen showing detailed display regarding the music player, or sends a signal to the music player instructing the music player to play music. or output.
In addition, the effective areas A2 for the touch operation by the user U on the operation icon image G2 are the position (4, 2) of the 4th row and 2nd column, the position (4, 3) of the 4th row and 3rd column, and the position (4, 3) of the 4th row and 4th column. It is set in an area consisting of three squares at position (4, 4). When the operation detection unit 212 determines that a touch operation has been performed on the effective area A2, it assumes that an operation has been performed on the operation icon image G2, and instructs the display control unit 211 to switch the display content, A signal indicating the operation content is output to the operation target. The operation icon image G2 is an image indicating that the car navigation device (not shown) can be operated. Therefore, when an operation is performed on the operation icon image G2, the operation detection unit 212 instructs the display control unit 211 to switch to a screen that displays details regarding the car navigation device, or performs various setting operations regarding the car navigation device. output a signal indicating the

振動制御部213は、操作検出部212が有効領域に対して行われたタッチ操作を検出したことに応じて、振動発生部130を構成する振動子131を選択的に駆動し、当該有効領域に含まれる特定位置に振動を与える。これにより、タッチ操作を行ったユーザUは、自身が行ったタッチ操作が受け付けられたことを、画面100aの特定位置で発生して指Fに伝わる振動で感覚的に把握することができる。例えば、図4に示す有効領域A1に対してタッチ操作が行われると、振動制御部213は、有効領域A1に含まれる特定位置Pv1に振動を与える。特定位置Pv1は、2行3列目の位置(2,3)に設定されている。また、図4に示す有効領域A2に対してタッチ操作が行われると、振動制御部213は、有効領域A2に含まれる特定位置Pv2に振動を与える。特定位置Pv2は、4行3列目の位置(4,3)に設定されている。 The vibration control unit 213 selectively drives the vibrator 131 that constitutes the vibration generation unit 130 in response to the operation detection unit 212 detecting a touch operation performed on the effective area, and Gives vibration to specific locations included. Thereby, the user U who performed the touch operation can intuitively understand that the touch operation performed by the user U has been accepted by the vibration generated at a specific position on the screen 100a and transmitted to the finger F. For example, when a touch operation is performed on the effective area A1 shown in FIG. 4, the vibration control unit 213 applies vibration to a specific position Pv1 included in the effective area A1. The specific position Pv1 is set to the position (2, 3) in the second row and third column. Furthermore, when a touch operation is performed on the effective area A2 shown in FIG. 4, the vibration control unit 213 applies vibration to a specific position Pv2 included in the effective area A2. The specific position Pv2 is set to the position (4, 3) in the 4th row and 3rd column.

ここで、ユーザUの位置によっては前述の課題で述べた視差が生じる。例えば、図7に示す表示部110の表示位置Pdに、タッチ操作の対象に関連した関連画像(前述の操作用アイコン画像G1等)が表示されていた場合、ユーザUの位置であるユーザ位置Puが画面100aの正面からずれた方向にあると、視差によって、ユーザUは、表示位置Pdから当該方向にずれた位置に当該関連画像を視認することになる。そうすると、振動制御部213が特定位置Pv(前述の特定位置Pv1等)に振動を与えた場合に、画面100aにおける特定位置Pvからずれた位置にユーザUの指Fが触れている虞があり、適切に感覚フィードバックとしての振動をユーザFに伝えることができない可能性がある。なお、図7に示す法線Nは、画面100aの法線を示す。
より具体的に説明すると、例えば、ユーザUがドライバU1である場合、感覚フィードバックとして、振動制御部213が図4に示す特定位置Pv1(2,3)に振動を与えたにもかかわらず、ドライバU1の指F1(図2参照)が図4に示す位置(2,4)に触れている虞がある。また、ユーザUが同乗者U2である場合、感覚フィードバックとして、振動制御部213が図4に示す特定位置Pv1(2,3)に振動を与えたにもかかわらず、同乗者U2の指F2(図2参照)が図4に示す位置(2,2)に触れている虞がある。つまり、視差による感覚フィードバックの位置ずれ現象は、ユーザ位置Puに応じて発生する。なお、ユーザ位置Puは、後述のユーザ推定部214によって推定可能である。
Here, depending on the position of the user U, the parallax described in the above problem occurs. For example, if a related image related to the target of the touch operation (such as the operation icon image G1 described above) is displayed at the display position Pd of the display unit 110 shown in FIG. If the related image is located in a direction shifted from the front of the screen 100a, the user U will visually recognize the related image at a position shifted in that direction from the display position Pd due to parallax. In this case, when the vibration control unit 213 applies vibration to a specific position Pv (such as the above-mentioned specific position Pv1), there is a possibility that the finger F of the user U is touching a position that is shifted from the specific position Pv on the screen 100a. There is a possibility that the vibration as sensory feedback cannot be appropriately transmitted to the user F. Note that a normal line N shown in FIG. 7 indicates a normal line to the screen 100a.
To explain more specifically, for example, when the user U is the driver U1, even though the vibration control unit 213 applies vibration to the specific position Pv1 (2, 3) shown in FIG. There is a possibility that the finger F1 of U1 (see FIG. 2) is touching the position (2, 4) shown in FIG. Further, when the user U is the passenger U2, as sensory feedback, even though the vibration control unit 213 has applied vibration to the specific position Pv1 (2, 3) shown in FIG. 2) may be touching the position (2, 2) shown in FIG. That is, the positional shift phenomenon of sensory feedback due to parallax occurs depending on the user position Pu. Note that the user position Pu can be estimated by a user estimation unit 214, which will be described later.

振動制御部213は、上記現象を踏まえ、ユーザ位置Puに応じて振動を与える特定位置Pvを補正可能であり、特定位置Pvを補正した場合は、図7に示すように、補正後の位置である補正位置Paに振動を与える。一例として、振動制御部213は、次に述べる手法で補正位置Paを求める。 Based on the above phenomenon, the vibration control unit 213 can correct the specific position Pv at which vibration is applied according to the user position Pu, and when the specific position Pv is corrected, as shown in FIG. Vibration is applied to a certain correction position Pa. As an example, the vibration control unit 213 obtains the correction position Pa using the method described below.

まず、振動制御部213は、予め車両1の室内に設定された三次元座標系における、ユーザ推定部214が推定したユーザ位置Puの座標と、関連画像(前述の操作用アイコン画像G1等)の表示位置Pdの座標とを結ぶ直線Lを求める。直線Lは、ユーザUの視線に相当する。そして、振動制御部213は、画面100aと直線Lの交点を算出し、算出した交点に相当する位置を補正位置Paとする。具体的には、振動制御部213は、図4に示す複数の振動可能位置Pのうち、算出した交点を含むものを補正位置Paとする。つまり、特定位置Pvから補正位置Paまでの補正量ΔPの分だけ特定位置Pvを補正する。補正量ΔPは、画面100aの面内方向におけるベクトル量である。
図4に示す例で説明すれば、特定位置Pv1(2,3)の補正後の補正位置Paが(2,4)であった場合、補正量ΔPは、位置(2,3)から位置(2,4)までずらした量である。特定位置Pv1(2,3)の補正後の補正位置Paが(1,4)であった場合、補正量ΔPは、位置(2,3)から位置(1,4)までずらした量である。つまり、振動制御部213は、画面100aの面内方向において、特定位置Pvをユーザ位置Puに向かってずらした位置を補正位置Paとする。
上記のように、補正位置Pa及び補正量ΔPを算出するための数式データは、補正量算出データD1として記憶部220のROMに予め記憶されている。なお、補正量算出データD1は、ユーザ位置Pu及び表示位置Pdの各座標の組み合わせと、補正位置Paとが関連付けられて構成されたテーブルデータであってもよい。
First, the vibration control unit 213 calculates the coordinates of the user position Pu estimated by the user estimation unit 214 and the related images (the above-mentioned operation icon image G1, etc.) in a three-dimensional coordinate system set in advance in the interior of the vehicle 1. A straight line L connecting the coordinates of the display position Pd is determined. The straight line L corresponds to the user's U line of sight. Then, the vibration control unit 213 calculates the intersection of the screen 100a and the straight line L, and sets the position corresponding to the calculated intersection as the correction position Pa. Specifically, the vibration control unit 213 sets the position including the calculated intersection among the plurality of vibration possible positions P shown in FIG. 4 as the corrected position Pa. That is, the specific position Pv is corrected by the correction amount ΔP from the specific position Pv to the correction position Pa. The correction amount ΔP is a vector amount in the in-plane direction of the screen 100a.
To explain using the example shown in FIG. 4, when the corrected position Pa after correction of the specific position Pv1 (2, 3) is (2, 4), the correction amount ΔP is changed from the position (2, 3) to the position ( 2,4). When the corrected position Pa after correction of the specific position Pv1 (2, 3) is (1, 4), the correction amount ΔP is the amount shifted from the position (2, 3) to the position (1, 4). . That is, the vibration control unit 213 sets a position obtained by shifting the specific position Pv toward the user position Pu as the corrected position Pa in the in-plane direction of the screen 100a.
As described above, the mathematical data for calculating the correction position Pa and the correction amount ΔP is stored in advance in the ROM of the storage unit 220 as the correction amount calculation data D1. Note that the correction amount calculation data D1 may be table data in which a combination of coordinates of the user position Pu and the display position Pd is associated with the correction position Pa.

また、振動制御部213は、次に述べるユーザ推定部214が推定したユーザUの種別に応じて特定位置Pv又は補正位置Paに与える振動のパターンを変更する。例えば、車両1の運転席2の前方に、エンジン又はモータからなる車両1の原動機が位置する場合、振動の種類によっては原動機の振動と干渉して、感覚フィードバックとしての振動がユーザUに伝わりづらくなる虞がある。したがって、推定されたユーザUの種別がドライバU1である場合には、同乗者U2である場合と異なるパターンの振動を特定位置Pv又は補正位置Paに与える。ドライバU1である場合に与える振動のパターンを第1パターン、同乗者U2である場合に与える振動のパターンを第2パターンとすれば、第1パターンの振動は、第2パターンの振動と振幅と周波数の少なくともいずれかが異なる。例えば、第1パターンの振動は、第2パターンの振動よりも振幅が大きく、且つ、原動機による振動と干渉しない周波数の振動として予め設定されていればよい。第1パターン及び第2パターンの振動条件を示すデータと、当該振動条件を実現すべく振動発生部130を制御するためのデータは、振動パターンデータD2として記憶部220のROMに予め記憶される。 Further, the vibration control unit 213 changes the pattern of vibration applied to the specific position Pv or the correction position Pa according to the type of the user U estimated by the user estimation unit 214 described below. For example, if the prime mover of the vehicle 1 consisting of an engine or a motor is located in front of the driver's seat 2 of the vehicle 1, some types of vibration may interfere with the vibrations of the prime mover, making it difficult for the vibrations to be transmitted as sensory feedback to the user U. There is a possibility that this will happen. Therefore, when the estimated type of user U is the driver U1, a different pattern of vibration is applied to the specific position Pv or the correction position Pa than when the user U is the fellow passenger U2. If the vibration pattern applied when driver U1 is the first pattern, and the vibration pattern applied when passenger U2 is the second pattern, then the first pattern vibration has the same amplitude and frequency as the second pattern vibration. At least one of them is different. For example, the first pattern of vibrations may be set in advance to have a larger amplitude than the second pattern of vibrations and a frequency that does not interfere with vibrations caused by the prime mover. Data indicating the vibration conditions of the first pattern and the second pattern and data for controlling the vibration generator 130 to realize the vibration conditions are stored in advance in the ROM of the storage unit 220 as vibration pattern data D2.

ユーザ推定部214は、視線検出装置20、シート状態監視装置30及びミラー状態監視装置40の少なくともいずれかからの情報に基づき、表示部110に対するユーザUの位置であるユーザ位置Puを推定する。この推定には種々の手法が適用可能であるため、以下、場合分けをして説明する。 The user estimation unit 214 estimates a user position Pu, which is the position of the user U with respect to the display unit 110, based on information from at least one of the line of sight detection device 20, the seat condition monitoring device 30, and the mirror condition monitoring device 40. Since various methods can be applied to this estimation, each case will be explained below.

(視線検出装置20からの情報に基づく場合)
ユーザ推定部214は、視線検出装置20から取得した視線情報が含むユーザUの視点位置を、ユーザ位置Puとして推定する。
(When based on information from line of sight detection device 20)
The user estimation unit 214 estimates the viewpoint position of the user U included in the line-of-sight information acquired from the line-of-sight detection device 20 as the user position Pu.

(シート状態監視装置30からの情報に基づく場合)
ユーザ推定部214は、シート状態監視装置30からのシート情報に基づき、図6(a)~(c)に示すユーザUの着座姿勢を特定し、特定した着座姿勢に応じてユーザ位置Puを推定する。
図6(a)に示す通常の着座姿勢は、第1感圧センサ31からのシートバック圧力があり、且つ、第2感圧センサ32からのクッション圧力の分布に基づいてシート5のクッション部の後方に荷重が集中している場合に特定される。図6(a)に示す姿勢では、座席位置センサ33が示す座席位置の上方にユーザUの頭部があると想定される。このため、ユーザ推定部214は、座席位置センサ33から取得した座席位置をユーザ位置Puの前後方向における位置とするとともに、予め設定した頭部の高さ情報(例えば標準体型のユーザUの頭の高さ)を考慮し、推定されるユーザ位置Puを算出する。前述のように、ユーザ位置Puは、予め車両1の室内に設定された三次元座標系における座標を示す。
図6(b)に示す背もたれを使わずに着座した姿勢は、第1感圧センサ31からのシートバック圧力が無く、且つ、第2感圧センサ32からのクッション圧力の分布に基づいてシート5のクッション部の後方に荷重が集中している場合に特定される。図6(b)に示す姿勢では、座席位置センサ33が示す座席位置よりも前方にユーザUの頭部があると想定される。このため、ユーザ推定部214は、座席位置センサ33から取得した座席位置を、前方に第1の量だけ移動した位置をユーザ位置Puの前後方向における位置とするとともに、予め設定した頭部の高さ情報を考慮し、推定されるユーザ位置Puを算出する。
図6(c)に示す身を乗り出して着座した姿勢は、第1感圧センサ31からのシートバック圧力が無く、且つ、第2感圧センサ32からのクッション圧力の分布に基づいてシート5のクッション部の前方に荷重が集中している場合に特定される。図6(c)に示す姿勢では、座席位置センサ33が示す座席位置よりも前であって、図6(b)の姿勢よりもさらに前方にユーザUの頭部があると想定される。このため、ユーザ推定部214は、座席位置センサ33から取得した座席位置を、前方に第2の量(前記の第1の量よりも大きい量)だけ移動した位置をユーザ位置Puの前後方向における位置とするとともに、予め設定した頭部の高さ情報を考慮し、推定されるユーザ位置Puを算出する。
(When based on information from the sheet condition monitoring device 30)
The user estimation unit 214 identifies the seating posture of the user U shown in FIGS. 6(a) to 6(c) based on the seat information from the seat condition monitoring device 30, and estimates the user position Pu according to the identified seating posture. do.
In the normal sitting posture shown in FIG. 6(a), there is a seat back pressure from the first pressure sensor 31, and the cushion portion of the seat 5 is adjusted based on the distribution of the cushion pressure from the second pressure sensor 32. Identified when the load is concentrated at the rear. In the posture shown in FIG. 6A, it is assumed that the head of the user U is above the seat position indicated by the seat position sensor 33. Therefore, the user estimation unit 214 sets the seat position acquired from the seat position sensor 33 as the position of the user position Pu in the front-rear direction, and also sets preset head height information (for example, the height of the head of the user U with a standard body type). The estimated user position Pu is calculated by considering the height). As described above, the user position Pu indicates coordinates in a three-dimensional coordinate system set in advance in the interior of the vehicle 1.
In the seated posture shown in FIG. 6(b) without using the backrest, there is no seat back pressure from the first pressure sensor 31, and the seat 5 is adjusted based on the distribution of cushion pressure from the second pressure sensor 32. This is identified when the load is concentrated at the rear of the cushion section. In the posture shown in FIG. 6(b), it is assumed that the head of the user U is located in front of the seat position indicated by the seat position sensor 33. Therefore, the user estimation unit 214 sets the seat position obtained from the seat position sensor 33 to a position that is moved forward by a first amount as the position of the user position Pu in the front-rear direction, and also sets a preset height of the head. The estimated user position Pu is calculated by taking the information into account.
In the leaning posture shown in FIG. 6(c), there is no seat back pressure from the first pressure sensor 31, and the seat 5 is adjusted based on the distribution of cushion pressure from the second pressure sensor 32. It is identified when the load is concentrated in front of the cushion part. In the posture shown in FIG. 6(c), it is assumed that the head of the user U is in front of the seat position indicated by the seat position sensor 33 and further forward than in the posture shown in FIG. 6(b). For this reason, the user estimation unit 214 moves the seat position acquired from the seat position sensor 33 forward by a second amount (larger amount than the first amount) to a position in the front-rear direction of the user position Pu. In addition to the position, an estimated user position Pu is calculated by taking into account preset head height information.

(ミラー状態監視装置40からの情報に基づく場合)
ユーザ推定部214は、ミラー状態監視装置40からの後写鏡(ルームミラー6、ドアミラー7)の姿勢を示すミラー状態情報に基づき、ユーザUの頭部又は視点位置を演算する。後写鏡を調整するユーザUは通常ドライバU1であるため、ミラー状態情報に基づいて推定可能なユーザ位置Puは、ドライバU1の位置だけである。したがって、ミラー状態情報に基づくユーザ位置Puの推定手法は、前述の他の推定手法と組み合わせて用いられることが好ましい。
(When based on information from mirror status monitoring device 40)
The user estimation unit 214 calculates the head or viewpoint position of the user U based on mirror state information indicating the attitude of the rear view mirror (room mirror 6, door mirror 7) from the mirror state monitoring device 40. Since the user U who adjusts the rear view mirror is usually the driver U1, the user position Pu that can be estimated based on the mirror state information is only the position of the driver U1. Therefore, the method for estimating the user position Pu based on mirror state information is preferably used in combination with the other estimation methods described above.

ユーザ推定部214は、以上に述べた複数の手法のうち少なくともいずれかの手法を用いてユーザ位置Puを推定する。なお、複数の手法を組み合わせて用いる場合は、例えば、ユーザ位置Puの推定精度の高い手法による演算結果が支配的になるように、各手法で算出されたユーザ位置Puに対して重み付け演算を行うことができる。 The user estimation unit 214 estimates the user position Pu using at least one of the plurality of methods described above. Note that when using a combination of multiple methods, for example, a weighting calculation is performed on the user position Pu calculated by each method so that the calculation result by the method with high estimation accuracy of the user position Pu becomes dominant. be able to.

また、ユーザ推定部214は、視線検出装置20から取得した視線情報に基づき、予め定められた複数の種別(ドライバU1、同乗者U2)からユーザUの種別を推定する。ユーザ推定部214は、視線情報が示すユーザUの視線方向及び視点位置に基づき、表示部110(表示ユニット100)を視認しているユーザUがドライバU1であるか同乗者U2であるかを特定する。なお、ドライバU1と同乗者U2が同時に表示部110を視認している場合には、例えば、ユーザ推定部214は、より長く表示部110を注視している方をユーザUと特定してもよいし、ドライバU1と同乗者U2の一方のみが特定されるまでユーザUの種別を推定する処理を待機してもよい。 Further, the user estimation unit 214 estimates the type of the user U from a plurality of predetermined types (driver U1, passenger U2) based on the line of sight information acquired from the line of sight detection device 20. The user estimation unit 214 identifies whether the user U viewing the display unit 110 (display unit 100) is the driver U1 or the passenger U2 based on the user U's line of sight direction and viewpoint position indicated by the line of sight information. do. Note that when the driver U1 and the passenger U2 are viewing the display unit 110 at the same time, the user estimating unit 214 may identify the person who has been gazing at the display unit 110 for a longer time as the user U, for example. However, the process of estimating the type of user U may wait until only one of the driver U1 and fellow passenger U2 is specified.

(感覚フィードバック処理)
続いて、制御部210がプログラムPGに従って実行する感覚フィードバック処理について、図8及び図9を参照して説明する。感覚フィードバック処理は、例えば、車両用表示システムSを構成する各部の動作中において継続して実行される。
(Sensory feedback processing)
Next, the sensory feedback process executed by the control unit 210 according to the program PG will be described with reference to FIGS. 8 and 9. The sensory feedback process is continuously executed, for example, while the various parts constituting the vehicle display system S are in operation.

図8に示す感覚フィードバック処理を開始すると、制御部210は、タッチ操作を検出したか否かを判別する(ステップS101)。タッチ操作を検出していない場合は待機する(ステップS101;No)一方、制御部210は、タッチ操作を検出すると(ステップS101;Yes)、そのタッチ操作が有効であるか(つまり、有効領域に対して行われたものであるか)否かを判別する(ステップS102)。タッチ操作が有効でない場合(ステップS102;No)、制御部210は、処理をステップS101に戻す。 When starting the sensory feedback process shown in FIG. 8, the control unit 210 determines whether a touch operation is detected (step S101). If no touch operation is detected, the control unit 210 waits (step S101; No), whereas if a touch operation is detected (step S101; Yes), the control unit 210 determines whether the touch operation is valid (that is, in the valid area). (step S102). If the touch operation is not valid (step S102; No), the control unit 210 returns the process to step S101.

タッチ操作が有効である場合(ステップS102;Yes)、制御部210は、振動を付与すべき特定位置Pvを決定する(ステップS103)。図4を参照して具体例を説明すると、有効と判別したタッチ操作が有効領域A1で実行された場合、制御部210は、位置(2,3)を特定位置Pv1に決定する。 If the touch operation is valid (step S102; Yes), the control unit 210 determines a specific position Pv to which vibration should be applied (step S103). A specific example will be described with reference to FIG. 4. When a touch operation determined to be valid is performed in the valid area A1, the control unit 210 determines the position (2, 3) to be the specific position Pv1.

続いて、制御部210は、振動位置補正処理(ステップS200)を図9に示すフローに従って実行し、まず、視線検出装置20から視線情報を取得する(ステップS201)。続いて、制御部210は、取得した視線情報に基づき、ユーザUの種別(ドライバU1か同乗者U2か)を推定する(ステップS202)。 Subsequently, the control unit 210 executes vibration position correction processing (step S200) according to the flow shown in FIG. 9, and first acquires line-of-sight information from the line-of-sight detection device 20 (step S201). Next, the control unit 210 estimates the type of user U (driver U1 or fellow passenger U2) based on the acquired line of sight information (step S202).

続いて、制御部210は、推定したユーザUの種別がドライバU1であるか否かを判別する(ステップS203)。ユーザUがドライバU1である場合(ステップS203;Yes)、制御部210は、付与する振動を第1パターンに決定する(ステップS204)。ユーザUがドライバU1でない、つまり同乗者U2である場合(ステップS203;No)、制御部210は、付与する振動を第2パターンに決定する(ステップS205)。 Subsequently, the control unit 210 determines whether the estimated type of user U is the driver U1 (step S203). When the user U is the driver U1 (step S203; Yes), the control unit 210 determines the first pattern of vibration to be applied (step S204). When the user U is not the driver U1, that is, the fellow passenger U2 (step S203; No), the control unit 210 determines the second pattern of vibration to be applied (step S205).

ステップS204又はS205の処理に続いて、制御部210は、視線検出装置20、シート状態監視装置30及びミラー状態監視装置40から、必要な監視情報を取得し(ステップS206)、前述の手法でユーザ位置Puを推定する(ステップS207)。そして、制御部210は、前述のように推定したユーザ位置Puに応じて補正量ΔPを算出し(ステップS208)、振動位置補正処理を終了する。 Following the processing in step S204 or S205, the control unit 210 acquires necessary monitoring information from the line of sight detection device 20, seat condition monitoring device 30, and mirror condition monitoring device 40 (step S206), and uses the above-described method to The position Pu is estimated (step S207). Then, the control unit 210 calculates the correction amount ΔP according to the user position Pu estimated as described above (step S208), and ends the vibration position correction process.

図8に戻って、振動位置補正処理(ステップS200)に続いて、制御部210は、振動位置の補正があったか否かを判別する(ステップS104)。具体的には、ステップS208で算出した補正量ΔPが0(ゼロ)であった場合、制御部210は、補正がなかったと判別し(ステップS104;No)、振動発生部130を制御してステップS103で決定した特定位置Pvに振動を一定期間(例えば数秒)だけ発生させる(ステップS105)。一方、ステップS208で算出した補正量ΔPが0(ゼロ)でなかった場合、制御部210は、補正ありと判別し(ステップS104;Yes)、振動発生部130を制御してステップS103で決定した特定位置Pvに補正量ΔPを加味した補正位置Paに振動を一定期間(例えば数秒)だけ発生させる(ステップS106)。具体的に、補正位置Paは、ベクトル量である補正量ΔPが示す大きさ及び方向に、特定位置Pvをずらした位置である。 Returning to FIG. 8, following the vibration position correction process (step S200), the control unit 210 determines whether or not the vibration position has been corrected (step S104). Specifically, when the correction amount ΔP calculated in step S208 is 0 (zero), the control unit 210 determines that there is no correction (step S104; No), and controls the vibration generating unit 130 to perform the step Vibration is generated for a certain period of time (for example, several seconds) at the specific position Pv determined in S103 (Step S105). On the other hand, if the correction amount ΔP calculated in step S208 is not 0 (zero), the control unit 210 determines that correction is required (step S104; Yes), controls the vibration generation unit 130, and controls the vibration generation unit 130 to make the correction determined in step S103. Vibration is generated for a certain period of time (for example, several seconds) at a correction position Pa, which is the correction amount ΔP added to the specific position Pv (step S106). Specifically, the correction position Pa is a position obtained by shifting the specific position Pv in the magnitude and direction indicated by the correction amount ΔP, which is a vector amount.

ステップS105又はS106の実行後、制御部210は、ステップS101に戻って処理を実行する。以上が感覚フィードバック処理である。 After executing step S105 or S106, the control unit 210 returns to step S101 and executes the process. The above is sensory feedback processing.

(変形例)
以上の実施形態では、図3に示すように表示部110と平板状のカバーガラス160の間隔が一定である例を示した。しかしながら、図10(a)に模式的に示すように、表示ユニット100には、湾曲したカバーガラス160(例えば、自由曲面形状を有するカバーガラス160)も適用可能である。このように湾曲したカバーガラス160の場合、表示部110との間隔が画面100a内の領域によって異なってくるため、図7を参照して説明した視差の生じ方が画面100a内の領域毎に異なるという現象が生じる。この現象は、図10(a)を参照して概念的に説明すれば、領域B1の方が領域B2よりも大きな視差が生じてしまうといった現象である。この現象を考慮して感覚フィードバック処理を実行すべく、制御部210の振動制御部213は、特定位置Pvを補正する際に、図10(b)に示すように、画面100aを仮想的に分割して得られる複数の制御エリアC1~Cn毎に特定位置Pvから補正位置Paまでの補正量ΔPを制御可能であってもよい。このように制御エリアC1~Cnを設定した場合、例えば、制御部210(振動制御部213)は、図8に示すステップS103で決定した特定位置Pvが制御エリアC1~Cnのいずれに属するかを特定すればよい。そして、制御部210は、図9に示すステップ208で、制御エリアC1~Cnのうち、特定された制御エリアに適した演算を実行し、補正量ΔPを算出すればよい。なお、制御エリアに適した演算とは、当該エリアにおける表示部110とカバーガラス160の間隔、カバーガラス160の厚み及び曲率を考慮した演算であり、考え方は図7を参照して説明した補正量ΔPの算出手法と同様である。
このように制御エリアC1~Cnを設定することにより、エリアに応じた補正量ΔPを算出することができるため、様々な形状の車両用表示装置10においても、発生する視差を考慮した感覚フィードバックの位置補正を適切に実行できる。なお、このように制御エリアC1~Cnを設定すれば、カバーガラス160が凸面を有していても、凹面を有していても適切に感覚フィードバック処理を実行することができる。また、図10(b)では、画面100aを左右方向に分割することで得られる制御エリアの例を示したが、制御エリアは、画面100aにおいてマトリックス状に配列されていてもよいし、上下方向に配列されていてもよい。また、画面100aにおける制御エリアの数も任意である。
(Modified example)
In the above embodiment, as shown in FIG. 3, an example was shown in which the distance between the display unit 110 and the flat cover glass 160 was constant. However, as schematically shown in FIG. 10A, a curved cover glass 160 (for example, a cover glass 160 having a free-form surface shape) can also be applied to the display unit 100. In the case of the cover glass 160 curved in this way, the distance from the display unit 110 differs depending on the area within the screen 100a, so the manner in which parallax occurs as described with reference to FIG. 7 differs depending on the area within the screen 100a. This phenomenon occurs. If this phenomenon is conceptually explained with reference to FIG. 10(a), it is a phenomenon in which a larger parallax occurs in area B1 than in area B2. In order to perform sensory feedback processing in consideration of this phenomenon, the vibration control unit 213 of the control unit 210 virtually divides the screen 100a as shown in FIG. 10(b) when correcting the specific position Pv. It may also be possible to control the correction amount ΔP from the specific position Pv to the correction position Pa for each of the plurality of control areas C1 to Cn obtained by doing so. When the control areas C1 to Cn are set in this way, for example, the control unit 210 (vibration control unit 213) determines which of the control areas C1 to Cn the specific position Pv determined in step S103 shown in FIG. 8 belongs to. Just specify it. Then, in step 208 shown in FIG. 9, the control unit 210 may calculate the correction amount ΔP by executing an operation suitable for the specified control area among the control areas C1 to Cn. Note that a calculation suitable for the control area is a calculation that takes into consideration the distance between the display unit 110 and the cover glass 160 in the area, and the thickness and curvature of the cover glass 160, and the concept is based on the correction amount explained with reference to FIG. This is the same as the method for calculating ΔP.
By setting the control areas C1 to Cn in this way, it is possible to calculate the correction amount ΔP according to the area, so even in the vehicle display device 10 of various shapes, sensory feedback that takes into account the parallax that occurs can be achieved. Position correction can be performed appropriately. Note that by setting the control areas C1 to Cn in this manner, the sensory feedback process can be appropriately executed regardless of whether the cover glass 160 has a convex surface or a concave surface. Further, although FIG. 10(b) shows an example of control areas obtained by dividing the screen 100a in the horizontal direction, the control areas may be arranged in a matrix on the screen 100a, or in the vertical direction. may be arranged in Further, the number of control areas on the screen 100a is also arbitrary.

なお、本発明は以上の実施形態、変形例、及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。 Note that the present invention is not limited to the above embodiments, modifications, and drawings. It is possible to make changes (including deletion of constituent elements) as appropriate without changing the gist of the present invention.

以上では、画面100aに、タッチ操作の対象(操作対象)に関連した関連画像として、操作対象を示す操作用アイコン画像G1,G2が表示される例を示したが、この例に限られない。関連画像は、操作対象そのものを示す画像でなくてもよく、少なくとも操作対象に関連した画像であればよい。 Although an example has been described above in which the operation icon images G1 and G2 indicating the operation target are displayed on the screen 100a as related images related to the touch operation target (operation target), the present invention is not limited to this example. The related image does not have to be an image showing the operation target itself, but may be an image that is at least related to the operation target.

以上では、ユーザ位置Puを三次元座標として算出する例を示したが、ユーザ位置Puは二次元座標であってもよい。例えば、ユーザ位置Puが車両1の高さ方向を除いた二次元座標であっても、制御部210は、左右方向の視差を考慮して感覚フィードバック処理を実行することができる。 Although an example has been shown above in which the user position Pu is calculated as three-dimensional coordinates, the user position Pu may be two-dimensional coordinates. For example, even if the user position Pu is a two-dimensional coordinate excluding the height direction of the vehicle 1, the control unit 210 can perform the sensory feedback process in consideration of parallax in the left and right direction.

感覚フィードバック処理を構成する各処理の順序や変更は目的に応じて任意である。例えば、振動制御部213が補正位置Paを求める際に算出する直線Lの傾きが、視線検出装置20からの視線情報が示す視線方向の傾きと予め定めた所定量だけずれている状態が継続している場合には、ユーザUが表示部110を視認していないと見做せるため、制御部210は、ステップS208の処理をスキップしてもよい。また、タッチ操作が画面100aに同時に複数の指Fが触れるマルチタッチの場合であっても、各指Fに対する補正量ΔPを求めて、前述と同様の手法で感覚フィードバック処理を実行することができる。 The order and changes of each process constituting the sensory feedback process are arbitrary depending on the purpose. For example, if the slope of the straight line L that the vibration control unit 213 calculates when determining the corrected position Pa continues to deviate from the slope of the line of sight direction indicated by the line of sight information from the line of sight detection device 20 by a predetermined amount. If so, it can be assumed that the user U is not viewing the display unit 110, so the control unit 210 may skip the process of step S208. Furthermore, even if the touch operation is a multi-touch operation in which multiple fingers F touch the screen 100a at the same time, it is possible to obtain the correction amount ΔP for each finger F and perform sensory feedback processing using the same method as described above. .

タッチ操作の際に画面100aに触れるユーザUの部位は、指F以外の掌の任意の箇所や、手の甲などであってもよいし、ユーザUがグローブを装着している場合における所定部位であってもよい。 The part of the user U who touches the screen 100a during a touch operation may be any part of the palm other than the fingers F, the back of the hand, or a predetermined part when the user U is wearing gloves. It's okay.

以上に説明した感覚フィードバック処理を実行するプログラムPGは、記憶部220に予め記憶されているものとしたが、着脱自在の記録媒体により配布・提供されてもよい。また、プログラムPGは、車両用表示装置10と接続された他の機器からダウンロードされるものであってもよい。また、車両用表示装置10は、他の機器と電気通信ネットワークなどを介して各種データの交換を行うことによりプログラムPGに従う各処理を実行してもよい。 Although the program PG for executing the sensory feedback process described above is stored in advance in the storage unit 220, it may be distributed/provided by a removable recording medium. Further, the program PG may be downloaded from another device connected to the vehicle display device 10. Further, the vehicle display device 10 may execute various processes according to the program PG by exchanging various data with other devices via a telecommunications network or the like.

(1)以上に説明した車両用表示装置10は、画像を画面100aに表示する表示部110と、画面100aに設定された有効領域(例えば、有効領域A1,A2)に対して行われたユーザUによるタッチ操作を検出する操作検出部212と、操作検出部212が有効領域に対して行われたタッチ操作を検出したことに応じて、有効領域に含まれる特定位置Pvに振動を与えることが可能な振動制御部213と、表示部110に対するユーザUの位置であるユーザ位置Puを推定するユーザ推定部214と、を備える。振動制御部213は、ユーザ推定部214によって推定されたユーザ位置Puに応じて特定位置Pvを補正可能であり、特定位置Pvを補正した場合は、当該補正後の位置である補正位置Paに振動を与える。
この構成によれば、タッチ操作に対する感覚フィードバックを適切に実行できる。また、タッチ操作が行われた位置に対して単純に感覚フィードバックとしての振動を返す制御では、タッチ操作が受け付けられていないにも関わらず当該振動を返してしまう事態が想定されるが、上記構成によれば、このような事態を回避することができる。
(1) The vehicle display device 10 described above has a display unit 110 that displays an image on the screen 100a, and a user who performs a An operation detection unit 212 detects a touch operation by U, and a vibration can be applied to a specific position Pv included in the effective area in response to the operation detection unit 212 detecting a touch operation performed on the effective area. and a user estimation unit 214 that estimates a user position Pu, which is the position of the user U with respect to the display unit 110. The vibration control unit 213 can correct the specific position Pv according to the user position Pu estimated by the user estimation unit 214, and when the specific position Pv is corrected, vibration is applied to the corrected position Pa, which is the position after the correction. give.
According to this configuration, sensory feedback for touch operations can be appropriately performed. In addition, in a control that simply returns vibration as sensory feedback to the position where a touch operation has been performed, it is assumed that the vibration is returned even though the touch operation has not been accepted. According to this, such a situation can be avoided.

(2)また、ユーザ推定部214は、予め定められた複数の種別からユーザUの種別を推定可能であり、振動制御部213は、ユーザ推定部214が推定したユーザUの種別に応じて、特定位置Pv又は補正位置Paに与える振動のパターンを変更する。
この構成によれば、感覚フィードバックとしての振動がユーザUに伝わりづらくなることを回避できる。
(2) Further, the user estimating unit 214 can estimate the type of the user U from a plurality of predetermined types, and the vibration control unit 213 may The pattern of vibration given to the specific position Pv or correction position Pa is changed.
According to this configuration, it is possible to avoid difficulty in transmitting vibrations as sensory feedback to the user U.

(3)また、変形例で述べたように、振動制御部213は、特定位置Pvを補正する際に、画面100aを仮想的に分割して得られる複数の制御エリアC1~Cn毎に特定位置Pvから補正位置Paまでの補正量ΔPを制御可能であってもよい。
この構成によれば、制御エリアC1~Cnに応じた補正量ΔPを算出することができるため、様々な形状の車両用表示装置10においても、発生する視差を考慮した感覚フィードバックの位置補正を適切に実行できる。
(3) Furthermore, as described in the modification, when correcting the specific position Pv, the vibration control unit 213 controls the specific position Pv for each of the plurality of control areas C1 to Cn obtained by virtually dividing the screen 100a. It may be possible to control the correction amount ΔP from Pv to the correction position Pa.
According to this configuration, it is possible to calculate the correction amount ΔP according to the control areas C1 to Cn, so that even in the vehicle display device 10 of various shapes, the position of the sensory feedback can be appropriately corrected in consideration of the parallax that occurs. can be executed.

(4)また、ユーザ推定部214がユーザ位置Puを推定する際に用いる情報は、ユーザUの視線情報を含んでいてもよい。
この構成によれば、ユーザ位置Puの推定精度が良好である。
(4) Moreover, the information used when the user estimation unit 214 estimates the user position Pu may include the user's U line of sight information.
According to this configuration, the estimation accuracy of the user position Pu is good.

(5)具体的に、振動制御部213は、特定位置Pvをユーザ位置Puに向かってずらした位置(詳しくは、画面100aの面内方向においてずらした位置)を補正位置Paとする。 (5) Specifically, the vibration control unit 213 sets a position shifted from the specific position Pv toward the user position Pu (specifically, a position shifted in the in-plane direction of the screen 100a) as the corrected position Pa.

(6)具体的に、表示部110は、画面100aにおける特定位置Pvを含む範囲に、タッチ操作の対象に関連した関連画像(例えば、操作用アイコン画像G1,G2)を表示する。 (6) Specifically, the display unit 110 displays related images (for example, operation icon images G1 and G2) related to the target of the touch operation in a range including the specific position Pv on the screen 100a.

以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。 In the above description, descriptions of known technical matters have been omitted as appropriate in order to facilitate understanding of the present invention.

S…車両用表示システム
10…車両用表示装置
100…表示ユニット、100a…画面
110…表示部、110a…前面
120…タッチセンサ、130…振動発生部、131…振動子
140…ケース、150…ホルダ、160…カバーガラス、170…弾性支持体
200…制御装置
210…制御部
211…表示制御部、212…操作検出部、213…振動制御部、214…ユーザ推定部
220…記憶部、PG…プログラム、D1…補正量算出データ、D2…振動パターンデータ
20…視線検出装置
30…シート状態監視装置
31…第1感圧センサ、32…第2感圧センサ、33…座席位置センサ
40…ミラー状態監視装置
1…車両、2…運転席、3…助手席、4…ダッシュボード、5…シート
6…ルームミラー、7…ドアミラー
A1,A2…有効領域
C1~Cn…制御エリア
F,F1,F2…指
G…画像、G1,G2…操作用アイコン画像(関連画像の一例)、L…直線
P…振動可能位置
Pv,Pv1,Pv2…特定位置
Pa…補正位置、ΔP…補正量
Pd…表示位置、Pu…ユーザ位置
U…ユーザ、U1…ドライバ、U2…同乗者
S... Vehicle display system 10... Vehicle display device 100... Display unit, 100a... Screen 110... Display portion, 110a... Front surface 120... Touch sensor, 130... Vibration generator, 131... Vibrator 140... Case, 150... Holder , 160... cover glass, 170... elastic support 200... control device 210... control section 211... display control section, 212... operation detection section, 213... vibration control section, 214... user estimation section 220... storage section, PG... program , D1... Correction amount calculation data, D2... Vibration pattern data 20... Line of sight detection device 30... Seat condition monitoring device 31... First pressure sensitive sensor, 32... Second pressure sensitive sensor, 33... Seat position sensor 40... Mirror condition monitoring Device 1...Vehicle, 2...Driver's seat, 3...Passenger seat, 4...Dashboard, 5...Seat 6...Room mirror, 7...Door mirror A1, A2...Effective area C1-Cn...Control area F, F1, F2...Finger G... Image, G1, G2... Operation icon image (an example of a related image), L... Straight line P... Vibration possible position Pv, Pv1, Pv2... Specific position Pa... Correction position, ΔP... Correction amount Pd... Display position, Pu ...User position U...User, U1...Driver, U2...Passenger

Claims (6)

画像を画面に表示する表示部と、
前記画面に設定された有効領域に対して行われたユーザによるタッチ操作を検出する操作検出部と、
前記操作検出部が前記有効領域に対して行われた前記タッチ操作を検出したことに応じて、前記有効領域に含まれる特定位置に振動を与えることが可能な振動制御部と、
前記表示部に対する前記ユーザの位置であるユーザ位置を推定するユーザ推定部と、を備え、
前記振動制御部は、前記ユーザ推定部によって推定された前記ユーザ位置に応じて前記特定位置を補正可能であり、前記特定位置を補正した場合は、当該補正後の位置である補正位置に振動を与える、
車両用表示装置。
a display section that displays images on a screen;
an operation detection unit that detects a touch operation performed by a user on an effective area set on the screen;
a vibration control unit capable of applying vibration to a specific position included in the effective area in response to the operation detection unit detecting the touch operation performed on the effective area;
a user estimation unit that estimates a user position that is a position of the user with respect to the display unit;
The vibration control unit is capable of correcting the specific position according to the user position estimated by the user estimation unit, and when the specific position is corrected, the vibration control unit applies vibration to the corrected position that is the corrected position. give,
Vehicle display device.
前記ユーザ推定部は、予め定められた複数の種別から前記ユーザの種別を推定可能であり、
前記振動制御部は、前記ユーザ推定部が推定した前記ユーザの種別に応じて、前記特定位置又は前記補正位置に与える振動のパターンを変更する、
請求項1に記載の車両用表示装置。
The user estimation unit is capable of estimating the type of the user from a plurality of predetermined types,
The vibration control unit changes a pattern of vibration applied to the specific position or the correction position according to the type of the user estimated by the user estimation unit.
The vehicle display device according to claim 1.
前記振動制御部は、前記特定位置を補正する際に、前記画面を仮想的に分割して得られる複数の制御エリア毎に前記特定位置から前記補正位置までの補正量を制御可能である、
請求項1又は2に記載の車両用表示装置。
The vibration control unit is capable of controlling a correction amount from the specific position to the correction position for each of a plurality of control areas obtained by virtually dividing the screen when correcting the specific position.
The vehicle display device according to claim 1 or 2.
前記ユーザ推定部が前記ユーザ位置を推定する際に用いる情報は、前記ユーザの視線情報を含む、
請求項1乃至3のいずれか1項に記載の車両用表示装置。
The information used by the user estimator to estimate the user position includes line-of-sight information of the user;
The vehicle display device according to any one of claims 1 to 3.
前記振動制御部は、前記特定位置を前記ユーザ位置に向かってずらした位置を前記補正位置とする、
請求項1乃至4のいずれか1項に記載の車両用表示装置。
The vibration control unit sets a position shifted from the specific position toward the user position as the correction position.
The vehicle display device according to any one of claims 1 to 4.
前記表示部は、前記画面における前記特定位置を含む範囲に、前記タッチ操作の対象に関連した関連画像を表示する、
請求項1乃至5のいずれか1項に記載の車両用表示装置。
The display unit displays a related image related to the target of the touch operation in a range including the specific position on the screen.
The vehicle display device according to any one of claims 1 to 5.
JP2020143257A 2020-08-27 2020-08-27 Vehicle display device Active JP7439699B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020143257A JP7439699B2 (en) 2020-08-27 2020-08-27 Vehicle display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020143257A JP7439699B2 (en) 2020-08-27 2020-08-27 Vehicle display device

Publications (2)

Publication Number Publication Date
JP2022038647A JP2022038647A (en) 2022-03-10
JP7439699B2 true JP7439699B2 (en) 2024-02-28

Family

ID=80498025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020143257A Active JP7439699B2 (en) 2020-08-27 2020-08-27 Vehicle display device

Country Status (1)

Country Link
JP (1) JP7439699B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010286986A (en) 2009-06-10 2010-12-24 Funai Electric Co Ltd Mobile terminal device
JP2014131133A (en) 2012-12-28 2014-07-10 Kyocera Document Solutions Inc Operation input device and information processing apparatus
JP2015082300A (en) 2013-10-24 2015-04-27 アルプス電気株式会社 Display input device
WO2018193708A1 (en) 2017-04-19 2018-10-25 マクセル株式会社 Head-up display device and display control method therefor
JP2020107031A (en) 2018-12-27 2020-07-09 株式会社デンソー Instruction gesture detection apparatus and detection method therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010286986A (en) 2009-06-10 2010-12-24 Funai Electric Co Ltd Mobile terminal device
JP2014131133A (en) 2012-12-28 2014-07-10 Kyocera Document Solutions Inc Operation input device and information processing apparatus
JP2015082300A (en) 2013-10-24 2015-04-27 アルプス電気株式会社 Display input device
WO2018193708A1 (en) 2017-04-19 2018-10-25 マクセル株式会社 Head-up display device and display control method therefor
JP2020107031A (en) 2018-12-27 2020-07-09 株式会社デンソー Instruction gesture detection apparatus and detection method therefor

Also Published As

Publication number Publication date
JP2022038647A (en) 2022-03-10

Similar Documents

Publication Publication Date Title
US10394375B2 (en) Systems and methods for controlling multiple displays of a motor vehicle
US20200167022A1 (en) Systems and methods for distributing haptic effects to users interacting with user interfaces
JP6406308B2 (en) Vehicle input device
US20180246573A1 (en) Electrostatic Haptic Actuator and User Interface With an Electrostatic Haptic Actuator
JP6244822B2 (en) In-vehicle display system
JP2010108255A (en) In-vehicle operation system
JP6599242B2 (en) Input device
JP7439699B2 (en) Vehicle display device
US11385717B2 (en) Vehicle input device with uniform tactile feedback
US20220100276A1 (en) Method for generating a haptic feedback for an interface, and associated interface
JP2015182564A (en) Occupant posture control device
CN113226827B (en) Operating system with portable interface unit and motor vehicle with operating system
US11440407B2 (en) Non-contact operating apparatus for vehicle and vehicle
WO2018230202A1 (en) Chair and posture evaluating method
JP6941798B2 (en) Input device
JP7111655B2 (en) Behavior reporting system, behavior reporting device, behavior reporting method, and behavior reporting control program
US20200310154A1 (en) Non-contact operating apparatus for vehicle and vehicle
JP2017149182A (en) Display device for vehicle
JP2017090993A (en) Haptic feedback device
JP2017091319A (en) Input device
CN116611159A (en) System for designing, auditing and/or presenting a vehicle prototype solution, corresponding method of operation and computer program product
JP2018122827A (en) On-vehicle information input device and on-vehicle information input system
JP2022178179A (en) Vehicle sheet order system and measurement sheet
JP2023005930A (en) Control value setting apparatus and control value setting program
JP2020154516A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R150 Certificate of patent or registration of utility model

Ref document number: 7439699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150