JP2010091955A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2010091955A
JP2010091955A JP2008264166A JP2008264166A JP2010091955A JP 2010091955 A JP2010091955 A JP 2010091955A JP 2008264166 A JP2008264166 A JP 2008264166A JP 2008264166 A JP2008264166 A JP 2008264166A JP 2010091955 A JP2010091955 A JP 2010091955A
Authority
JP
Japan
Prior art keywords
operator
image
eyeball position
correction
frequency component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008264166A
Other languages
Japanese (ja)
Inventor
Masumi Obana
麻純 小花
Masaaki Uechi
正昭 上地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008264166A priority Critical patent/JP2010091955A/en
Publication of JP2010091955A publication Critical patent/JP2010091955A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of correcting a display image coping with a change in an operator's eyeball position while reducing the operator's sense of incongruity. <P>SOLUTION: The image processing apparatus has a configuration having a correction means 3 in which image correction is not performed according to the high frequency component of the operator's eyeball position change data of an operator D. As a result, the unnecessary image correction can be suppressed. In this way, no execution of the image correction according to high frequency component makes the correction of the image be executed coping with the movement for ensuring the safety with a motion of nod by the operator D accompanied, and coping with the movement of moving objects (vehicles, airplanes or vessels, for example). Consequently, the unnecessary image correction is prevented and the operator's sense of incongruity can be reduced. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、シミュレータの表示画像を補正する補正手段を備えた画像処理装置に関する。   The present invention relates to an image processing apparatus including correction means for correcting a display image of a simulator.

従来、例えば運転者の訓練や自動車の研究開発などに利用されるドライビングシミュレータにおいて、予め設定された模擬走行路を走行しているものとして、模擬視界映像を表示するものが知られている。(例えば、特許文献1参照)。
特開平8−248872号公報 特開2002−52953号公報 特開平8−292394号公報
2. Description of the Related Art Conventionally, driving simulators used for driver training, automobile research and development, and the like are known that display a simulated view image as traveling on a preset simulated traveling path. (For example, refer to Patent Document 1).
JP-A-8-248872 JP 2002-52953 A JP-A-8-292394

しかしながら、上記特許文献1に記載の従来技術では、ドライバの眼球位置(eyepoint)変化に対応して、表示画像の視点位置(viewpoint)を補正しているため、ドライバが安全確認行動として頭を動かした場合や、車両の動きに応じて運転者の頭が動いた場合などにあっても、表示画像の視点位置が補正されるため、ドライバに違和感を生じさせていた。   However, in the prior art described in Patent Document 1, the viewpoint position (viewpoint) of the display image is corrected in response to a change in the eyeball position (eyepoint) of the driver, so the driver moves his head as a safety confirmation action. Even when the driver's head moves according to the movement of the vehicle, the viewpoint position of the display image is corrected, which causes the driver to feel uncomfortable.

本発明は、このような課題を解決するために成されたものであり、操作者の違和感を低減しつつ、操作者の眼球位置の変化に対応して、表示画像を補正することが可能な画像処理装置を提供することを目的とする。   The present invention has been made to solve such a problem, and can correct a display image in response to a change in the eyeball position of the operator while reducing an uncomfortable feeling of the operator. An object is to provide an image processing apparatus.

本発明による画像処理装置は、操作者に視認される模擬映像を表示する表示手段、及び表示手段による表示画像を操作者の眼球位置に応じて補正する補正手段を備えた画像表示装置において、操作者の眼球位置変化データを計測する眼球位置計測手段を有し、補正手段は、眼球位置変化データの高周波成分に応じて表示画像を補正しないことを特徴としている。   An image processing apparatus according to the present invention is an image display apparatus including a display unit that displays a simulated video visually recognized by an operator, and a correction unit that corrects a display image by the display unit according to the eyeball position of the operator. Eyeball position measurement means for measuring the person's eyeball position change data, and the correction means does not correct the display image according to the high frequency component of the eyeball position change data.

このような画像表示装置によれば、模擬映像を表示するシミュレータの表示画像が、操作者の眼球位置変化データの高周波成分に応じて補正されないため、不要な画像補正を抑制することができる。高周波成分に応じた補正を実行しないことにより、操作者の首振り動作を伴う安全確認行動や、移動体(例えば、車両、飛行機、船舶)の動きに対応して、画像の補正が実行されなくなり、不要な画像補正を抑制し、操作者の違和感を低減することができる。   According to such an image display apparatus, since the display image of the simulator that displays the simulated video is not corrected according to the high frequency component of the eyeball position change data of the operator, unnecessary image correction can be suppressed. By not performing the correction according to the high frequency component, the image correction is not performed in response to the safety confirmation action accompanied by the operator's swinging motion or the movement of the moving body (for example, vehicle, airplane, ship). Unnecessary image correction can be suppressed and the operator's uncomfortable feeling can be reduced.

ここで、補正手段は、高周波成分が除去された眼球位置変化データの低周波成分のみに基づいて、表示画像における視点位置を補正することが好適である。   Here, it is preferable that the correcting unit corrects the viewpoint position in the display image based only on the low frequency component of the eyeball position change data from which the high frequency component has been removed.

本発明によれば、操作者の違和感を低減しつつ、操作者の眼球位置の変化に対応して、表示画像を補正することができる。   According to the present invention, it is possible to correct a display image in response to a change in the eyeball position of the operator while reducing the operator's uncomfortable feeling.

以下、本発明の好適な実施形態について図面を参照しながら説明する。なお、図面の説明において、同一または相当要素には同一の符号を付し、重複する説明は省略する。本実施形態では、本発明の画像処理装置を備えたドライビングシミュレータについて説明する。図1は、本発明の実施形態に係る画像処理装置を備えたドライビングシミュレータの概略構成図である。   Preferred embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, the same or corresponding elements are denoted by the same reference numerals, and redundant description is omitted. In the present embodiment, a driving simulator provided with the image processing apparatus of the present invention will be described. FIG. 1 is a schematic configuration diagram of a driving simulator provided with an image processing apparatus according to an embodiment of the present invention.

図1に示すドライビングシミュレータ1は、操作者D(ドライバ)に車両の運転を模擬体験させるものであり、操作者Dに視認される模擬映像を表示するスクリーン2、このスクリーン2に表示される表示画像を制御する画像処理装置3、この画像処理装置3から出力された画像信号をスクリーン2に映写するプロジェクタ4を備えている。そして、これらのプロジェクタ4及びスクリーン2が本発明の表示手段を構成している。なお、表示手段として、液晶表示装置など、その他の表示手段を用いてもよい。   A driving simulator 1 shown in FIG. 1 is for causing an operator D (driver) to experience driving of a vehicle. A screen 2 that displays a simulated image visually recognized by the operator D, and a display displayed on the screen 2 An image processing device 3 that controls an image and a projector 4 that projects an image signal output from the image processing device 3 on a screen 2 are provided. These projector 4 and screen 2 constitute display means of the present invention. As the display means, other display means such as a liquid crystal display device may be used.

画像処理装置3は、演算処理を行うCPU、記憶部5となるROM及びRAM、入力信号回路、出力信号回路、電源回路などにより構成されている。画像処理装置3は、画像処理を行い、スクリーン2に表示される表示画像を生成するものであり、操作者Dの眼球位置に応じて、表示画像を補正する機能を有している。   The image processing apparatus 3 includes a CPU that performs arithmetic processing, a ROM and a RAM that serve as a storage unit 5, an input signal circuit, an output signal circuit, a power supply circuit, and the like. The image processing device 3 performs image processing and generates a display image to be displayed on the screen 2, and has a function of correcting the display image according to the eyeball position of the operator D.

画像表示装置3では、記憶部5に記憶されたプログラムを実行することで、眼球位置計測部6、視点処理部(補正手段)7が構築される。記憶部5には、模擬映像に関するデータが記憶されている。そして、画像表示装置3は、操作者Dの眼球位置を検出するカメラ(眼球位置検出手段)8と電気的に接続されている。   In the image display device 3, an eyeball position measurement unit 6 and a viewpoint processing unit (correction unit) 7 are constructed by executing a program stored in the storage unit 5. The storage unit 5 stores data related to the simulated video. The image display device 3 is electrically connected to a camera (eyeball position detection means) 8 that detects the eyeball position of the operator D.

眼球位置計測部6は、カメラ8から出力された検出信号に基づいて操作者Dの視線方向を認識し、眼球位置変化データを取得する。取得された眼球位置変化データは、視点処理部7に出力される。   The eyeball position measurement unit 6 recognizes the line-of-sight direction of the operator D based on the detection signal output from the camera 8 and acquires eyeball position change data. The acquired eyeball position change data is output to the viewpoint processing unit 7.

視点処理部7は、記憶部5に記憶された模擬映像に関するデータについて、画像処理を行い、操作者Dに視認される模擬映像の画像データを生成する。また、視点処理部7は、操作者Dの視点位置に応じて、表示画像を補正する。例えば、表示画像における視点Pvの位置(Hv)を変更する。   The viewpoint processing unit 7 performs image processing on the data related to the simulated video stored in the storage unit 5 and generates image data of the simulated video visually recognized by the operator D. The viewpoint processing unit 7 corrects the display image according to the viewpoint position of the operator D. For example, the position (Hv) of the viewpoint Pv in the display image is changed.

視点処理部7では、例えば1Hz以上の高周波成分を、眼球位置変化データから除去し、高周波成分が除去された眼球位置変化データに基づいて、表示画像の補正を行なう。   In the viewpoint processing unit 7, for example, a high frequency component of 1 Hz or higher is removed from the eyeball position change data, and the display image is corrected based on the eyeball position change data from which the high frequency component has been removed.

次に、ドライビングシミュレータ1による動作について説明する。図2は、ドライビングシミュレータによる動作手順を示すフローチャートである。なお、図2では、ステップをSと略記している。まず、ステップ1では、操作者(被験者)Dがシートに着座しているか否かを判定する。続く、ステップ2では、操作者Dの着座を待ち、操作者Dの着座を確認した場合には、操作者Dの眼球位置を検出する。ここでは、カメラ8によって、操作者Dの顔画像を取得し、眼球位置計測部6によって、画像処理を行い、操作者の視線方向の変化を計測する。   Next, the operation by the driving simulator 1 will be described. FIG. 2 is a flowchart showing an operation procedure by the driving simulator. In FIG. 2, the step is abbreviated as S. First, in step 1, it is determined whether or not the operator (subject) D is seated on the seat. In step 2, the operator D waits for the operator D to be seated. When the operator D is confirmed to be seated, the eyeball position of the operator D is detected. Here, the face image of the operator D is acquired by the camera 8, and the eyeball position measurement unit 6 performs image processing to measure the change in the line-of-sight direction of the operator.

図3は、操作者の顔画像の一例を示すものであり、操作者の視線位置の検出例を示す概略図である。眼球位置計測部6では、操作者Dの視線位置として、眼球位置(高さX、横位置Y、奥行Z)を検出する。高さXは、例えば、顔画像のフレームの下端から眼球までの上下方向の距離であり、横位置Yは、例えば、顔画像のフレームの側端から、左の眼球までの左右方向の距離であり、奥行Zは、基準位置から眼球までの前後方向の距離であり、人間の両眼距離の一般平均距離(65mm)に対する計測距離Wから算出する。   FIG. 3 shows an example of the operator's face image, and is a schematic diagram showing an example of detection of the operator's line-of-sight position. The eyeball position measurement unit 6 detects the eyeball position (height X, lateral position Y, depth Z) as the line-of-sight position of the operator D. The height X is, for example, the vertical distance from the lower end of the face image frame to the eyeball, and the horizontal position Y is, for example, the horizontal distance from the side edge of the face image frame to the left eyeball. Yes, the depth Z is the distance in the front-rear direction from the reference position to the eyeball, and is calculated from the measured distance W with respect to the general average distance (65 mm) of the human binocular distance.

次に、ステップ3では、視点処理部7は、操作者Dの眼球位置に応じて、表示画像(スクリーン映像)の視点(viewpoint:高さ、横位置、奥行)Pvを補正する。続いて、ステップ4では、視点処理部7は、画像データをプロジェクタ4に出力し、スクリーン2による画像表示を行い、ドライビングシミュレータによる模擬走行を開始する。続く、ステップ5では、眼球位置計測部6は、操作者Dの眼球位置を検出する。   Next, in step 3, the viewpoint processing unit 7 corrects the viewpoint (viewpoint: height, horizontal position, depth) Pv of the display image (screen video) according to the eyeball position of the operator D. Subsequently, in step 4, the viewpoint processing unit 7 outputs the image data to the projector 4, displays an image on the screen 2, and starts a simulated running by the driving simulator. Subsequently, in step 5, the eyeball position measurement unit 6 detects the eyeball position of the operator D.

図4は、検出された眼球位置データを示すグラフである。横軸に時間Tを示し、縦軸に眼球位置(高さ)Heを示している。破線で示すグラフL1は、眼球位置計測部6によって検出された眼球位置(高さ)の補正前のデータであり、実線で示すグラフL2は、移動平均手法を用いて、高周波成分(例えば1Hz以上)を取り除いたデータである。なお、高周波成分を除去する手法は、その他の方法でもよく、例えば、FFT変換を用いて高周波成分を取り除いてもよい。   FIG. 4 is a graph showing detected eyeball position data. The horizontal axis represents time T, and the vertical axis represents eyeball position (height) He. A graph L1 indicated by a broken line is data before correction of the eyeball position (height) detected by the eyeball position measuring unit 6, and a graph L2 indicated by a solid line is a high-frequency component (for example, 1 Hz or more) using a moving average method. ) Is removed. The method for removing the high frequency component may be another method, for example, the high frequency component may be removed using FFT transform.

次に、視点処理部7は、ドライバの眼球位置の周波数成分を検出し、安全確認行動や車両移動に伴う高周波成分であるのか、操作者の姿勢変化に伴う低周波成分であるのかを判定する。ステップ6では、視点処理部7は、眼球位置データ(図4のグラフL1)から高周波成分がカットされた眼球位置データ(図4のグラフL2)を生成する。   Next, the viewpoint processing unit 7 detects the frequency component of the eyeball position of the driver and determines whether it is a high-frequency component associated with safety confirmation behavior or vehicle movement or a low-frequency component associated with a change in the posture of the operator. . In step 6, the viewpoint processing unit 7 generates eyeball position data (graph L2 in FIG. 4) from which high-frequency components are cut from the eyeball position data (graph L1 in FIG. 4).

ステップ7では、視点処理部7は、低周波成分のみの眼球位置データ(高周波成分がカットされた眼球位置データ)に基づいて、表示画像の視点Pvを補正する。視点処理部7は、フィルタ処理を行い、操作者の姿勢変化に伴う眼球位置の変化(低周波成分)のみに基づいて、表示画像の視点位置を補正して描画する。そして、ドライビングシミュレータ1では、ステップ5〜ステップ7の処理を繰り返す。   In step 7, the viewpoint processing unit 7 corrects the viewpoint Pv of the display image based on the eyeball position data of only the low frequency component (eyeball position data from which the high frequency component is cut). The viewpoint processing unit 7 performs filter processing and corrects and draws the viewpoint position of the display image based on only the change in the eyeball position (low frequency component) accompanying the change in the posture of the operator. And in the driving simulator 1, the process of step 5-step 7 is repeated.

このようなドライビングシミュレータ1では、模擬映像を表示するシミュレータの表示画像が、操作者の眼球位置変化データの高周波成分に応じて補正されないため、不要な画像補正を抑制することができる。また、高周波成分に応じた補正を実行しないことにより、操作者の首振り動作を伴う安全確認行動や、車両移動に対応して、画像の補正が実行されなくなり、不要な画像補正を抑制し、操作者の違和感を低減することができる。   In such a driving simulator 1, since the display image of the simulator that displays the simulated video is not corrected according to the high frequency component of the eyeball position change data of the operator, unnecessary image correction can be suppressed. In addition, by not performing the correction according to the high frequency component, in response to the safety confirmation action accompanied by the operator's swing motion and the movement of the vehicle, the image correction is not performed, and unnecessary image correction is suppressed, An operator's uncomfortable feeling can be reduced.

また、眼球位置を計測して、表示画像の視点位置Pvを補正しているため、表示画面上の水平位置を操作者Dの身長(座高)や、姿勢変化に応じて調整することができる。また、本実施形態のドライビングシミュレータ1では、眼球位置変化データの低周波成分のみに基づいて、画像補正を行なうことにより、眼球位置の計測からスクリーン描画までのタイムラグが原因の違和感を解消することができる。これにより、人間の頭部が移動する際に発生する前庭動眼反射(視界のブレ補正機能)を考慮した補正を行なうことができる。   Further, since the eyeball position is measured and the viewpoint position Pv of the display image is corrected, the horizontal position on the display screen can be adjusted according to the height (sitting height) of the operator D and the posture change. Further, in the driving simulator 1 of the present embodiment, by performing image correction based only on the low-frequency component of the eyeball position change data, it is possible to eliminate the uncomfortable feeling caused by the time lag from the eyeball position measurement to screen drawing. it can. Accordingly, it is possible to perform correction in consideration of vestibular movement reflection (visual blur correction function) that occurs when a human head moves.

以上、本発明をその実施形態に基づき具体的に説明したが、本発明は、上記実施形態に限定されるものではない。上記実施形態において、本発明の画像処理装置をドライビングシミュレータに適用した場合について、説明したが、本発明の画像処理装置をその他の装置に適用してもよい。例えば、その他の移動体(飛行機、船舶、鉄道)の操縦などを模擬体験するための模擬映像を表示する装置に適用してもよい。   As mentioned above, although this invention was concretely demonstrated based on the embodiment, this invention is not limited to the said embodiment. In the above embodiment, the case where the image processing apparatus of the present invention is applied to a driving simulator has been described. However, the image processing apparatus of the present invention may be applied to other apparatuses. For example, the present invention may be applied to a device that displays a simulated video for simulating the operation of other moving objects (airplanes, ships, railways).

また、上記実施形態では、眼球位置計測部6及び視点処理部7が、同一のCPUによって構成されているが、眼球位置計測装置及び視点処理装置を各々備える構成としてもよい。   Moreover, in the said embodiment, although the eyeball position measurement part 6 and the viewpoint process part 7 are comprised by the same CPU, it is good also as a structure provided with an eyeball position measurement apparatus and a viewpoint processing apparatus, respectively.

本発明の実施形態に係る画像処理装置を備えたドライビングシミュレータの概略構成図である。It is a schematic block diagram of the driving simulator provided with the image processing apparatus which concerns on embodiment of this invention. ドライビングシミュレータによる動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure by a driving simulator. 操作者の顔画像の一例を示すものであり、操作者の視線位置の検出例を示す概略図である。It is an outline figure showing an example of an operator's face picture, and showing an example of detection of a gaze position of an operator. 検出された眼球位置データを示すグラフである。It is a graph which shows the detected eyeball position data.

符号の説明Explanation of symbols

1…ドライビングシミュレータ、2…スクリーン、3…画像処理装置、4…プロジェクタ、5…記憶部、6…眼球位置計測部、7…視点処理部(補正手段)、8…カメラ。   DESCRIPTION OF SYMBOLS 1 ... Driving simulator, 2 ... Screen, 3 ... Image processing apparatus, 4 ... Projector, 5 ... Memory | storage part, 6 ... Eyeball position measurement part, 7 ... Viewpoint processing part (correction means), 8 ... Camera.

Claims (2)

操作者に視認される模擬映像を表示する表示手段、及び前記表示手段による表示画像を操作者の眼球位置に応じて補正する補正手段を備えた画像表示装置において、
操作者の眼球位置変化データを計測する眼球位置計測手段を有し、
前記補正手段は、眼球位置変化データの高周波成分に応じて前記表示画像を補正しないことを特徴とする画像処理装置。
In an image display device comprising display means for displaying a simulated video visually recognized by an operator, and correction means for correcting a display image by the display means in accordance with the eyeball position of the operator,
Having eyeball position measuring means for measuring the eyeball position change data of the operator;
The image processing apparatus according to claim 1, wherein the correction unit does not correct the display image according to a high frequency component of eyeball position change data.
前記補正手段は、前記高周波成分が除去された眼球位置変化データの低周波成分のみに基づいて、前記表示画像における視点位置を補正する請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction unit corrects a viewpoint position in the display image based only on a low frequency component of the eyeball position change data from which the high frequency component has been removed.
JP2008264166A 2008-10-10 2008-10-10 Image processing apparatus Pending JP2010091955A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008264166A JP2010091955A (en) 2008-10-10 2008-10-10 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008264166A JP2010091955A (en) 2008-10-10 2008-10-10 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2010091955A true JP2010091955A (en) 2010-04-22

Family

ID=42254712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008264166A Pending JP2010091955A (en) 2008-10-10 2008-10-10 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2010091955A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010042030A1 (en) 2010-04-13 2011-10-13 Nec Corporation Electric device
JP2015018074A (en) * 2013-07-10 2015-01-29 トヨタ紡織株式会社 Vehicle drive simulation device
JP2016507762A (en) * 2012-12-06 2016-03-10 グレンツェバッハ・マシーネンバウ・ゲーエムベーハー Method and apparatus for combined simulation and control of a remotely operated vehicle using a user-friendly projection system
JP2018512688A (en) * 2015-04-10 2018-05-17 ヴァーズーム,インコーポレイテッド Virtual reality exercise game

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010042030A1 (en) 2010-04-13 2011-10-13 Nec Corporation Electric device
JP2016507762A (en) * 2012-12-06 2016-03-10 グレンツェバッハ・マシーネンバウ・ゲーエムベーハー Method and apparatus for combined simulation and control of a remotely operated vehicle using a user-friendly projection system
JP2015018074A (en) * 2013-07-10 2015-01-29 トヨタ紡織株式会社 Vehicle drive simulation device
JP2018512688A (en) * 2015-04-10 2018-05-17 ヴァーズーム,インコーポレイテッド Virtual reality exercise game
US11144116B2 (en) 2015-04-10 2021-10-12 Virzoom, Inc. Virtual reality exercise game

Similar Documents

Publication Publication Date Title
JP6493361B2 (en) Vehicle device, vehicle program, filter design program
JP5092776B2 (en) Gaze direction detection device and gaze direction detection method
JP6470334B2 (en) Vehicle display system and method for controlling vehicle display system
CN108025645B (en) Display apparatus and vehicle display methods
JP2017185988A5 (en)
JP2013132969A (en) Steering wheel position control system
JP2010091955A (en) Image processing apparatus
JP2009232945A (en) Apparatus for detecting driver&#39;s condition and method for detecting state of consciousness
JP5644414B2 (en) Awakening level determination device, awakening level determination method, and program
CN108058643B (en) Vehicle rear area image display device and computer-readable medium storing vehicle rear area image display program
JP2007210512A (en) Drive sense adjusting device
JP2006142897A (en) Display device for vehicle, and controlling method of display device for vehicle
JPH1164131A (en) Seating monitoring device for vehicle
WO2017168953A1 (en) Vehicle device, vehicle program, and filter design program
JP6776681B2 (en) Driver status determination device and driver status determination program
JP2017138645A (en) Sight-line detection device
JP4501518B2 (en) In-vehicle information providing apparatus and control method for in-vehicle information providing apparatus
JP2004356731A (en) On-vehicle information providing apparatus
EP3493027A1 (en) Method for rendering a current image on a head-mounted display, corresponding apparatus, computer program product, and computer-readable carrier medium
CN109866683A (en) Driving assist apparatuses and methods
CN110303883A (en) A kind of detection alarm set, method and assistant equipments on board
JP6409712B2 (en) EEG acquisition method and EEG acquisition apparatus
KR101483888B1 (en) Apparatus for preventing sleepiness of driver
JP2009279146A (en) Apparatus and program for image processing
JP4474985B2 (en) In-vehicle information provider