JP6048186B2 - VISION DETERMINING DEVICE, VEHICLE DISPLAY CONTROL DEVICE, AND PROGRAM - Google Patents

VISION DETERMINING DEVICE, VEHICLE DISPLAY CONTROL DEVICE, AND PROGRAM Download PDF

Info

Publication number
JP6048186B2
JP6048186B2 JP2013020937A JP2013020937A JP6048186B2 JP 6048186 B2 JP6048186 B2 JP 6048186B2 JP 2013020937 A JP2013020937 A JP 2013020937A JP 2013020937 A JP2013020937 A JP 2013020937A JP 6048186 B2 JP6048186 B2 JP 6048186B2
Authority
JP
Japan
Prior art keywords
image
visual acuity
composite image
composite
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013020937A
Other languages
Japanese (ja)
Other versions
JP2014150847A (en
Inventor
守 竹之内
守 竹之内
孝司 阿部
孝司 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Kinki University
Original Assignee
Nippon Seiki Co Ltd
Kinki University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd, Kinki University filed Critical Nippon Seiki Co Ltd
Priority to JP2013020937A priority Critical patent/JP6048186B2/en
Publication of JP2014150847A publication Critical patent/JP2014150847A/en
Application granted granted Critical
Publication of JP6048186B2 publication Critical patent/JP6048186B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、視力判定用装置、車両用表示制御装置及びプログラムに関する。   The present invention relates to a visual acuity determination device, a vehicle display control device, and a program.

例えば、非特許文献1には、異なる2つの画像のうちの、一方の画像に対して低周波数帯を通過するローバンドパスフィルタを適用し、他方の画像に対して高周波数帯を通過するハイバンドパスフィルタを適用し、各フィルタ適用後の画像を合成する方法が開示されている。このような合成画像は、例えば、遠くから見た場合と近くから見た場合とで、又は、合成画像を小さくして見た場合と大きくした場合とで、すなわち、視認環境の違いで、合成元の2つの画像のいずれかに見えるという特徴を有している。   For example, in Non-Patent Document 1, a low band pass filter that passes a low frequency band is applied to one of two different images, and a high band that passes a high frequency band to the other image. A method of applying a pass filter and synthesizing images after applying each filter is disclosed. Such a composite image is composed, for example, when viewed from a distance and when viewed from near, or when the composite image is viewed with a small size and when the composite image is viewed with a large size. It has the feature of appearing as one of the original two images.

Hybrid images:GIGGRAPH'06 ACM SIGGRAPH 2006 Papers Pages 527-532Hybrid images: GIGGRAPH'06 ACM SIGGRAPH 2006 Papers Pages 527-532

しかしながら、上記技術を用いた応用技術の開発は進んでいなかったが、本発明者は、上記技術を視力の判定に用いることができることを見出した。   However, although development of applied technology using the above technology has not progressed, the present inventor has found that the above technology can be used for visual acuity determination.

本発明は、上記点に鑑みてなされたものであり、2つの画像を合成した合成画像を用いて視力を判定することが可能な、視力判定用装置、車両用表示制御装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and provides a visual acuity determination device, a vehicle display control device, and a program capable of determining visual acuity using a composite image obtained by combining two images. For the purpose.

本発明の第1の観点に係る視力判定用装置は、
対象者の視力を判定するための視力判定用装置であって、
低周波数帯を主要な帯域とする周波数スペクトルを有する第1画像と、高周波数帯を主要な帯域とする周波数スペクトルを有する第2画像との合成画像を前記対象者に提示する提示手段を、有し、
前記合成画像は、前記提示手段によって提示された前記合成画像から所定の距離離れた前記対象者の視力に応じて、前記合成画像を前記第1画像又は前記第2画像のいずれかであると認識可能な画像である、
ことを特徴とする。
The visual acuity determination device according to the first aspect of the present invention is:
A device for determining visual acuity for determining the visual acuity of a subject,
Presenting means for presenting to the subject a composite image of a first image having a frequency spectrum whose main frequency band is a low frequency band and a second image having a frequency spectrum whose main band is a high frequency band. And
The composite image is recognized as either the first image or the second image according to the visual acuity of the subject who is a predetermined distance away from the composite image presented by the presenting means. Is a possible image,
It is characterized by that.

本発明の第2の観点に係る車両用表示制御装置は、
本発明の第1の観点に係る視力判定用装置を含むことを特徴とする。
A vehicle display control device according to a second aspect of the present invention provides:
The eyesight determination device according to the first aspect of the present invention is included.

本発明の第3の観点に係るプログラムは、
対象者の視力を判定するためのコンピュータに、
低周波数帯を主要な帯域とする周波数スペクトルを有する第1画像と、高周波数帯を主要な帯域とする周波数スペクトルを有する第2画像との合成画像を生成する生成ステップと、
生成ステップによって生成された合成画像を所定の表示部に表示して前記対象者に提示する提示ステップと、を実行させ、
前記合成画像は、前記提示ステップによって提示された前記合成画像から所定の距離離れた前記対象者の視力に応じて、前記合成画像を前記第1画像又は前記第2画像のいずれかであると認識可能な画像である、
ことを特徴とする。
The program according to the third aspect of the present invention is:
In the computer for judging the eyesight of the subject,
Generating a composite image of a first image having a frequency spectrum whose main band is a low frequency band and a second image having a frequency spectrum whose main band is a high frequency band;
A presentation step of displaying the composite image generated by the generation step on a predetermined display unit and presenting the composite image to the target person;
The composite image is recognized as either the first image or the second image according to the visual acuity of the subject who is a predetermined distance away from the composite image presented in the presenting step. Is a possible image,
It is characterized by that.

本発明によれば、2つの画像を合成した合成画像を用いて視力を判定することができる。   According to the present invention, it is possible to determine visual acuity using a composite image obtained by combining two images.

車両を示す図である。It is a figure which shows a vehicle. 車両用表示制御装置の構成を示す図である。It is a figure which shows the structure of the display control apparatus for vehicles. 実施形態1に係る合成元の画像と合成画像を示す図である。It is a figure which shows the original image and synthetic | combination image which concern on Embodiment 1. FIG. 視力判定処理のフローチャートである。It is a flowchart of a visual acuity determination process. 設定処理のフローチャートである。It is a flowchart of a setting process. 画像合成処理のフローチャートである。It is a flowchart of an image composition process. 成人男性が運転姿勢を保持したときの状態を示す図である。It is a figure which shows a state when an adult male hold | maintains a driving posture. 実施形態1に係る基準周波数テーブルを示す図である。It is a figure which shows the reference frequency table which concerns on Embodiment 1. FIG. 人の顔を表す元画像を合成した合成画像を示す図である。It is a figure which shows the synthesized image which synthesize | combined the original image showing a person's face. 実施形態1に係る視力判定用の選択画面を示す図である。It is a figure which shows the selection screen for the visual acuity determination which concerns on Embodiment 1. FIG. 実施形態2に係る合成元の画像と合成画像を示す図である。It is a figure which shows the original image and synthetic | combination image which concern on Embodiment 2. FIG. 実施形態2に係る基準周波数テーブルを示す図である。It is a figure which shows the reference frequency table which concerns on Embodiment 2. FIG. 実施形態2に係る視力判定用の選択画面を示す図である。It is a figure which shows the selection screen for the visual acuity determination which concerns on Embodiment 2. FIG. (a)〜(c)は、合成元の画像と合成画像を示す図である。(A)-(c) is a figure which shows the original image and synthetic | combination image.

(実施形態1)
以下、本発明の実施の形態に係る車両用表示制御装置100を、図面を参照しながら説明する。
車両用表示制御装置100は、図1に示す車両1に搭載されており、車両用計器としての機能を有するが、さらに、ユーザ(運転者)の視力を判定する視力判定用機能を有している。ただし、視力判定の際、視力判定用の文字や図形(例えば、ランドルト環)の大きさを、判定する視力、文字や図形からユーザまでの距離に応じて変えることが一般的だが、車両用表示制御装置100は、文字や図形の大きさを変えずに視力を判定することができる。
以下、この車両用表示制御装置100の構成を説明する。
(Embodiment 1)
Hereinafter, a vehicle display control apparatus 100 according to an embodiment of the present invention will be described with reference to the drawings.
The vehicle display control device 100 is mounted on the vehicle 1 shown in FIG. 1 and has a function as a vehicle meter, and further has a function for determining a visual acuity that determines the visual acuity of a user (driver). Yes. However, when determining visual acuity, it is common to change the size of the character or figure for visual acuity determination (for example, Landolt ring) according to the visual acuity to be determined or the distance from the character or graphic to the user. The control device 100 can determine the visual acuity without changing the size of characters and figures.
Hereinafter, the configuration of the vehicle display control apparatus 100 will be described.

車両用表示制御装置100は、図2に示すように、操作部10と、表示部20と、記憶部30と、制御部40とを備え、車両1に搭載されている。   As shown in FIG. 2, the vehicle display control apparatus 100 includes an operation unit 10, a display unit 20, a storage unit 30, and a control unit 40, and is mounted on the vehicle 1.

操作部10は、タッチパネル、操作スイッチ等を備え、車両1のステアリング2(図1参照)等に配置されている。ステアリング2は、車両1の操舵装置の一部であり、本体部2a(車両1のステアリングシャフトと接続しているスポーク部)と、本体部2aに取り付けられたステアリングホイール2bとから構成されている。操作部10は、ユーザの入力操作の内容を示す操作情報を制御部40に出力する。   The operation unit 10 includes a touch panel, operation switches, and the like, and is disposed on the steering 2 (see FIG. 1) of the vehicle 1. The steering 2 is a part of the steering device of the vehicle 1 and includes a main body 2a (a spoke connected to the steering shaft of the vehicle 1) and a steering wheel 2b attached to the main body 2a. . The operation unit 10 outputs operation information indicating the content of the user's input operation to the control unit 40.

表示部20は、LCD(Liquid Crystal Display:液晶ディスプレイ)、OELD(Organic Electro Luminescence Display:有機ELディスプレイ)等を備え、車両用表示制御装置100の前方に向いて配置されている。表示部20は、制御部40から供給された画像信号が表す画像を運転者に表示する。例えば、表示部20は、視力を判定するために使用される視力判定用の画像や、車両の状態情報(車速、エンジン回転数等)を表す画像(指針式計器の画像やデジタルの計器画像等)を表示する。   The display unit 20 includes an LCD (Liquid Crystal Display), an OELD (Organic Electro Luminescence Display), and the like, and is disposed facing the front of the vehicle display control device 100. The display unit 20 displays an image represented by the image signal supplied from the control unit 40 to the driver. For example, the display unit 20 is an image for determining visual acuity used for determining visual acuity, an image representing vehicle state information (vehicle speed, engine speed, etc.) (an image of a pointer-type instrument, a digital instrument image, etc.) ) Is displayed.

視力判定用の画像は、第1の画像が有する周波数スペクトル(例えば、画像データを離散フーリエ変換することで得られる。)から低周波数成分を抽出した画像と、第2の画像が有する周波数スペクトルから高周波数成分を抽出した画像と、の合成画像(ハイブリッドイメージ)である。ここで、なぜ、合成画像を用いて視力の判定が出来るかを説明する。   The image for visual acuity determination is based on the frequency spectrum of the first image (for example, obtained by performing discrete Fourier transform on image data), and the frequency spectrum of the second image. It is a composite image (hybrid image) of an image from which high frequency components have been extracted. Here, why the visual acuity can be determined using the composite image will be described.

画像の周波数スペクトルのうち、低周波数成分は、濃淡値の変化が少ない部分を表し、高周波数成分は、濃淡値の変化が多い部分を表す。例えば、一色の背景画像やピンぼけした画像は、濃淡値の変化が少ないので、これら画像は、低周波数成分を主な成分とする周波数スペクトルの画像となる。例えば、被写体の輪郭がはっきりした画像や絵が細かい画像は、濃淡値の変化が多いので、このような画像は、高周波数成分を主な成分とする周波数スペクトルの画像となる。一般に、人間が画像を近くで見るほど、輪郭等がはっきり見えるが、遠くで見るほど、輪郭がぼやけて見え、他の部分が主だって見えるようになる。すなわち、高周波数成分を主とする画像を見るときには近くから見るとよく見え、低周波数成分を主とする画像を見るときには遠くから見るとよく見える。このため、人間は、合成画像を近くで見た場合に、当該合成画像が高周波数成分を主とする第2の画像に見え(正確には例えば第2の画像に写った被写体が合成画像に現れていると見え)、合成画像を遠くで見た場合に、当該合成画像が低周波数成分を主とする第1の画像に見える(正確には例えば第1の画像に写った被写体が合成画像に現れていると見える)。   Of the frequency spectrum of the image, the low frequency component represents a portion with a small change in gray value, and the high frequency component represents a portion with a large change in gray value. For example, since a background image of one color or an out-of-focus image has little change in gray value, these images are images of a frequency spectrum whose main component is a low frequency component. For example, since an image with a clear outline of a subject or an image with a fine picture has many changes in gray value, such an image is an image of a frequency spectrum whose main component is a high frequency component. Generally, the closer a person sees an image, the clearer the outline and the like, but the farther the image is, the more blurred the outline and the other parts become visible. That is, when looking at an image mainly composed of high frequency components, it can be seen well from near, and when looking at an image mainly composed of low frequency components, it can be seen well from a distance. For this reason, when a human sees a composite image close, the composite image appears as a second image mainly composed of high-frequency components (exactly, for example, a subject reflected in the second image becomes a composite image). When the composite image is viewed from a distance, the composite image appears as a first image mainly including low-frequency components (exactly, for example, a subject reflected in the first image is a composite image) Appears to appear).

本願発明者は、このような合成画像を用いて視力を判定できることを見出した。具体的には、合成画像を所定距離離れた人間に見せたとき、その人間の視力によって、合成画像の見え方が異なる(第1の画像に見えるか第2の画像に見えるか)ことを見出した。つまり、合成画像をユーザに見せ、そのユーザが第1の画像に見えるか第2の画像に見えるかに応じてユーザの視力を判定できることを見出した。さらに、ユーザと合成画像との距離が一定とならない場合であっても、前記距離に応じて、抽出する低周波数成分や高周波数成分の帯域を変動させることによって、前記距離が変化しても、ユーザの視力を判定できることも見出した。この実施形態は、このようなことを利用したものである。   The inventor of the present application has found that visual acuity can be determined using such a composite image. Specifically, when the composite image is shown to a human being a predetermined distance away, it is found that the appearance of the composite image differs depending on the human eyesight (whether it looks like the first image or the second image). It was. That is, the present inventors have found that the user's visual acuity can be determined depending on whether the user sees the composite image as the first image or the second image. Furthermore, even if the distance between the user and the composite image is not constant, even if the distance changes by changing the band of the low frequency component and high frequency component to be extracted according to the distance, It has also been found that the user's visual acuity can be determined. This embodiment uses such a thing.

合成画像の例を、図3に示す。図3の合成画像4は、画像4−1が有する周波数スペクトルから基準低周波数(低周波数成分を抽出する際の基準となる周波数)をピークとする低周波数成分を抽出した画像と、画像4−2が有する周波数スペクトルから基準高周波数(高周波数成分を抽出する際の基準となる周波数)をピークとする高周波数成分を抽出した画像と、の合成画像である。なお、基準低周波数は、基準高周波数より低い周波数である。   An example of the composite image is shown in FIG. The composite image 4 in FIG. 3 includes an image obtained by extracting a low frequency component having a peak at a reference low frequency (a reference frequency when a low frequency component is extracted) from the frequency spectrum of the image 4-1, and an image 4- 2 is a composite image of an image obtained by extracting a high frequency component having a peak at a reference high frequency (a frequency used as a reference when extracting a high frequency component) from the frequency spectrum of 2. The reference low frequency is a frequency lower than the reference high frequency.

合成画像4は、合成画像4から所定の距離離れたユーザが、所定の視力以上であれば画像4−2(平仮名「ぬ」を表す画像)であると視認し、所定の視力未満であれば画像4−1(平仮名「め」を表す画像)であると視認するという特徴を備えている。つまり、所定距離離れたユーザが、合成画像を画像4−2であると視認した場合(平仮名「ぬ」が見える場合)には、ユーザの視力が所定の視力以上であると判定でき、合成画像を画像4−1であると視認した場合(平仮名「め」が見える場合)には、ユーザの視力が所定の視力未満であると判定できる。また、前記所定距離が変化する場合には、基準低周波数及び/又は基準高周波数を変動させることによって、前記所定距離が変化しても、同じ画像を用いて合成画像を生成して、前記判定と同じ判定ができる。   The composite image 4 is visually recognized as an image 4-2 (an image representing Hiragana “Nu”) if a user at a predetermined distance from the composite image 4 has a predetermined visual acuity or more, and is less than the predetermined visual acuity. It has a feature of visually recognizing that it is an image 4-1 (an image representing the hiragana “me”). That is, when a user who is away by a predetermined distance visually recognizes that the composite image is the image 4-2 (when the hiragana “Nu” is seen), it can be determined that the user's visual acuity is equal to or greater than the predetermined visual acuity. Can be determined that the user's visual acuity is less than the predetermined visual acuity. In addition, when the predetermined distance changes, a composite image is generated using the same image even if the predetermined distance changes by changing a reference low frequency and / or a reference high frequency, and the determination The same judgment can be made.

記憶部30は、フラッシュメモリ、ハードディスク等の記憶装置を備え、後述する視力判定処理等を実行するためのプログラム、各種テーブル、各種データ等を記憶している。   The storage unit 30 includes a storage device such as a flash memory and a hard disk, and stores a program for executing a visual acuity determination process, which will be described later, various tables, various data, and the like.

制御部40は、CPU(Central Processing Unit)、基本動作プログラムを記憶するROM(Read Only Memory)、ワークエリアとなるRAM(Random Access Memory)等を備え、ROM、記憶部30等が記憶するプログラムに従って種々の処理を実行する。例えば、制御部40は、視力判定用プログラムに従って後述する視力判定処理を実行する。また、制御部40は、視力判定用プログラムに従って動作することで、距離取得部41、低周波数成分抽出部42、高周波数成分抽出部43、合成部44、表示制御部45、視力判定部46として機能する(これら各部が行う処理は後述する)。なお、制御部40は、少なくとも一部が、ASIC(Application Specific Integrated Circuit)等の各種専用回路から構成されていてもよい。   The control unit 40 includes a CPU (Central Processing Unit), a ROM (Read Only Memory) that stores a basic operation program, a RAM (Random Access Memory) that serves as a work area, and the like, according to programs stored in the ROM, the storage unit 30, and the like. Various processes are executed. For example, the control unit 40 executes a visual acuity determination process described later according to the visual acuity determination program. In addition, the control unit 40 operates according to the visual acuity determination program, so that a distance acquisition unit 41, a low frequency component extraction unit 42, a high frequency component extraction unit 43, a synthesis unit 44, a display control unit 45, and a visual acuity determination unit 46 are obtained. It functions (the processes performed by these units will be described later). Note that at least a part of the control unit 40 may be configured by various dedicated circuits such as an ASIC (Application Specific Integrated Circuit).

次に、このような構成を有する車両用表示制御装置100の動作について、図4〜6のフローチャートを参照して説明する。   Next, the operation of the vehicle display control apparatus 100 having such a configuration will be described with reference to the flowcharts of FIGS.

制御部40は、車両用表示制御装置100の電源が投入されると、表示部20にメニュー画面を表示する。このメニュー画面には、選択項目「設定」、「視力判定」を含む複数の選択項目が表示されている。ユーザは、操作部10を操作して、複数の選択項目のいずれかを選択する。   The control unit 40 displays a menu screen on the display unit 20 when the vehicle display control device 100 is powered on. In this menu screen, a plurality of selection items including selection items “setting” and “sight determination” are displayed. The user operates the operation unit 10 to select one of a plurality of selection items.

制御部40は、操作部10からの操作情報に基づいて、ユーザが選択項目「設定」、「視力判定」のいずれかを選択したと判別した場合、視力判定処理を実行する。   When the control unit 40 determines that the user has selected one of the selection items “setting” and “visual acuity determination” based on the operation information from the operation unit 10, the control unit 40 executes a visual acuity determination process.

図4に示すように、制御部40は、操作部10からの操作情報に基づいて、視力判定処理の開始の契機として選択された項目が「設定」、「視力判定」のうち「視力判定」であるか否かを判別し(ステップS100)、「視力判定」が選択されていない場合には(ステップS100;No)、つまり、「設定」が選択された場合には、設定処理を実行する(ステップS200)。   As illustrated in FIG. 4, the control unit 40 determines that the item selected as the trigger for starting the visual acuity determination process based on the operation information from the operation unit 10 is “setting” and “visual acuity determination” among “visual acuity determination”. (Step S100), if “sight determination” is not selected (step S100; No), that is, if “setting” is selected, a setting process is executed. (Step S200).

設定処理では(図5参照)、制御部40の表示制御部45が、設定方法選択画面を表示部20に表示する(ステップS201)。設定方法選択画面には、選択項目「デフォルト値使用」、「身長入力」が表示される。ユーザは、操作部10を操作して、選択項目「デフォルト値使用」、「身長入力」のいずれかを選択する。   In the setting process (see FIG. 5), the display control unit 45 of the control unit 40 displays a setting method selection screen on the display unit 20 (step S201). On the setting method selection screen, selection items “default value use” and “height input” are displayed. The user operates the operation unit 10 to select either the selection item “use default value” or “height input”.

表示制御部45は、操作部10からの操作情報に基づいて、ユーザが選択項目「身長入力」を選択したか否かを判別し(ステップS202)、「身長入力」が選択された場合(ステップS202;Yes)、ユーザに身長の入力を求める身長入力画面を表示部20に表示する(ステップS203)。ユーザは、操作部10を用いて身長を入力する。   The display control unit 45 determines whether or not the user has selected the selection item “enter height” based on the operation information from the operation unit 10 (step S202), and when “enter height” is selected (step S202). S202; Yes), a height input screen for prompting the user to input height is displayed on the display unit 20 (step S203). The user inputs the height using the operation unit 10.

一方、ステップS202において、表示制御部45は、「身長入力」が選択されないと判別した場合(ステップS202;No)、つまり、操作部10からの操作情報に基づいて「デフォルト値使用」が選択されたと判別した場合には、性別の入力を求める性別入力画面を表示部20に表示する(ステップS205)。ユーザは、操作部10を用いて性別を入力する。   On the other hand, in step S202, the display control unit 45 determines that “enter height” is not selected (step S202; No), that is, “use default value” is selected based on the operation information from the operation unit 10. If it is determined that a gender is input, a gender input screen for gender input is displayed on the display unit 20 (step S205). The user inputs gender using the operation unit 10.

性別が入力されると、制御部40の距離取得部41は、性別と身長とを関連付けた身長情報テーブル(記憶部30に記憶されている。)を参照し、操作部10からの操作情報に基づいて(つまり、入力された性別に基づいて)、この身長情報テーブルからユーザの性別に関連付けられている身長(身長のデフォルト値)を読み出す(ステップS206)。なお、身長情報テーブルが性別に関連付けている身長は、日本国内における男性及び女性の平均身長である。   When the gender is input, the distance acquisition unit 41 of the control unit 40 refers to the height information table (stored in the storage unit 30) in which the gender and the height are associated with each other, and the operation information from the operation unit 10 is displayed. Based on (that is, based on the input gender), the height (default height value) associated with the user's gender is read from the height information table (step S206). The height associated with the sex in the height information table is the average height of men and women in Japan.

ステップS203で身長入力画面を表示したあと身長が入力されると、又は、ステップS206において身長を読み出すと、制御部40の距離取得部41は、操作部10に入力された身長又は身長情報テーブルから読み出した身長に基づいて、合成画像からユーザの目までの所定距離、すなわち、視力判定距離を取得する(ステップS204)。   When the height is input after the height input screen is displayed in step S203, or when the height is read in step S206, the distance acquisition unit 41 of the control unit 40 reads from the height or height information table input to the operation unit 10. Based on the read height, a predetermined distance from the composite image to the user's eyes, that is, a visual acuity determination distance is acquired (step S204).

以下、視力判定距離を取得する方法について説明する。
3DM−JM50(自動車室内寸法測定用三次元座位人体模型)が規定する成人男性が車両1内における平均的な運転姿勢を保持したときのアイポイント(目の位置)に基づいて、予め、表示部20からアイポイントまでの距離(3DM−JM50についての視力判定距離)を測定などしておく。測定した距離や測定に用いた3DM−JM50の身長のデータは、記憶部30に予め記憶しておく。
距離取得部41は、操作部10に入力された身長又は身長情報テーブルから読み出した身長(ユーザの身長ともいう。)と3DM−JM50の身長(記憶部30に記憶されたもの)との身長比(例えば、3DM−JM50の身長が分母)をまず求める。記憶部30には、身長比(1.1〜1.2など、値について幅を持っているものする)と、ユーザ3のアイポイントPから合成画像までの距離(視力判定距離)と、を関連付けたテーブル(身長比と距離との関係は予め測定しておけばよい。)が記憶されているものとする。距離取得部41は、このようなテーブルを参照し、前記で求めた身長比に関連付けられた視力判定距離Lを取得する。
Hereinafter, a method for obtaining the visual acuity determination distance will be described.
Based on an eye point (eye position) when an adult male defined by 3DM-JM50 (three-dimensional sitting human model for measuring vehicle interior dimensions) holds an average driving posture in the vehicle 1, a display unit The distance from 20 to the eye point (sight determination distance for 3DM-JM50) is measured. The measured distance and the height data of the 3DM-JM 50 used for the measurement are stored in the storage unit 30 in advance.
The distance acquisition unit 41 is a height ratio between the height input from the operation unit 10 or the height read from the height information table (also referred to as the user's height) and the height of the 3DM-JM 50 (stored in the storage unit 30). First, for example, the height of 3DM-JM50 is the denominator. The storage unit 30 includes a height ratio (1.1 to 1.2, etc., having a range of values), and a distance from the eye point P of the user 3 to the composite image (sight determination distance). Assume that an associated table (relationship between height ratio and distance may be measured in advance) is stored. The distance acquisition unit 41 refers to such a table and acquires the visual acuity determination distance L associated with the height ratio obtained above.

なお、距離取得部41は、より正確な距離Lを算出するために、実際にユーザ3が運転姿勢を保持したときのシートスライド量Sとシートバック角度Aに基づいて、距離Lを補正してもよい。
例えば、図7に示す車両のシートが、各種センサを備え、各種センサによって検出したシートのスライド量(シートスライド量S)及びシートバック角度Aを距離取得部41が受け取れるものとする。記憶部30には、シートスライド量S(値について幅を持っているものする)と、シートバック角度A(値について幅を持っているものする)と、視力判定距離Lの補正値と、を関連付けたテーブル(3つの関係は予め測定しておけばよい。)が記憶されているものとする。距離取得部41は、このようなテーブルを参照し、前記センサから受け取ったシートスライド量S及びシートバック角度Aに関連付けられた補正値を取得し、前記で取得した視力判定距離Lに取得した補正値を加算(又は減算)して、補正後の視力判定距離Lを取得する。
The distance acquisition unit 41 corrects the distance L based on the seat slide amount S and the seat back angle A when the user 3 actually holds the driving posture in order to calculate a more accurate distance L. Also good.
For example, the vehicle seat illustrated in FIG. 7 includes various sensors, and the distance acquisition unit 41 can receive the seat slide amount (seat slide amount S) and the seat back angle A detected by the various sensors. The storage unit 30 includes a seat slide amount S (having a width for the value), a seat back angle A (having a width for the value), and a correction value for the visual acuity determination distance L. Assume that an associated table (the three relationships may be measured in advance) is stored. The distance acquisition unit 41 refers to such a table, acquires the correction value associated with the seat slide amount S and the seat back angle A received from the sensor, and the correction acquired for the visual acuity determination distance L acquired above. The corrected visual acuity determination distance L is acquired by adding (or subtracting) the value.

次に、距離取得部41は、取得した視力判定距離を記憶部30に記憶して(ステップS207)、設定処理を終了する。   Next, the distance acquisition unit 41 stores the acquired visual acuity determination distance in the storage unit 30 (step S207), and ends the setting process.

図4に戻り、設定処理の終了後、制御部40は、画像合成処理を実行する(ステップS300)。また、制御部40は、「視力判定」が選択された場合も(ステップS100;Yes)、画像合成処理(図6参照)を実行する(ステップS300)。   Returning to FIG. 4, after the setting process is completed, the control unit 40 executes an image composition process (step S300). The control unit 40 also executes the image composition process (see FIG. 6) even when “sight determination” is selected (step S100; Yes) (step S300).

画像合成処理では、例えば、2つの画像が合成され、上述した合成画像が生成される。ここでは、一方の画像を画像A(合成画像の元となる画像であり、以下、適宜元画像Aという。)とし、他方の画像を画像B(合成画像の元となる画像であり、以下、適宜元画像Bという。)とする。これら画像の画像データは、記憶部30に予め記憶されて用いられるものとする。画像合成処理において、低周波数成分抽出部42は、元画像Aについて、元画像Aの画像データによって特定される各画素の濃度値を離散フーリエ変換し、元画像Aの周波数スペクトル(周波数成分)を取得する。また、高周波数成分抽出部43は、元画像Bについて、元画像Bの画像データによって特定される各画素の濃度値を離散フーリエ変換し、元画像Bの周波数スペクトルを取得する(ステップS301)。   In the image synthesis process, for example, two images are synthesized, and the above-described synthesized image is generated. Here, one image is an image A (an image that is a source of a composite image, hereinafter referred to as an original image A as appropriate), and the other image is an image B (an image that is a source of a composite image, It is referred to as an original image B as appropriate). The image data of these images is stored in advance in the storage unit 30 and used. In the image synthesis process, the low frequency component extraction unit 42 performs discrete Fourier transform on the original image A for the density value of each pixel specified by the image data of the original image A, and the frequency spectrum (frequency component) of the original image A is obtained. get. Moreover, the high frequency component extraction part 43 carries out a discrete Fourier transform about the density | concentration value of each pixel specified by the image data of the original image B about the original image B, and acquires the frequency spectrum of the original image B (step S301).

次に、低周波数成分抽出部42がステップS302の処理を行う。低周波数成分抽出部42は、ステップS302において、記憶部30に予め記憶されている基準周波数テーブル31を参照する。基準周波数テーブル31は、図8に示すように、視力判定距離と、基準低周波数と、基準高周波数と、を関連付けて保持している。基準周波数テーブル31では、合成画像4とユーザとの距離である視力判定距離それぞれに対して、該当する視力判定距離において、視力の判定を適切に行える合成画像を生成するための、基準低周波数と、基準高周波数と、が関連付けられている。つまり、視力判定距離が第1の距離に関連付けられた基準低周波数と、基準高周波数と、を用いて合成画像を生成した場合には、この基準低周波数と、基準高周波数と、を用いて生成された合成画像を用いて視力判定(視力判定距離は第1の距離)を行うことで、合成画像を元画像Bであると視認した場合(例えば、図3における平仮名「ぬ」が見える場合)には、ユーザの視力が所定の視力以上であると判定でき、合成画像を元画像Aであると視認した場合(例えば図3における平仮名「め」が見える場合)には、ユーザの視力が所定の視力未満であると判定できる。同様に、視力判定距離が第2の距離に関連付けられた基準低周波数と、基準高周波数と、を用いて合成画像を生成した場合には、この基準低周波数と、基準高周波数と、を用いて生成された合成画像を用いて視力判定(視力判定距離は第2の距離)を行うことで、合成画像を元画像Bであると視認した場合(例えば、図3における平仮名「ぬ」が見える場合)には、ユーザの視力が前記所定の視力以上であると判定でき、合成画像を元画像Aであると視認した場合(例えば図3における平仮名「め」が見える場合)には、ユーザの視力が前記所定の視力未満であると判定できる。   Next, the low frequency component extraction part 42 performs the process of step S302. The low frequency component extraction unit 42 refers to the reference frequency table 31 stored in advance in the storage unit 30 in step S302. As shown in FIG. 8, the reference frequency table 31 holds the visual acuity determination distance, the reference low frequency, and the reference high frequency in association with each other. In the reference frequency table 31, for each of the visual acuity determination distances that are the distance between the composite image 4 and the user, a reference low frequency for generating a composite image that can appropriately determine the visual acuity at the corresponding visual acuity determination distance. , And a reference high frequency. That is, when the composite image is generated using the reference low frequency associated with the first distance and the reference high frequency, the reference low frequency and the reference high frequency are used. When the synthesized image is visually recognized as the original image B by performing visual acuity determination (the visual acuity determination distance is the first distance) using the generated composite image (for example, when the hiragana “Nu” in FIG. 3 is seen) ), It can be determined that the user's visual acuity is greater than or equal to the predetermined visual acuity, and when the synthesized image is visually recognized as the original image A (for example, when the hiragana “Me” in FIG. 3 is visible), the user's visual acuity is It can be determined that the visual acuity is less than the predetermined visual acuity. Similarly, when the composite image is generated using the reference low frequency and the reference high frequency associated with the second distance as the visual acuity determination distance, the reference low frequency and the reference high frequency are used. By performing visual acuity determination (the visual acuity determination distance is the second distance) using the generated composite image, the composite image is visually recognized as the original image B (for example, Hiragana “Nu” in FIG. 3 is visible) In the case), it can be determined that the user's visual acuity is equal to or greater than the predetermined visual acuity, and when the synthesized image is visually recognized as the original image A (for example, when the hiragana “Me” in FIG. 3 is seen), It can be determined that the visual acuity is less than the predetermined visual acuity.

さらに、ステップS302において、低周波数成分抽出部42は、基準周波数テーブル31に含まれる視力判定距離のうち、ステップS207で記憶部30に記録された視力判定距離に合致する視力判定距離を特定する。次に、低周波数成分抽出部42は、特定した視力判定距離に関連付けられている基準低周波数を取得する。記憶部30には、基準周波数テーブル31の基準低周波数ごとに、当該基準低周波数をピークとするローバンドパスフィルタ(ここでは、低周波数成分を通過させるバンドパスフィルタ)が複数記憶されている。ここでは、基準低周波数L1(Hz)をピークとするローバンドパスフィルタ、基準低周波数L2(Hz)をピークとするローバンドパスフィルタ、基準低周波数L3(Hz)をピークとするローバンドパスフィルタ等が記憶されている。さらに、ステップS302において、低周波数成分抽出部42は、前記で特定した基準低周波数をピークとするローバンドパスフィルタを記憶部30から取得し、取得したローバンドパスフィルタを元画像Aの周波数スペクトルに適用することで、元画像Aの周波数スペクトルから基準低周波数をピークとする低周波数成分を抽出する。   Further, in step S302, the low frequency component extraction unit 42 specifies a visual acuity determination distance that matches the visual acuity determination distance recorded in the storage unit 30 in step S207, among the visual acuity determination distances included in the reference frequency table 31. Next, the low frequency component extraction unit 42 acquires a reference low frequency associated with the specified visual acuity determination distance. The storage unit 30 stores, for each reference low frequency in the reference frequency table 31, a plurality of low band pass filters (here, a band pass filter that allows low frequency components to pass) having the reference low frequency as a peak. Here, a low band pass filter having a peak at the reference low frequency L1 (Hz), a low band pass filter having a peak at the reference low frequency L2 (Hz), a low band pass filter having a peak at the reference low frequency L3 (Hz), etc. are stored. Has been. Further, in step S302, the low frequency component extraction unit 42 acquires a low band pass filter whose peak is the reference low frequency specified above from the storage unit 30, and applies the acquired low band pass filter to the frequency spectrum of the original image A. Thus, a low frequency component having a reference low frequency as a peak is extracted from the frequency spectrum of the original image A.

ステップS302のあと、ステップS303では、高周波数成分抽出部43は、基準周波数テーブル31を参照し、前記で特定した視力判定距離に関連付けられている基準高周波数を取得する。記憶部30には、基準周波数テーブル31の基準高周波数ごとに、当該基準高周波数をピークとするハイバンドパスフィルタ(ここでは、高周波数成分を通過させるバンドパスフィルタのことをいう)が複数記憶されている。ここでは、基準高周波数H1(Hz)をピークとするハイバンドパスフィルタ、基準高周波数H2(Hz)をピークとするハイバンドパスフィルタ、基準高周波数H3(Hz)をピークとするハイバンドパスフィルタ等が記憶されている。さらに、ステップS303では、高周波数成分抽出部43は、前記で特定した基準高周波数をピークとするハイバンドパスフィルタを記憶部30から取得し、取得したハイバンドパスフィルタを元画像Bの周波数スペクトルに適用することで、元画像Bの周波数スペクトルから基準高周波数をピークとする高周波数成分を抽出する。   After step S302, in step S303, the high frequency component extraction unit 43 refers to the reference frequency table 31 and acquires the reference high frequency associated with the eyesight determination distance specified above. The storage unit 30 stores a plurality of high-band pass filters (herein, band-pass filters that allow high-frequency components to pass) having a peak at the reference high frequency for each reference high frequency in the reference frequency table 31. Has been. Here, a high band pass filter having a peak at the reference high frequency H1 (Hz), a high band pass filter having a peak at the reference high frequency H2 (Hz), and a high band pass filter having a peak at the reference high frequency H3 (Hz). Etc. are stored. Further, in step S303, the high frequency component extraction unit 43 acquires a high band pass filter whose peak is the reference high frequency specified above from the storage unit 30, and uses the acquired high band pass filter as the frequency spectrum of the original image B. To extract a high frequency component having a reference high frequency as a peak from the frequency spectrum of the original image B.

次に、合成部44は、低周波数成分抽出部42が抽出した低周波数成分と、高周波数成分抽出部43が抽出した高周波数成分と、を合成し(周波数スペクトル同士を加算すればよい。)、合成した周波数成分(スペクトル)を逆離散フーリエ変換して合成画像を生成し(ステップS304)、画像合成処理を終了する。   Next, the synthesizing unit 44 synthesizes the low frequency component extracted by the low frequency component extracting unit 42 and the high frequency component extracted by the high frequency component extracting unit 43 (the frequency spectra may be added together). Then, the synthesized frequency component (spectrum) is subjected to inverse discrete Fourier transform to generate a synthesized image (step S304), and the image synthesis process is terminated.

画像合成処理の内容は、以下のような式によって表される。
合成画像H=I1・G1+I2・(1−G2)・・・(1)
ここで、I1は、元画像Aである。I2は、元画像Bである。G1、G2は、画素の濃度値Gainを1/2にしたローバンドパスフィルタである。
なお、ローバンドパスフィルタには、ガウアシアンフィルタ、移動平均法を用いたフィルタ、メディアンフィルタ等、適宜のものであればよい。
The content of the image composition process is expressed by the following formula.
Composite image H = I1 · G1 + I2 · (1−G2) (1)
Here, I1 is the original image A. I2 is the original image B. G1 and G2 are low band pass filters in which the pixel density value Gain is halved.
The low-band pass filter may be any appropriate filter such as a Gaussian filter, a filter using a moving average method, or a median filter.

さらに図9を参照して画像を合成する様子を説明すると、まず元画像Aとして画像8A、元画像Bとして画像8Bを用意する。画像8Aについては、低周波数成分を抽出し、画像8Bについては高周波数成分を抽出する。画像8Aの周波数スペクトルから抽出された低周波数成分を表す周波数スペクトル画像が画像8A’である。なお、周波数スペクトル画像は、中心が直流成分であり、中心から放射状に各周波数成分が分布しており、中心からの距離が大きいほど高周波数成分になる。画像8Bの周波数スペクトルから抽出された高周波数成分を表す周波数スペクトル画像が画像8B’である。次に、抽出された低周波数成分と抽出された高周波数成分とを足し合わせる。画像8Cは、足し合わされた周波数スペクトルを表す周波数スペクトル画像である。その後、足し合わされた周波数スペクトルを逆離散フーリエ変換すると合成画像8の画像データが得られる。   Further, referring to FIG. 9, how the images are combined will be described. First, an image 8A is prepared as the original image A, and an image 8B is prepared as the original image B. A low frequency component is extracted for the image 8A, and a high frequency component is extracted for the image 8B. A frequency spectrum image representing a low frequency component extracted from the frequency spectrum of the image 8A is an image 8A '. In the frequency spectrum image, the center is a direct current component, each frequency component is distributed radially from the center, and the higher the distance from the center, the higher the frequency component. A frequency spectrum image representing a high frequency component extracted from the frequency spectrum of the image 8B is an image 8B '. Next, the extracted low frequency component and the extracted high frequency component are added together. The image 8C is a frequency spectrum image representing the added frequency spectrum. Thereafter, the inverse frequency Fourier transform is performed on the added frequency spectrum to obtain image data of the composite image 8.

図4に戻り、表示制御部45は、視力判定用の選択画面を表示部20に表示する(ステップS101)。図10に示すように、選択画面91には、「視力判定用画像には何が表示されていますか?画像Aに表示されているものと同じものが表示されている場合、「画像A」と書かれたボタンを選択して下さい。画像Bに表示されているものと同じものが表示されている場合、「画像B」と書かれたボタンを選択して下さい。」というメッセージが表示されている。   Returning to FIG. 4, the display control unit 45 displays a selection screen for eyesight determination on the display unit 20 (step S101). As shown in FIG. 10, on the selection screen 91, “What is displayed on the image for eyesight determination? When the same image displayed on image A is displayed,“ image A ”is displayed. Select the button that says If the same image displayed on image B is displayed, select the button labeled “Image B”. Is displayed.

選択画面91の中央部左には、合成画像4(視力判定用画像)が表示されており、その右に、元画像Aである画像4−1及び元画像Bである画像4−2が表示されている。また、画像4−1の下に、「画像A」という文字が表示されている選択ボタン4−1’が表示されており、画像4−2の下に、「画像B」という文字が表示されている選択ボタン4−2’が表示されている。   The composite image 4 (eyesight determination image) is displayed on the left of the center of the selection screen 91, and the image 4-1 that is the original image A and the image 4-2 that is the original image B are displayed on the right. Has been. In addition, a selection button 4-1 ′ on which characters “image A” are displayed is displayed below the image 4-1, and characters “image B” are displayed below the image 4-2. The selected button 4-2 ′ is displayed.

合成画像から所定距離(前記で特定した視力判定距離分とされる長さ)だけ離れているユーザは、選択画面91に表示されているメッセージに従い、合成画像4が表す文字が、画像4−1が表す平仮名「め」に見えるか、それとも画像4−2が表す平仮名「ぬ」に見えるかを確認する。また、ユーザは、確認結果に応じて、選択ボタン4−1’と選択ボタン4−2’のどちらかを選択する。ユーザの視力が所定の視力未満(例えば、運転に必要な0.7よりも下)である場合、ユーザは、合成画像4に表示されている文字が平仮名「め」に見えるので、選択ボタン4−1’を選択する。一方、ユーザの視力が所定の視力以上(例えば、運転に必要な0.7以上)である場合、ユーザは、合成画像に表示されている文字が平仮名「ぬ」に見えるので、選択ボタン4−2’を選択する。   A user who is separated from the composite image by a predetermined distance (the length determined as the visual acuity determination distance specified above) follows the message displayed on the selection screen 91, and the character represented by the composite image 4 is the image 4-1. It is confirmed whether it looks like the hiragana “Me” represented by or hiragana “nu” represented by the image 4-2. Further, the user selects either the selection button 4-1 'or the selection button 4-2' according to the confirmation result. When the user's visual acuity is less than a predetermined visual acuity (for example, lower than 0.7 required for driving), the user can see the character displayed in the composite image 4 as a hiragana “M”, and therefore the selection button 4 -1 'is selected. On the other hand, when the user's visual acuity is equal to or higher than a predetermined visual acuity (for example, 0.7 or higher necessary for driving), the user sees the character displayed in the composite image as Hiragana “Nu”. Select 2 '.

視力判定部46は、操作部10からの操作情報に基づいて、ユーザによって選択ボタンが選択されたか否かを判別する(ステップS102)。ユーザの選択がない場合には(ステップS102;No)、視力判定部46は、ステップ102の処理を再度行う。   The visual acuity determination unit 46 determines whether or not the selection button has been selected by the user based on the operation information from the operation unit 10 (step S102). If there is no user selection (step S102; No), the visual acuity determination unit 46 performs the process of step 102 again.

ユーザの選択があった場合(ステップS102;Yes)、ステップS103において、視力判定部46は、例えば、ユーザがどちらの選択ボタンを選択したかを判定することで、ユーザの視力を判定する。例えば、選択ボタン4−1’が選択された場合、視力判定部46は、ユーザの視力が0.7未満であると判定する。また、選択ボタン4−2’が押された場合、視力判定部46は、ユーザの視力が0.7以上であると判定する。また、ステップS103では、表示制御部45は、視力判定部46による視力の判定結果を表示部20に表示する(ステップS103)。   When there is a user selection (step S102; Yes), in step S103, the visual acuity determination unit 46 determines the user's visual acuity, for example, by determining which selection button the user has selected. For example, when the selection button 4-1 'is selected, the visual acuity determination unit 46 determines that the visual acuity of the user is less than 0.7. When the selection button 4-2 'is pressed, the visual acuity determination unit 46 determines that the user's visual acuity is 0.7 or more. In step S103, the display control unit 45 displays the visual acuity determination result by the visual acuity determination unit 46 on the display unit 20 (step S103).

視力の判定結果を表示した後、表示制御部45は、表示部20にメュー画面を表示して視力判定処理を終了する。   After displaying the visual acuity determination result, the display control unit 45 displays a menu screen on the display unit 20 and ends the visual acuity determination process.

本実施形態によれば、車両用表示制御装置100は、視力判定用の合成画像からユーザまでの距離に応じた周波数をピークとする周波数成分を合成元の画像から抽出し、所定の視力を判定するための合成画像を生成する。これにより、車両用表示制御装置100は、合成画像が表す文字や図形の大きさを変えずに、所定の距離で、所定の視力を判定することができる。特に、従来は、高い視力(例えば、1.5か否か)を判定するときには、文字や図形(例えば、ランドルト環)を小さくしなければならない。このような場合、文字や図形を表示する表示装置の画素が細かくないと、文字や図形を細かく表示できないが、この実施形態では、文字や図形の大きさを変えずに視力を判定できるので、表示装置の画素を細かくする必要がなく、安価に視力を判定できる。   According to the present embodiment, the vehicle display control apparatus 100 extracts a frequency component having a peak corresponding to the distance from the synthesized image for visual acuity determination to the user from the synthesized image, and determines a predetermined visual acuity. To generate a composite image. Thereby, the display control apparatus 100 for vehicles can determine predetermined visual acuity at predetermined distance, without changing the magnitude | size of the character and figure which a synthesized image represents. In particular, conventionally, when determining high visual acuity (for example, whether or not 1.5), characters and figures (for example, Landolt rings) must be reduced. In such a case, if the pixels of the display device that displays the characters and figures are not fine, the characters and figures cannot be displayed finely, but in this embodiment, the eyesight can be determined without changing the size of the characters and figures. It is not necessary to make the pixels of the display device fine, and the visual acuity can be determined at low cost.

(実施形態2)
実施形態1では、1組の基準低周波数及び基準高周波数を用いて1つの合成画像を生成して視力を判定していたが、実施形態2では、元画像A、元画像Bをそれぞれ複数の領域に分割し、それぞれの領域について、ピークの異なる基準低周波数及び基準高周波数を用いて合成画像を生成し、視力判定のために提示する。以下、実施形態2について説明するが、実施形態1との重複部分(車両用表示制御装置100の構成等)については適宜説明を省略する。
(Embodiment 2)
In the first embodiment, the visual acuity is determined by generating one composite image using one set of the reference low frequency and the reference high frequency. However, in the second embodiment, the original image A and the original image B each include a plurality of images. It divides | segments into an area | region, A synthetic | combination image is produced | generated using the reference | standard low frequency and reference | standard high frequency from which a peak differs about each area | region, and it shows for visual acuity determination. Hereinafter, the second embodiment will be described, but the description of the overlapping parts with the first embodiment (the configuration of the vehicle display control device 100) will be appropriately omitted.

実施形態2では、主に画像合成処理の内容及び基準周波数テーブル31の内容が実施形態1とは異なるので、以下、これらを中心にして説明する。なお、以下の説明に伴って、実施形態1の態様を適宜変更できることはいうまでもない。   In the second embodiment, the contents of the image composition processing and the contents of the reference frequency table 31 are mainly different from those in the first embodiment, and therefore, description will be made mainly on these. In addition, it cannot be overemphasized that the aspect of Embodiment 1 can be changed suitably with the following description.

実施形態2における画像合成処理のフローチャートは、実施形態1における画像合成処理のフローチャート(図6参照)と同じである。なお、以下では、合成画像の元となる元画像を、図11に示す画像11と画像12とする。   The flowchart of the image composition process in the second embodiment is the same as the flowchart of the image composition process in the first embodiment (see FIG. 6). In the following, the original images that are the basis of the composite image are referred to as an image 11 and an image 12 shown in FIG.

画像合成処理が開始されると、低周波数成分抽出部42は、図11に示すように、画像11を複数の領域(分割領域11−1〜11−6)に分割し(例えば、切り出し)、分割した領域(分割領域)ごとに、その分割領域の画像データによって特定される各画素の濃度値を離散フーリエ変換し、周波数スペクトルを取得する。また、高周波数成分抽出部43は、画像12を複数の領域(分割領域12−1〜12−6)に分割し、分割した領域(分割領域)ごとに、その分割領域の画像データによって特定される各画素の濃度値を離散フーリエ変換し、周波数スペクトルを取得する(ステップS301)。   When the image synthesis processing is started, the low frequency component extraction unit 42 divides the image 11 into a plurality of regions (divided regions 11-1 to 11-6) as shown in FIG. For each divided region (divided region), the density value of each pixel specified by the image data of the divided region is subjected to discrete Fourier transform to obtain a frequency spectrum. The high-frequency component extraction unit 43 divides the image 12 into a plurality of regions (divided regions 12-1 to 12-6), and each divided region (divided region) is specified by the image data of the divided region. The density value of each pixel is discrete Fourier transformed to obtain a frequency spectrum (step S301).

次に、低周波数成分抽出部42がステップS302の処理を行う。低周波数成分抽出部42は、ステップS302において、記憶部30に予め記憶されている基準周波数テーブル31を参照する。基準周波数テーブル31は、図12に示すように、1つの視力判定距離に対して、複数の基準低周波数を関連付けて保持している。例えば、視力判定距離「41cm」に対して、視力0.2に対応する基準低周波数L11(Hz)、視力0.4に対応する基準低周波数L21(Hz)、視力0.6に対応する基準低周波数L31(Hz)等の基準低周波数を関連付けている。さらに基準周波数テーブル31は、1つの視力判定距離に対して、複数の基準高周波数を関連付けて保持している。例えば、視力判定距離「41cm」に対して、視力0.2に対応する基準高周波数H11(Hz)、視力0.4に対応する基準高周波数H21(Hz)、視力0.6に対応する基準高周波数H31(Hz)等の基準高周波数を関連付けている。同じ所定視力に関連付けられた一組の基準低周波数及び基準高周波数は、これら周波数を用いて合成画像を生成した場合に、かつ、これら周波数に関連付けられた視力判定距離でユーザが合成画像を見た場合に、合成画像が画像12に見える場合には、前記所定視力以上であると判定でき、合成画像が画像11に見える場合には、前記所定視力未満であると判定できるような周波数であればよい。例えば、視力0.2に関連付けられた基準低周波数L11(Hz)と基準高周波数H11(Hz)は、これら周波数を用いて合成画像を生成した場合に、かつ、これら周波数に関連付けられた視力判定距離「41cm」でユーザが合成画像を見た場合に、視力0.2以上のユーザであれば合成画像が元画像Bに見え、視力0.2未満のユーザであれば合成画像が元画像Aに見えるような周波数であればよい。この実施形態では、前記所定視力を複数用意し、これらそれぞれについての基準低周波数及び基準高周波数からなるグループ(図12における基準周波数テーブル31の横一列にならんだ、基準低周波数及び基準高周波数のグループ)を用意し、さらに、このグループを、視力判定距離ごとに用意している。   Next, the low frequency component extraction part 42 performs the process of step S302. The low frequency component extraction unit 42 refers to the reference frequency table 31 stored in advance in the storage unit 30 in step S302. As shown in FIG. 12, the reference frequency table 31 holds a plurality of reference low frequencies in association with one visual acuity determination distance. For example, for the visual acuity determination distance “41 cm”, a reference low frequency L11 (Hz) corresponding to visual acuity 0.2, a reference low frequency L21 (Hz) corresponding to visual acuity 0.4, and a reference corresponding to visual acuity 0.6. A reference low frequency such as the low frequency L31 (Hz) is associated. Further, the reference frequency table 31 holds a plurality of reference high frequencies in association with one visual acuity determination distance. For example, for a visual acuity determination distance “41 cm”, a reference high frequency H11 (Hz) corresponding to visual acuity 0.2, a reference high frequency H21 (Hz) corresponding to visual acuity 0.4, and a reference corresponding to visual acuity 0.6. A reference high frequency such as a high frequency H31 (Hz) is associated. A set of reference low frequency and reference high frequency associated with the same predetermined visual acuity is used when the composite image is generated using these frequencies and the user views the composite image at the visual acuity determination distance associated with these frequencies. If the composite image looks like the image 12, it can be determined that the visual acuity is higher than the predetermined visual acuity, and if the composite image looks like the image 11, the frequency can be determined to be less than the predetermined visual acuity. That's fine. For example, the reference low frequency L11 (Hz) and the reference high frequency H11 (Hz) associated with the visual acuity 0.2 are the visual acuity determinations associated with these frequencies when a synthesized image is generated using these frequencies. When the user views the composite image at a distance “41 cm”, if the user has a visual acuity of 0.2 or more, the composite image looks like the original image B, and if the user has a visual acuity of less than 0.2, the composite image is the original image A. Any frequency can be used. In this embodiment, a plurality of the predetermined visual acuities are prepared, and a group consisting of a reference low frequency and a reference high frequency for each of these (reference low frequency and reference high frequency, aligned in a horizontal row of the reference frequency table 31 in FIG. 12). Group), and this group is prepared for each eyesight determination distance.

低周波数成分抽出部42は、基準低周波数テーブル31に含まれる視力判定距離のうち、ステップS207で記憶部30に記憶された視力判定距離に合致する視力判定距離を特定する。なお、ここでは、特定された視力判定距離を「41cm」とする。次に、低周波数成分抽出部42は、特定した視力判定距離に関連付けられている複数の基準低周波数(基準低周波数L11(Hz)〜L61(Hz))を取得する。記憶部30には、基準周波数テーブル31における全ての基準低周波数それぞれについて、当該基準低周波数をピークとするローバンドパスフィルタが複数記憶されている。例えば、基準低周波数L11(Hz)をピークとするローバンドパスフィルタ、基準低周波数L21(Hz)をピークとするローバンドパスフィルタ、基準低周波数L31(Hz)をピークとするローバンドパスフィルタ等が記憶されている。   The low frequency component extraction unit 42 specifies a visual acuity determination distance that matches the visual acuity determination distance stored in the storage unit 30 in step S207 among the visual acuity determination distances included in the reference low frequency table 31. Here, the specified visual acuity determination distance is “41 cm”. Next, the low frequency component extraction unit 42 acquires a plurality of reference low frequencies (reference low frequencies L11 (Hz) to L61 (Hz)) associated with the specified visual acuity determination distance. The storage unit 30 stores a plurality of low-band pass filters having a peak at the reference low frequency for each of the reference low frequencies in the reference frequency table 31. For example, a low band pass filter having a peak at the reference low frequency L11 (Hz), a low band pass filter having a peak at the reference low frequency L21 (Hz), a low band pass filter having a peak at the reference low frequency L31 (Hz), and the like are stored. ing.

さらに、ステップS302において、低周波数成分抽出部42は、前記で取得した基準低周波数をピークとするローバンドパスフィルタを記憶部30から取得する。ローバンドパスフィルタは、前記で取得した基準低周波数それぞれについて、複数取得される。また、低周波数成分抽出部42は、取得したローバンドパスフィルタそれぞれを、分割領域11−1〜11−6それぞれにおける画像の周波数スペクトルに一対一で適用する。例えば、低周波数成分抽出部42は、基準低周波数L11(Hz)をピークとするローバンドパスフィルタを、分割領域11−1における画像の周波数スペクトルに適用し、基準低周波数L21(Hz)をピークとするローバンドパスフィルタを、分割領域11−2における画像の周波数スペクトルに適用する。また、低周波数成分抽出部42は、基準低周波数L31(Hz)をピークとするローバンドパスフィルタを、分割領域11−3における画像の周波数スペクトルに適用し、基準低周波数L41(Hz)をピークとするローバンドパスフィルタを、分割領域11−4における画像の周波数スペクトルに適用する。このように、低周波数成分抽出部42は、分割領域11−1〜11−6それぞれにおける画像の周波数スペクトルそれぞれから基準低周波数L11(Hz)〜L61(Hz)をピークとする低周波数成分をそれぞれ抽出する。   Further, in step S <b> 302, the low frequency component extraction unit 42 acquires a low band pass filter having the reference low frequency acquired as a peak from the storage unit 30. A plurality of low band pass filters are acquired for each of the reference low frequencies acquired above. Moreover, the low frequency component extraction part 42 applies each acquired low band pass filter to the frequency spectrum of the image in each of the division area 11-1 to 11-6 on a one-to-one basis. For example, the low frequency component extraction unit 42 applies a low band pass filter having a peak at the reference low frequency L11 (Hz) to the frequency spectrum of the image in the divided region 11-1, and sets the reference low frequency L21 (Hz) as a peak. The low band pass filter is applied to the frequency spectrum of the image in the divided region 11-2. Further, the low frequency component extraction unit 42 applies a low band pass filter having a peak at the reference low frequency L31 (Hz) to the frequency spectrum of the image in the divided region 11-3, and sets the reference low frequency L41 (Hz) as a peak. The low-band pass filter is applied to the frequency spectrum of the image in the divided region 11-4. In this way, the low frequency component extraction unit 42 obtains low frequency components having the reference low frequencies L11 (Hz) to L61 (Hz) as peaks from the frequency spectra of the images in the divided regions 11-1 to 11-6, respectively. Extract.

ステップS302のあと、ステップS303では、高周波数成分抽出部43は、前記で取得した基準高周波数をピークとするハイバンドパスフィルタを記憶部30から取得する。ハイバンドパスフィルタは、前記で取得した基準高周波数それぞれについて、複数取得される。また、高周波数成分抽出部43は、取得したハイバンドパスフィルタそれぞれを、分割領域12−1〜12−6それぞれにおける画像の周波数スペクトルに一対一で適用する。例えば、高周波数成分抽出部43は、基準高周波数H11(Hz)をピークとするハイバンドパスフィルタを、分割領域12−1における画像の周波数スペクトルに適用し、基準高周波数H21(Hz)をピークとするハイバンドパスフィルタを、分割領域12−2における画像の周波数スペクトルに適用する。また、高周波数成分抽出部43は、基準高周波数H31(Hz)をピークとするハイバンドパスフィルタを、分割領域12−3における画像の周波数スペクトルに適用し、基準高周波数H41(Hz)をピークとするハイバンドパスフィルタを、分割領域12−4における画像の周波数スペクトルに適用する。このように、高周波数成分抽出部43は、分割領域12−1〜12−6それぞれにおける画像の周波数スペクトルそれぞれから基準高周波数H11(Hz)〜H61(Hz)をピークとする高周波数成分をそれぞれ抽出する。   After step S302, in step S303, the high frequency component extraction unit 43 acquires from the storage unit 30 a high-band pass filter having a peak at the reference high frequency acquired above. A plurality of high band pass filters are acquired for each of the reference high frequencies acquired above. Moreover, the high frequency component extraction part 43 applies each acquired high band pass filter to the frequency spectrum of the image in each divided area 12-1 to 12-6 on a one-to-one basis. For example, the high frequency component extraction unit 43 applies a high band pass filter having a peak at the reference high frequency H11 (Hz) to the frequency spectrum of the image in the divided region 12-1, and peaks the reference high frequency H21 (Hz). Is applied to the frequency spectrum of the image in the divided region 12-2. Further, the high frequency component extraction unit 43 applies a high bandpass filter having a peak at the reference high frequency H31 (Hz) to the frequency spectrum of the image in the divided region 12-3, and peaks the reference high frequency H41 (Hz). Is applied to the frequency spectrum of the image in the divided region 12-4. Thus, the high frequency component extraction unit 43 obtains high frequency components having the reference high frequencies H11 (Hz) to H61 (Hz) as peaks from the frequency spectra of the images in the divided regions 12-1 to 12-6, respectively. Extract.

次に、合成部44は、低周波数成分抽出部42が抽出した低周波数成分それぞれと、高周波数成分抽出部43が抽出した高周波数成分それぞれと、を一対一で合成し(周波数スペクトル同士を加算すればよい。)、合成したそれぞれの周波数成分(スペクトル)を逆離散フーリエ変換して合成画像を生成する。例えば、図11に示すように、合成部44は、分割領域11−1における画像の低周波数成分と、分割領域12−1における画像の高周波数成分と、を合成し、合成した周波数成分を逆離散フーリエ変換して合成画像13−1を生成する。また、合成部44は、分割領域11−2における画像の低周波数成分と、分割領域12−2における画像の高周波数成分と、を合成し、合成した周波数成分を逆離散フーリエ変換して合成画像13−2を生成する。このように、合成部44は、分割領域11−1〜11−6それぞれにおける低周波数成分と、分割領域12−1〜12−6それぞれにおける高周波数成分と、を一対一で合成し、合成画像13−1〜13−6を生成する。   Next, the synthesis unit 44 synthesizes each of the low frequency components extracted by the low frequency component extraction unit 42 and each of the high frequency components extracted by the high frequency component extraction unit 43 on a one-to-one basis (adds the frequency spectra to each other). In other words, each synthesized frequency component (spectrum) is subjected to inverse discrete Fourier transform to generate a synthesized image. For example, as illustrated in FIG. 11, the combining unit 44 combines the low-frequency component of the image in the divided region 11-1 and the high-frequency component of the image in the divided region 12-1, and reverses the combined frequency component. Discrete Fourier transform is performed to generate a composite image 13-1. The synthesizing unit 44 synthesizes the low-frequency component of the image in the divided region 11-2 and the high-frequency component of the image in the divided region 12-2, and performs inverse discrete Fourier transform on the synthesized frequency component to obtain a synthesized image. 13-2 is generated. As described above, the synthesis unit 44 synthesizes the low-frequency components in each of the divided regions 11-1 to 11-6 and the high-frequency components in each of the divided regions 12-1 to 12-6 on a one-to-one basis. 13-1 to 13-6 are generated.

次に、合成部44は、生成した合成画像13−1〜13−6を並べて1つの合成画像13を生成する。ここで、合成部44は、図11に示すように、(画像11における分割領域11−1〜11−6の並びに対応させるために)合成画像13−1を左端にして合成画像13−2〜13−3を右に一列に互いに隣接させて並べ、1つの合成画像13を生成する。なお、合成画像13−1〜13〜6の並べ方は任意であり、例えば、合成画像13−1〜13−6のそれぞれを所定間隔離して並べるか一部重複するように並べてもよい。視力判定用の選択画面に表示するための合成画像13を生成すると、合成部44は、画像合成処理を終了する。なお、ここでは、画像合成の際に、画像11の分割領域、画像12の分割領域の位置関係を保持したまま、画像合成を行っているが、例えば、合成画像13−1の隣に合成画像13−6を配置する等して、位置関係を変更して画像を合成してもよい。   Next, the synthesizing unit 44 arranges the generated synthesized images 13-1 to 13-6 to generate one synthesized image 13. Here, as shown in FIG. 11, the combining unit 44 sets the combined image 13-1 as the left end (in order to correspond the divided regions 11-1 to 11-6 in the image 11). 13-3 are arranged on the right side so as to be adjacent to each other, and one composite image 13 is generated. Note that the arrangement of the composite images 13-1 to 13-6 is arbitrary. For example, the composite images 13-1 to 13-6 may be arranged so as to be separated from each other by a predetermined interval or may be arranged so as to partially overlap. When the composite image 13 to be displayed on the selection screen for visual acuity determination is generated, the composition unit 44 ends the image composition processing. Here, in the image synthesis, the image synthesis is performed while maintaining the positional relationship between the divided areas of the image 11 and the divided areas of the image 12. For example, the synthesized image is adjacent to the synthesized image 13-1. The image may be synthesized by changing the positional relationship, for example, by arranging 13-6.

続いて、図4に示すように、表示制御部45は、視力判定用の選択画面を表示部20に表示する(ステップS101)。図13に示すように、選択画面91には、「画像を左から順に見て、模様が見えなくなった画像の下にあるボタンを選択して下さい。全ての画像の模様が見えない場合、「全く見えない」と書かれたボタンを選択して下さい。」というメッセージが表示されている。   Subsequently, as illustrated in FIG. 4, the display control unit 45 displays a selection screen for visual acuity determination on the display unit 20 (step S <b> 101). As shown in FIG. 13, the selection screen 91 displays “Select the button below the image where the pattern disappears when viewing the images in order from the left. Select the button that says "I can't see it at all". Is displayed.

選択画面91の中央部には、ステップS304で生成された合成画像13が表示されており、また、合成画像13を構成する分割領域13−1〜13−6それぞれの下に、選択ボタン13−1’〜13−6’それぞれが、一対一で表示されている。   In the center of the selection screen 91, the composite image 13 generated in step S304 is displayed, and a selection button 13- is provided below each of the divided areas 13-1 to 13-6 constituting the composite image 13. Each of 1 ′ to 13-6 ′ is displayed in a one-to-one relationship.

選択画面91の下部には、「全く見えない」という文字が表示されている選択ボタン13−7’が表示されている。   At the bottom of the selection screen 91, a selection button 13-7 ′ displaying characters “I cannot see at all” is displayed.

合成画像から所定距離(ステップ207で特定した視力判定距離「41cm」)だけ離れているユーザは、選択画面91に表示されているメッセージに従い、合成画像13−1〜13−6を左から順に見る。ユーザは、模様が見えない画像があったときに、その画像の下にある選択ボタンを押す。例えば、ユーザは、合成画像13−1〜13−6を左から順に見ていき、合成画像13−3の模様が見えなかった場合、選択ボタン13−3’を選択する。また、ユーザは、合成画像13−1〜13−6のうちのいずれにも模様が見えない場合、選択ボタン13−7’を選択する。   A user who is separated from the composite image by a predetermined distance (the visual acuity determination distance “41 cm” specified in step 207) looks at the composite images 13-1 to 13-6 in order from the left according to the message displayed on the selection screen 91. . When there is an image whose pattern cannot be seen, the user presses a selection button below the image. For example, the user looks at the composite images 13-1 to 13-6 in order from the left, and selects the selection button 13-3 ′ when the pattern of the composite image 13-3 is not seen. In addition, when the pattern is not seen in any of the composite images 13-1 to 13-6, the user selects the selection button 13-7 '.

視力判定部46は、操作部10からの操作情報に基づいて、ユーザによって選択ボタンが選択されたか否かを判別する(ステップS102)。ユーザの選択がない場合には(ステップS102;No)、視力判定部46は、ステップ102の処理を再度行う。   The visual acuity determination unit 46 determines whether or not the selection button has been selected by the user based on the operation information from the operation unit 10 (step S102). If there is no user selection (step S102; No), the visual acuity determination unit 46 performs the process of step 102 again.

ユーザの選択があった場合(ステップS102;Yes)、ステップS103において、視力判定部46は、例えば、ユーザがどのボタンを選択したかの判定を行うことで、ユーザの視力を判定する。例えば、ユーザが、選択ボタン13−3’を選択した場合、ユーザには視力0.4に対応する合成画像13−2の模様が見えており、視力0.6に対応する合成画像13−3の模様が見えていないことになるので、視力判定部46は、ユーザの視力が0.4以上、0.6未満であると判定する。また、ステップ103では、表示制御部45は、視力判定部46による視力の判定結果を表示部20に表示する(ステップS103)。   When there is a user selection (step S102; Yes), in step S103, the visual acuity determination unit 46 determines the user's visual acuity, for example, by determining which button the user has selected. For example, when the user selects the selection button 13-3 ′, the user sees the pattern of the composite image 13-2 corresponding to the visual acuity 0.4, and the composite image 13-3 corresponding to the visual acuity 0.6. The visual acuity determination unit 46 determines that the user's visual acuity is 0.4 or more and less than 0.6. In step 103, the display control unit 45 displays the visual acuity determination result by the visual acuity determination unit 46 on the display unit 20 (step S103).

なお、ユーザが選択ボタン13−7’を選択した場合、視力判定部46は、ユーザの視力が0.2以下であると判定する。視力の判定結果を表示した後、表示制御部45は、表示部20にメニュー画面を表示して視力判定処理を終了する。   When the user selects the selection button 13-7 ', the visual acuity determination unit 46 determines that the visual acuity of the user is 0.2 or less. After displaying the visual acuity determination result, the display control unit 45 displays a menu screen on the display unit 20 and ends the visual acuity determination process.

本実施形態によれば、車両用表示制御装置100は、元画像A、元画像Bをそれぞれ複数の領域(分割領域)に分割し、それぞれの分割領域について、ピークの異なる基準低周波数及び基準高周波数を用いて合成画像を生成し、再度1つの合成画像を生成することで、3以上の視認環境(同じ視力判定距離における視力が3以上ある環境、表示する合成画像の大きさが3以上ある環境、又は、合成画像とユーザとの距離が3以上ある環境など)で、3種類以上の画像に見える画像を生成することができる。   According to the present embodiment, the vehicle display control apparatus 100 divides the original image A and the original image B into a plurality of regions (divided regions), and the reference low frequency and the reference high with different peaks for each divided region. By generating a composite image using the frequency and generating one composite image again, there are three or more viewing environments (an environment with three or more visual acuities at the same visual acuity determination distance, and the size of the composite image to be displayed is three or more. In an environment or an environment in which the distance between the composite image and the user is 3 or more), an image that appears to be three or more types of images can be generated.

また、3以上の視認環境で、3種類以上の画像に見える画像を、視力判定用の合成画像とすることにより、2以上の視認環境で、2種類以上の画像に見える画像を、視力判定用の合成画像とするより、1回の視力判定で、ユーザの視力が属す視力の範囲をより限定することができる。例えば、視力1.0を境に異なる画像に見える合成画像(2以上の視認環境で、2種類以上の画像に見える画像)を視力判定に用いた場合、1回の視力判定では、ユーザの視力が視力1.0以上か1.0未満かを判定することしかできない。一方、視力0.5及び視力1.5を境に異なる画像に見える合成画像(3以上の視認環境で、3種類以上の画像に見える画像)を視力判定に用いた場合、1回の視力判定で、ユーザの視力が0.5以上か0.5未満か、又は0.5以上か1.5未満か、又は1.5以上か1.5未満かを判定することができる。   Further, by making an image that appears as three or more types of images in three or more viewing environments as a composite image for visual acuity determination, an image that appears as two or more types of images in two or more viewing environments is used for visual acuity determination. The range of visual acuity to which the user's visual acuity belongs can be further limited by a single visual acuity determination. For example, in the case where a composite image that looks like different images with a visual acuity of 1.0 as a boundary (an image that appears as two or more types of images in two or more viewing environments) is used for visual acuity determination, the visual acuity of the user is determined in one visual acuity determination Can only determine whether the eyesight is 1.0 or more or less than 1.0. On the other hand, when a composite image (images that look like three or more types of images in three or more viewing environments) is used for visual acuity determination, the visual acuity determination is performed once. Thus, it can be determined whether the user's visual acuity is 0.5 or more or less than 0.5, or 0.5 or more or less than 1.5, or 1.5 or more or less than 1.5.

なお、この発明は、上記の実施形態に限定されず、上記の実施形態には種々の変形(構成要素の削除を含む)及び応用が可能である。   In addition, this invention is not limited to said embodiment, Various deformation | transformation (a deletion of a component is included) and application are possible for said embodiment.

上記の実施形態では、2つの元画像(又は分割領域)から合成画像を生成するときに、両方の元画像についてバンドパスフィルタを適用し、高周波数帯(高周波数成分ともいう。)を主要な成分(上記の実施形態では、高周波数帯。主要な成分とは、高周波数帯のみを成分とする場合も含む。)とする周波数スペクトルの画像や、低周波数帯(低周波数成分ともいう。)を主要な成分(上記の実施形態では、低周波数帯。主要な成分とは、低周波数帯のみを成分とする場合も含む。)とする周波数スペクトルの画像を生成し、これらを合成して合成画像を生成していたが、所定の条件を満たす場合には、少なくとも一方の元画像についてフィルタを適用しなくてもよい。   In the above embodiment, when generating a composite image from two original images (or divided regions), a band pass filter is applied to both original images, and a high frequency band (also referred to as a high frequency component) is the main. An image of a frequency spectrum as a component (in the above embodiment, a high frequency band. The main component includes a case where only the high frequency band is used as a component) and a low frequency band (also referred to as a low frequency component). Is generated as a main component (in the above embodiment, the low frequency band. The main component includes the case where only the low frequency band is used as a component). Although an image is generated, if a predetermined condition is satisfied, the filter need not be applied to at least one of the original images.

例えば、高周波数帯を主要な成分とする周波数スペクトル、例えば、当該高周波数帯に比べて他の周波数帯(特に低周波数帯)の強度が無視できるほど低い周波数スペクトルを有する元画像(例えば、輪郭のみをかたどったような画像であり、図3における画像4−2等)については、ハイバンドパスフィルタを適用する必要はない。このような画像は、すでにハイバンドパスフィルタが適用されたような画像になっているからである。このような場合には、元画像をそのまま用いて(必要に応じて元画像を離散フーリエ変換して得られる周波数スペクトルを用いて)、合成画像を生成すればよい。   For example, a frequency spectrum having a high frequency band as a main component, for example, an original image having a frequency spectrum that is low enough to ignore the intensity of other frequency bands (particularly the low frequency band) compared to the high frequency band (for example, contour) It is not necessary to apply a high-band pass filter to the image such as the image 4-2 in FIG. This is because such an image is an image to which a high bandpass filter has already been applied. In such a case, the synthesized image may be generated using the original image as it is (using a frequency spectrum obtained by subjecting the original image to discrete Fourier transform if necessary).

例えば、低周波数帯を主要な成分とする周波数スペクトル、例えば、当該低周波数帯に比べて他の周波数帯(特に高周波数帯)の強度が無視できるほど低い周波数スペクトルを有する元画像(例えば、図11に示す画像11のような一色の背景画像)については、ローバンドパスフィルタを適用する必要はない。このような画像は、すでにローバンドパスフィルタが適用されたような画像になっているからである。このような場合には、元画像をそのまま用いて(必要に応じて元画像を離散フーリエ変換して得られる周波数スペクトルを用いて)、合成画像を生成すればよい。   For example, a frequency spectrum whose main component is a low frequency band, for example, an original image having a frequency spectrum that is so low that the intensity of other frequency bands (especially high frequency band) is negligible compared to the low frequency band (for example, FIG. 11 is not necessary to apply a low-band pass filter. This is because such an image has already been applied with a low-band pass filter. In such a case, the synthesized image may be generated using the original image as it is (using a frequency spectrum obtained by subjecting the original image to discrete Fourier transform if necessary).

なお、高周波数帯は、低周波数帯に比べて高周波数の帯域であればよい。例えば、高周波数帯は、そのピークの周波数(ピークが複数の周波数の集合からなる周波数帯であれば、例えば、その帯域の最も低い周波数)が、低周波数帯のピークの周波数(ピークが複数の周波数の集合からなる周波数帯であれば、例えば、その帯域の最も高い周波数)よりも高い周波数帯であればよい。また、高周波数帯における最も低い周波数が、低周波数帯における最も高い周波数よりも、高い周波数であってもよい。   The high frequency band may be a high frequency band as compared with the low frequency band. For example, a high frequency band has a peak frequency (for example, the lowest frequency in the band if the peak is a frequency band composed of a set of a plurality of frequencies), and a low frequency band peak frequency (a plurality of peaks). If it is a frequency band composed of a set of frequencies, it may be a frequency band higher than, for example, the highest frequency in that band. Further, the lowest frequency in the high frequency band may be higher than the highest frequency in the low frequency band.

基準高周波数や基準低周波数は、所定の帯域の複数の周波数からなるものであってもよい。このような場合、基準高周波数と基準低周波数との高低は、前記高周波数帯及び前記低周波数帯の場合と同様である。つまり、基準高周波数の最も低い周波数が、基準低周波数の最も高い周波数よりも高ければよい。   The reference high frequency and the reference low frequency may be composed of a plurality of frequencies in a predetermined band. In such a case, the reference high frequency and the reference low frequency are the same as those in the high frequency band and the low frequency band. That is, it is only necessary that the lowest frequency of the reference high frequency is higher than the highest frequency of the reference low frequency.

また、例えば、2つの基準高周波数(複数の周波数の帯域からなる場合)同士又は2つの基準低周波数(複数の周波数の帯域からなる場合)同士を比較した場合に、両者が異なるとは、帯域が重複していない場合、帯域が一部のみ重複している場合(一方の帯域が他方の帯域を全て含むが、他方の帯域が一方の帯域を全部含まないことを含む)等を含む。   In addition, for example, when two reference high frequencies (when composed of a plurality of frequency bands) or two reference low frequencies (when composed of a plurality of frequency bands) are compared, the two are different from each other. Includes a case where only a part of the bands overlaps (including that one band includes all of the other bands, but the other band does not include all of the one band).

また、例えば、2つの高周波数帯同士又は2つの低周波数帯同士を比較した場合に、両者が異なるとは、帯域が重複していない場合、帯域が一部のみ重複している場合(一方の帯域が他方の帯域を全て含むが、他方の帯域が一方の帯域を全部含まないことを含む)等の帯域が異なる場合と、ピークの周波数が異なる場合(ピークの周波数が複数の周波数の帯域からなる場合には、帯域が異なる場合と同じ。)との少なくともいずれかであればよい。   In addition, for example, when two high frequency bands or two low frequency bands are compared with each other, the difference between the two is that the bands do not overlap, or the bands partially overlap (one of the When the band is different, such as when the band includes all of the other band but the other band does not include all of the one band, and when the peak frequency is different (the peak frequency is different from the band of multiple frequencies) The same as when the band is different.).

また、上記実施形態の視力判定は、車両において行うものにかぎらず、家庭や、医療現場で行うものに使用するようにしてもよい。つまり、車両用表示制御装置100は、視力判定用装置であればよい。また、実施形態における合成画像の用途は、視力判定用に限らず様々な用途に用いることができる。特に、実施形態2等で生成されるような、3以上の視認環境(同じ視力判定距離における視力が3以上ある場合、表示する合成画像の大きさが3以上ある場合、又は、合成画像とユーザとの距離が3以上ある場合)で、3種類以上の画像に見える画像は、見た目が面白いので、例えば、広告媒体等に印刷して使用することもできる。このように、車両用表示制御装置100は、画像処理装置であってもよい。合成画像は、ディスプレイ等の表示部に表示しなくてもよく、紙媒体等の被印刷媒体に印刷してもよく、所定の記憶装置に記憶されるようにしてもよい。つまり、合成画像は、生成後に出力されるものであればよい。また、上記実施形態では、合成画像を、出力するごとに生成していたが、合成画像そのものを記憶部に予め記憶して必要に応じて出力等をするようにしてもよいし(つまり、離散フーリエ変換やフィルタを用いなくてもよい)、高周波数帯や低周波数帯を抽出した画像のうちの少なくとも一方を予め記憶部30に記憶して用いるようにしてもよい(つまり、離散フーリエ変換やフィルタを用いなくてもよい。)。記憶部30に記憶する画像を表すデータのデータ形式は、どのようなものであってもよい。例えば、前記画像は、周波数スペクトルを表すデータ、周波数スペクトルを表す画像データ(図8の画像8A’などのデータ)、または、周波数スペクトルを逆離散フーリエ変換して得られる画像データなどによって特定される画像であってもよい。周波数スペクトルを表すデータ、周波数スペクトルを表す画像データなどでは、周波数スペクトルを逆離散フーリエ変換すれば、その画像が得られるので、このようなデータであってもよい。さらに、上記では、視力判定のときなどに、合成画像を提示する例として、表示部20に合成画像を表示しているが、合成画像を紙などに印刷したものを機械的に提示するようにしてもよい。合成画像を提示するとは、このように、合成画像を表すもの(印刷物など)を機械的に提示することを含む。   The visual acuity determination of the above embodiment is not limited to what is performed in the vehicle, but may be used for what is performed at home or in the medical field. That is, the vehicle display control device 100 may be a visual acuity determination device. In addition, the use of the composite image in the embodiment is not limited to the visual acuity determination and can be used for various uses. In particular, three or more viewing environments (such as those generated in the second embodiment) (when the visual acuity at the same visual acuity determination distance is three or more, when the size of the composite image to be displayed is three or more, or the composite image and the user In the case where there are three or more distances), an image that looks like three or more types of images has an interesting appearance, and can be printed on an advertising medium or the like, for example. Thus, the vehicle display control apparatus 100 may be an image processing apparatus. The composite image may not be displayed on a display unit such as a display, may be printed on a printing medium such as a paper medium, or may be stored in a predetermined storage device. In other words, the composite image only needs to be output after generation. In the above embodiment, the composite image is generated every time it is output. However, the composite image itself may be stored in advance in the storage unit and output as necessary (that is, discrete). Fourier transform or filter may not be used), and at least one of the images extracted from the high frequency band and the low frequency band may be stored in advance in the storage unit 30 (that is, discrete Fourier transform or It is not necessary to use a filter.) The data format of the data representing the image stored in the storage unit 30 may be any format. For example, the image is specified by data representing a frequency spectrum, image data representing a frequency spectrum (data such as the image 8A ′ in FIG. 8), image data obtained by inverse discrete Fourier transform of the frequency spectrum, or the like. It may be an image. For data representing a frequency spectrum, image data representing a frequency spectrum, and the like, an image can be obtained by performing inverse discrete Fourier transform on the frequency spectrum. Further, in the above description, as an example of presenting a composite image at the time of visual acuity determination or the like, the composite image is displayed on the display unit 20, but the composite image printed on paper or the like is mechanically presented. May be. In this way, presenting a composite image includes mechanically presenting a representation (printed material or the like) representing the composite image.

第1の元画像と第2の元画像とを合成した合成画像を見た場合に、第1の元画像に見えるとは、少なくとも、第1の元画像に写った被写体が合成画像に写っていると認識できる等、合成画像で表現されているものが、第2の元画像の主要な画像ではなく、第1の元画像の主要な画像であることを認識できることであればよい。また、第1の元画像と第2の元画像とを合成した合成画像を見た場合に、第2の元画像に見えるときは、少なくとも、第2の元画像に写った被写体が合成画像に写っていると認識できる等、合成画像で表現されているものが、第1の元画像の主要な画像ではなく、第2の元画像の主要な画像であることを認識できることであればよい。   When the synthesized image obtained by synthesizing the first original image and the second original image is viewed, the first original image is seen as at least a subject in the first original image is reflected in the synthesized image. What is necessary is that it can be recognized that what is expressed in the composite image is not the main image of the second original image but the main image of the first original image. In addition, when a synthesized image obtained by synthesizing the first original image and the second original image is viewed, if it looks like the second original image, at least a subject reflected in the second original image becomes a synthesized image. What is necessary is just to be able to recognize that what is expressed by the composite image is not the main image of the first original image but the main image of the second original image, such as being recognized as being captured.

異なる基準高周波数及び基準低周波数のバンドパスフィルタを用いて、異なる合成画像(視力等によって見え方の異なる画像等)を生成する場合には、基準高周波数と基準低周波数とのうちのいずれかを動かせばよい。   When generating different composite images (images that look different depending on visual acuity, etc.) using bandpass filters of different reference high frequencies and reference low frequencies, one of the reference high frequency and the reference low frequency Just move it.

実施形態1では、合成画像をユーザに1回提示し、ユーザに合成画像が第1の元画像と第2の元画像のどちらに見えるか選択を求め、ユーザがどちらを選択したかを判定することで、ユーザの視力が第1の視力以上か未満かを判定したが、ユーザの選択に応じて他の合成画像を提示し(視力判定処理を再度実行し)、ユーザの視力が属す範囲をさらに限定してもよい。例えば、複数の合成画像を用意しておき(例えば、実施形態2において、1つの合成画像13とする前の合成画像13−1〜13−6)、図11に示す合成画像13−1(視力0.2に対応する合成画像)が画像11−1と画像12−1のどちらかに見えるかユーザに選択を求める選択画面を表示し、操作部10から供給された操作情報が、画像12−1が選択されたことを示す情報である場合、ユーザの視力が0.2以上であると判定する。続いて、図11に示す合成画像13−2(視力0.4に対応する合成画像)が画像11−2と画像12−2のどちらに見えるかユーザに選択画面を表示し、供給された操作情報が示すユーザの選択(合成画像13−2が画像11−2と画像12−1のどちらに見えるかの選択)に応じて、ユーザの視力を0.2以上0.4未満又は0.4以上であると判定してもよい。さらに、ユーザの視力が属す範囲をこれ以上限定できなくなるまで、ユーザの選択に応じて他の合成画像を提示する処理を繰り返し実行してもよい。なお、ユーザの視力が属す範囲をこれ以上限定できない場合とは、図11に示す合成画像13−1〜13−6を用いて視力判定を行う場合、例えば、ユーザの視力が0.2以上0.4未満であると判定した場合、又は、ユーザの視力が1.2以上であると判定した場合である。従来の視力判定では、視力が高い場合には、徐々に視力判定用の図柄(例えば、ランドルト環)などを小さくする必要がある。このような場合には、表示部の画素を細かくする必要があるが、このような変形例では、基本的に画像の大きさを変えないで良いので(用意する複数の合成画像の大きさが同じでよいので)、表示部の画素を細かくする必要もない。   In the first embodiment, the composite image is presented to the user once, and the user is asked to select whether the composite image looks like the first original image or the second original image, and the user selects which one is selected. In this way, it is determined whether the user's visual acuity is greater than or less than the first visual acuity, but other composite images are presented according to the user's selection (the visual acuity determination process is executed again), and the range to which the user's visual acuity belongs is determined. You may further limit. For example, a plurality of composite images are prepared (for example, the composite images 13-1 to 13-6 before the single composite image 13 in the second embodiment), and the composite image 13-1 (visual acuity) shown in FIG. 0.2), a selection screen for prompting the user to select whether the image 11-1 or the image 12-1 is visible is displayed, and the operation information supplied from the operation unit 10 is the image 12- When 1 is information indicating that 1 is selected, it is determined that the user's visual acuity is 0.2 or more. Subsequently, a selection screen is displayed to the user as to whether the composite image 13-2 (composite image corresponding to visual acuity 0.4) shown in FIG. 11 looks like the image 11-2 or the image 12-2, and the supplied operation Depending on the user's selection indicated by the information (selection of whether the composite image 13-2 looks like the image 11-2 or the image 12-1), the user's visual acuity is 0.2 or more and less than 0.4 or 0.4 It may be determined that this is the case. Furthermore, the process of presenting another composite image may be repeatedly executed according to the user's selection until the range to which the user's visual acuity can no longer be limited. Note that the range in which the user's visual acuity cannot be further limited means that when the visual acuity determination is performed using the composite images 13-1 to 13-6 illustrated in FIG. When it is determined that the user's visual acuity is 1.2 or more. In the conventional visual acuity determination, when the visual acuity is high, it is necessary to gradually reduce the visual acuity determination design (for example, the Landolt ring). In such a case, it is necessary to make the pixels of the display unit fine. However, in such a modified example, basically, it is not necessary to change the size of the image (the size of a plurality of synthesized images to be prepared is It is not necessary to make the pixels of the display portion finer because they may be the same.

実施形態2では、2つの元画像それぞれを分割して、各分割領域について合成画像を生成して、再度1つの合成画像を生成することで、3以上の視認環境(同じ視力判定距離における視力が3以上ある場合、表示する合成画像の大きさが3以上ある場合、又は、合成画像とユーザとの距離が3以上ある場合)で、3種類以上の画像に見える画像を生成しているが、例えば、2つの元画像を元にして、異なる基準高周波数及び基準低周波数のバンドパスフィルタを用いて、複数の合成画像(いずれも前記2つの元画像からの合成画像であるが、基準高周波数及び基準低周波数のうちの少なくとも一方が異なるフィルタを用いて生成された合成画像)を生成し、生成した複数の合成画像を組み合わせて、1つの合成画像を生成してもよい。   In the second embodiment, each of the two original images is divided, a combined image is generated for each divided region, and a single combined image is generated again, whereby three or more viewing environments (the visual acuity at the same visual acuity determination distance is increased). When there are 3 or more, when the size of the composite image to be displayed is 3 or more, or when the distance between the composite image and the user is 3 or more), an image that looks like three or more types of images is generated. For example, based on two original images, a plurality of composite images (both are composite images from the two original images, but using a reference high frequency and a reference low frequency bandpass filter) And a composite image generated using a filter in which at least one of the reference low frequencies is different, and a plurality of generated composite images may be combined to generate one composite image.

使用されるバンドパスフィルタは、ピークの周波数を中心にして周波数が離れるほど通過される周波数を減衰させる、所謂ガウシアン形状の周波数特性(通過させる周波数の特性)を有するフィルタの他、通過させる周波数を減衰させないが、通過される周波数帯域からはずれた周波数については急激に減衰させる矩形形状の周波数特性(理想的な周波数特定)を有する又は当該周波数特性に近いフィルタであってもよい。また、ハイバンドパスフィルタは、ハイパスフィルタ(この場合、基準高周波数は、通過させる周波数のうちの最も低い周波数(例えば、理想的なハイパスフィルタを考えたときの最も低い周波数)であればよい。)としてもよい。ローバンドパスフィルタは、ローパスフィルタ(この場合、基準高周波数は、通過させる周波数のうちの最も高い周波数(例えば、理想的なローパスフィルタを考えたときの最も高い周波数)であればよい。)としてもよい。元画像に適用するフィルタは、高周波数帯又は低周波数帯を抽出できる上記フィルタのいずれかであればよい。   The band-pass filter used has a so-called Gaussian-shaped frequency characteristic (passing frequency characteristic) that attenuates the passing frequency as the frequency goes away with the peak frequency as the center. Although not attenuated, a filter having a rectangular frequency characteristic (ideal frequency specification) that abruptly attenuates a frequency deviating from the frequency band to be passed may be used. Further, the high band pass filter may be a high pass filter (in this case, the reference high frequency may be the lowest frequency among the frequencies to be passed (for example, the lowest frequency when an ideal high pass filter is considered). ). The low-band pass filter may be a low-pass filter (in this case, the reference high frequency may be the highest frequency among the frequencies to be passed (for example, the highest frequency when an ideal low-pass filter is considered)). Good. The filter applied to the original image may be any one of the above filters that can extract a high frequency band or a low frequency band.

また、上記合成画像を用いて視力を判定する場合に、合成画像は、視力判定距離が同じである場合に視力に応じて徐々に一方の元画像から他方の元画像に見えるので(厳密な1点の視力を境にどちらの元画像に見えるかが決まるわけではないので)、一方の元画像が見えた場合には、第1の視力以上と判定し、他方の元画像に見えた場合には、第2の視力未満と判定し、第1の視力と第2の視力とが同じでなくてもよい。例えば、図3に示す合成画像4が画像4−1と画像4−2のどちらに見えるかユーザに選択を求める選択画面を表示した場合、操作部10から供給された操作情報が、画像4−2が選択されたことを示す情報であれば、ユーザの視力が0.4(第1の視力)以上であると判定し、画像4−1が選択されてことを示す情報であれば、ユーザの視力が0.2(第2の視力)未満であると判定してもよい。このとき、第2の視力は、第1の視力よりも低い。また、ユーザの選択が合成画像4−2である場合、ユーザの視力が0.2未満であると判定してもよいし、ユーザの視力は少なくとも画像4−1が見える程度の視力であることから、例えば、ユーザの視力が0.1以上0.2未満であると判定してもよい。このように、第1の視力や第2の視力は、ある1点の視力ではなく、ある程度の範囲を有する視力(例えば、0.1以上0.2未満)であってもよい。   Further, when the visual acuity is determined using the composite image, the composite image gradually appears from one original image to the other original image according to the visual acuity when the visual acuity determination distance is the same (strict 1 Since it does not determine which original image is visible based on the visual acuity of a point), if one of the original images is seen, it is determined that it is greater than the first visual acuity, and if it appears to be the other original image Is determined to be less than the second visual acuity, and the first visual acuity and the second visual acuity may not be the same. For example, when the selection screen for prompting the user to select whether the composite image 4 shown in FIG. 3 looks like the image 4-1 or the image 4-2 is displayed, the operation information supplied from the operation unit 10 is the image 4- If it is information indicating that 2 is selected, it is determined that the user's visual acuity is 0.4 (first visual acuity) or more, and if it is information indicating that image 4-1 is selected, the user May be determined to be less than 0.2 (second vision). At this time, the second visual acuity is lower than the first visual acuity. Further, when the user's selection is the composite image 4-2, it may be determined that the user's visual acuity is less than 0.2, and the user's visual acuity is such that at least the image 4-1 can be seen. Therefore, for example, the user's visual acuity may be determined to be 0.1 or more and less than 0.2. As described above, the first visual acuity and the second visual acuity may be visual acuity having a certain range (for example, 0.1 or more and less than 0.2) instead of a certain one.

また、合成画像は、所定の視力、合成画像までの距離、合成画像の表示サイズ等に応じて、ユーザが視認する事項(第1の元画像に見えるか第2の元画像に見えるか)が変わるという特徴を有する画像であれば、どのような画像でもよい。例えば、図14(a)に示すように、灰色の画像(背景画像)19−1の低周波数帯(なお、このような一色の画像は、低周波数帯を抽出したものではなく、元画像そのままを用いてもよい。)と、「OK」という文字を表す画像(肯定画像)19−2の高周波数帯と、の合成画像であってもよい。また、図14(b)に示すように、ノイズを含むような背景背景(雑音画像)20−1の低周波数帯と、「OK」という文字を表す画像20−2の高周波数帯と、の合成画像であってもよい。また、図14(c)に示すように、「NG」という文字を表す画像(否定画像)21−1の低周波数帯と、「OK」という文字を表す画像21−2の高周波数帯と、の合成画像であってもよい。   Further, the composite image has items (whether it looks as the first original image or the second original image) that the user visually recognizes according to the predetermined visual acuity, the distance to the composite image, the display size of the composite image, and the like. Any image may be used as long as the image has a characteristic of changing. For example, as shown in FIG. 14A, a low frequency band of a gray image (background image) 19-1 (Note that such a one-color image is not an extracted low frequency band, but the original image as it is. And a high-frequency band of an image (positive image) 19-2 representing the characters “OK” may be used. Further, as shown in FIG. 14B, the low frequency band of the background (noise image) 20-1 including noise and the high frequency band of the image 20-2 representing the characters “OK”. It may be a composite image. Further, as shown in FIG. 14C, the low frequency band of an image (negative image) 21-1 representing the characters “NG”, the high frequency band of an image 21-2 representing the characters “OK”, It may be a composite image.

また、実施形態2において、合成元の画像が同じ合成画像を複数生成して視力判定用の選択画面91に配置したが、配置した複数の合成画像がそれぞれ判定したい視力に対応する画像であれば、これら合成画像の元画像が各々何の関連性もない画像であっても構わない。例えば、図13に示す合成画像13−1の元画像が文字を表す画像であり、合成画像13−2の元画像が人の顔を表す画像であっても構わない。   In the second embodiment, a plurality of synthesized images having the same composition source image are generated and arranged on the selection screen 91 for visual acuity determination. However, if the arranged composite images are images corresponding to the visual acuity to be determined, respectively. The original images of these synthesized images may be images that have no relationship with each other. For example, the original image of the composite image 13-1 illustrated in FIG. 13 may be an image representing characters, and the original image of the composite image 13-2 may be an image representing a human face.

また、上記実施形態において、実行されるプログラムは、フレキシブルディスク、CD−ROM(Compact Disc Read-Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto-Optical disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをインストールすることにより、上述の処理を実行するシステムを構成することとしてもよい。   In the embodiment, the program to be executed is a computer-readable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read-Only Memory), a DVD (Digital Versatile Disc), and an MO (Magneto-Optical disc). It is also possible to configure a system that executes the above-described processing by storing and distributing the program and installing the program.

また、プログラムをインターネット等の通信ネットワーク上の所定のサーバ装置が有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、ダウンロード等するようにしてもよい。   Further, the program may be stored in a disk device or the like of a predetermined server device on a communication network such as the Internet, and may be downloaded, for example, superimposed on a carrier wave.

なお、上述の機能を、OSが分担して実現する場合又はOSとアプリケーションとの協働により実現する場合等には、OS以外の部分のみを媒体に格納して配布してもよく、また、ダウンロード等してもよい。   In addition, when the above functions are realized by sharing the OS, or when the functions are realized by cooperation between the OS and the application, only the part other than the OS may be stored in the medium and distributed. You may download it.

1 車両
2 ステアリング
2a 本体部
2b ステアリングホイール
3 ユーザ
4、8、13、13−1〜13−6、19〜21 合成画像
4−1、4−2、3−2、8A、8B、11、12、19−1、19−2、20−1、20−2、21−1、21−2 画像
4−1’、4−2’、13−1’〜13−7’、16−1’〜16−8’ 選択ボタン
8A’,8B’、8C 周波数スペクトル画像
10 操作部
11−1〜11−6、12−1〜12−6 分割領域
20 表示部
30 記憶部
31 基準周波数テーブル
40 制御部
41 距離取得部
42 低周波数成分抽出部
43 高周波数成分抽出部
44 合成部
45 表示制御部
46 視力判定部
91 視力判定用の選択画面
100 車両用表示制御装置
A シートバック角度
L 視力判定距離
P アイポイント
S シートスライド量
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Steering 2a Main-body part 2b Steering wheel 3 User 4, 8, 13, 13-1 to 13-6, 19-21 Composite image 4-1, 4-2, 3-2, 8A, 8B, 11, 12 19-1, 19-2, 20-1, 20-2, 21-1, 21-2 Images 4-1 ′, 4-2 ′, 13-1 ′ to 13-7 ′, 16-1 ′ to 16-8 'selection button 8A', 8B ', 8C Frequency spectrum image 10 Operation part 11-1 to 11-6, 12-1 to 12-6 Division area 20 Display part 30 Storage part 31 Reference frequency table 40 Control part 41 Distance acquisition unit 42 Low frequency component extraction unit 43 High frequency component extraction unit 44 Compositing unit 45 Display control unit 46 Visual acuity determination unit 91 Selection screen for visual acuity determination 100 Display control device for vehicle A Seatback angle L Visual acuity determination distance P Eye point S Slide amount

Claims (8)

対象者の視力を判定するための視力判定用装置であって、
低周波数帯を主要な帯域とする周波数スペクトルを有する第1画像と、高周波数帯を主要な帯域とする周波数スペクトルを有する第2画像との合成画像を前記対象者に提示する提示手段を、有し、
前記合成画像は、前記提示手段によって提示された前記合成画像から所定の距離離れた前記対象者の視力に応じて、前記合成画像を前記第1画像又は前記第2画像のいずれかであると認識可能な画像である、
ことを特徴とする視力判定用装置。
A device for determining visual acuity for determining the visual acuity of a subject,
Presenting means for presenting to the subject a composite image of a first image having a frequency spectrum whose main frequency band is a low frequency band and a second image having a frequency spectrum whose main band is a high frequency band. And
The composite image is recognized as either the first image or the second image according to the visual acuity of the subject who is a predetermined distance away from the composite image presented by the presenting means. Is a possible image,
An apparatus for determining visual acuity characterized by the above.
前記第1画像と前記第2画像とを合成する合成手段をさらに有する、
ことを特徴とする請求項1に記載の視力判定用装置。
The image processing apparatus further includes a combining unit that combines the first image and the second image.
The visual acuity determination device according to claim 1.
前記合成手段は、第1元画像を取得し、前記第1元画像から前記低周波数帯を抽出して前記第1画像を生成する第1画像生成手段を有する、
ことを特徴とする請求項2に記載の視力判定用装置。
The synthesizing unit includes a first image generation unit that acquires a first original image, extracts the low frequency band from the first original image, and generates the first image.
The apparatus for determining visual acuity according to claim 2.
前記合成手段は、第2元画像を取得し、前記第2元画像から前記高周波数帯を抽出して前記第2画像を生成する第2画像生成手段を有する、
ことを特徴とする請求項2又は3に記載の視力判定用装置。
The synthesizing unit includes a second image generation unit that acquires a second original image, extracts the high frequency band from the second original image, and generates the second image.
The visual acuity determination device according to claim 2, wherein the visual acuity determination device is a visual acuity determination device.
対象者と、前記提示手段は提示する前記合成画像との距離を取得する距離取得手段を更に備え、
前記合成画像として、第1の合成画像と第2の合成画像とがあり、
前記提示手段は、前記距離取得手段が取得した距離に応じて、前記第1の合成画像と前記第2の合成画像とのいずれかを提示可能であり、
前記第1の合成画像と前記第2の合成画像とでは、前記低周波数帯と前記高周波数帯とのうちの少なくともいずれか同士の帯域が異なる又はピークの周波数が異なる、
ことを特徴とする請求項1〜4のいずれか1項に記載の視力判定用装置。
The presenting means further includes distance acquisition means for acquiring a distance between the subject and the composite image to be presented,
As the composite image, there are a first composite image and a second composite image,
The presenting means can present either the first composite image or the second composite image according to the distance acquired by the distance acquisition means,
In the first synthesized image and the second synthesized image, at least one of the low frequency band and the high frequency band is different in band or peak frequency is different,
The visual acuity determination device according to claim 1, wherein the visual acuity determination device is a visual acuity determination device.
前記合成画像として、第1の合成画像と第2の合成画像とがあり、
前記提示手段は、前記第1の合成画像と前記第2の合成画像とを同時に提示可能であり、
前記第1の合成画像と前記第2の合成画像とでは、前記低周波数帯と前記高周波数帯とのうちの少なくともいずれか同士の帯域が異なる又はピークの周波数が異なる、
ことを特徴とする請求項1〜4のいずれか1項に記載の視力判定用装置。
As the composite image, there are a first composite image and a second composite image,
The presenting means can present the first composite image and the second composite image simultaneously,
In the first synthesized image and the second synthesized image, at least one of the low frequency band and the high frequency band is different in band or peak frequency is different,
The visual acuity determination device according to claim 1, wherein the visual acuity determination device is a visual acuity determination device.
請求項1〜6のいずれか1項に記載の視力判定用装置を含むことを特徴とする車両用表示制御装置。   A vehicular display control apparatus comprising the visual acuity determination apparatus according to claim 1. 対象者の視力を判定するためのコンピュータに、
低周波数帯を主要な帯域とする周波数スペクトルを有する第1画像と、高周波数帯を主要な帯域とする周波数スペクトルを有する第2画像との合成画像を生成する生成ステップと、
生成ステップによって生成された合成画像を所定の表示部に表示して前記対象者に提示する提示ステップと、を実行させ、
前記合成画像は、前記提示ステップによって提示された前記合成画像から所定の距離離れた前記対象者の視力に応じて、前記合成画像を前記第1画像又は前記第2画像のいずれかであると認識可能な画像である、
ことを特徴とするプログラム。
In the computer for judging the eyesight of the subject,
Generating a composite image of a first image having a frequency spectrum whose main band is a low frequency band and a second image having a frequency spectrum whose main band is a high frequency band;
A presentation step of displaying the composite image generated by the generation step on a predetermined display unit and presenting the composite image to the target person;
The composite image is recognized as either the first image or the second image according to the visual acuity of the subject who is a predetermined distance away from the composite image presented in the presenting step. Is a possible image,
A program characterized by that.
JP2013020937A 2013-02-05 2013-02-05 VISION DETERMINING DEVICE, VEHICLE DISPLAY CONTROL DEVICE, AND PROGRAM Expired - Fee Related JP6048186B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013020937A JP6048186B2 (en) 2013-02-05 2013-02-05 VISION DETERMINING DEVICE, VEHICLE DISPLAY CONTROL DEVICE, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013020937A JP6048186B2 (en) 2013-02-05 2013-02-05 VISION DETERMINING DEVICE, VEHICLE DISPLAY CONTROL DEVICE, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2014150847A JP2014150847A (en) 2014-08-25
JP6048186B2 true JP6048186B2 (en) 2016-12-21

Family

ID=51573360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013020937A Expired - Fee Related JP6048186B2 (en) 2013-02-05 2013-02-05 VISION DETERMINING DEVICE, VEHICLE DISPLAY CONTROL DEVICE, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6048186B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2385992A (en) * 1944-05-27 1945-10-02 Bausch & Lomb Visual acuity testing means
JPS62281920A (en) * 1986-05-29 1987-12-07 三星 十久子 Sight function examination apparatus
WO2004034893A1 (en) * 2002-10-21 2004-04-29 Vision Optic Co., Ltd. Optometric device and optometric method
JP5089637B2 (en) * 2009-03-30 2012-12-05 シャープ株式会社 Video display device
JP4734442B2 (en) * 2009-06-30 2011-07-27 株式会社東芝 Perspective display device and perspective display method

Also Published As

Publication number Publication date
JP2014150847A (en) 2014-08-25

Similar Documents

Publication Publication Date Title
US9934575B2 (en) Image processing apparatus, method and computer program to adjust 3D information based on human visual characteristics
JP6876941B2 (en) Virtual make-up device, virtual make-up method and virtual make-up program
JP6447255B2 (en) In-vehicle display controller
US11202061B1 (en) Illustrating direction of blood flow via pointers
JP2017185988A (en) Device for vehicle, program for vehicle, and filter design program
CN107960150B (en) Image processing apparatus and method
US8630480B2 (en) Image processing apparatus, display apparatus, image processing method and image processing program
GB2559759A8 (en) Apparatus and method for displaying information
US20120133747A1 (en) Image processing apparatus, display apparatus, image processing method and image processing program
CN108136908A (en) For operating the method for at least one function and operating system in the car
US20110261221A1 (en) Image processing device and image processing method
CN104780354A (en) Image processing apparatus, image processing method, and program
US20190166357A1 (en) Display device, electronic mirror and method for controlling display device
CN108780355A (en) Method and virtual reality system for running virtual reality system
US10679343B2 (en) Ophthalmic image processing apparatus and ophthalmic image processing program
JP6048186B2 (en) VISION DETERMINING DEVICE, VEHICLE DISPLAY CONTROL DEVICE, AND PROGRAM
JP6139898B2 (en) Image processing apparatus, program, and image generation method
RU2015147854A (en) VISUALIZATION OF RECONSTRUCTED IMAGE DATA
JP5562498B1 (en) Room mirror, vehicle blind spot support device using the room mirror, and display image adjustment method of the room mirror or vehicle blind spot support device
GB2563647A (en) Method of displaying an image
JP2017092766A (en) Image processing device, information display system, image processing method and program
JP6266229B2 (en) Image processing apparatus, method, and program
JP2013085133A (en) Depth creating support device, depth creating support method and program
JP6680276B2 (en) Display controller
JP2015121884A (en) Image processing apparatus, method of the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161107

R150 Certificate of patent or registration of utility model

Ref document number: 6048186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees