JPWO2013118328A1 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JPWO2013118328A1
JPWO2013118328A1 JP2013526016A JP2013526016A JPWO2013118328A1 JP WO2013118328 A1 JPWO2013118328 A1 JP WO2013118328A1 JP 2013526016 A JP2013526016 A JP 2013526016A JP 2013526016 A JP2013526016 A JP 2013526016A JP WO2013118328 A1 JPWO2013118328 A1 JP WO2013118328A1
Authority
JP
Japan
Prior art keywords
display device
display
observer
displayed
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013526016A
Other languages
Japanese (ja)
Other versions
JP5496425B2 (en
Inventor
堀川 嘉明
嘉明 堀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013526016A priority Critical patent/JP5496425B2/en
Application granted granted Critical
Publication of JP5496425B2 publication Critical patent/JP5496425B2/en
Publication of JPWO2013118328A1 publication Critical patent/JPWO2013118328A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1335Structural association of cells with optical devices, e.g. polarisers or reflectors
    • G02F1/133526Lenses, e.g. microlenses or Fresnel lenses

Abstract

【課題】遠視など、近点に焦点を合わせることのできない人に対しても焦点のあった画像を観察することのできる表示装置を提供する。
【解決手段】本発明に係る表示装置は、複数のレンズを有するレンズアレイと、レンズにそれぞれ対応した複数の表示領域と、を有し、複数の表示領域には、同じ画像が表示されることを特徴とする。
【選択図】図1
A display device capable of observing a focused image even for a person who cannot focus on a near point such as hyperopia.
A display device according to the present invention includes a lens array having a plurality of lenses, and a plurality of display areas respectively corresponding to the lenses, and the same image is displayed in the plurality of display areas. It is characterized by.
[Selection] Figure 1

Description

本発明は、観察者に対して画像を表示するための表示装置、及び、それを具備する電子機器、並びに表示装置にて実行可能な表示装置用プログラムに関する。   The present invention relates to a display device for displaying an image to an observer, an electronic apparatus including the display device, and a display device program executable by the display device.

映像や文字を表示する表示装置(ディスプレイ)として、液晶ディスプレイやプラズマディスプレイがある。これらの表示装置は、視度の調節が出来ない。高齢化社会の進展に伴って老眼(老視)の高齢者が増えており、視度の調節が可能な表示装置、特にフラットパネルディスプレイ(FPD)が望まれている。携帯電話の普及やデジタルカメラの普及により、屋外でFPDによる表示を見る機会が増えている。更に本の代わりに電子ブックの利用も増加している。このように携帯電話やデジタルカメラ等のモバイル機器のFPDを見るときに、いちいち老眼鏡を掛け外しするのは非常に煩わしい。   There are liquid crystal displays and plasma displays as display devices (displays) for displaying images and characters. These display devices cannot adjust diopter. With the progress of an aging society, the number of elderly people with presbyopia (presbyopia) is increasing, and a display device capable of adjusting diopter, particularly a flat panel display (FPD), is desired. With the spread of mobile phones and the spread of digital cameras, the opportunity to view FPD displays outdoors is increasing. Furthermore, the use of electronic books instead of books is increasing. Thus, it is very troublesome to remove the reading glasses every time when viewing the FPD of a mobile device such as a mobile phone or a digital camera.

携帯電話は、電話として使用されるよりも、メールの送受信、ゲーム等として使用されることが多い。この場合、ユーザーはFPDを見る必要がある。また、デジタル一眼レフカメラには、ライブビューモニターとしてFPDが用いられているが、このデジタル一眼レフカメラにおいて、遠方の被写体を見つつ、ライブビューモニターを見るのに、いちいち老眼鏡を掛けたり外したりするのは、実際的ではない。さらに、撮影モードの変更等、モニターを利用したGUI(グラフィカルユーザーインターフェイス)を使用することが多くモニターを見る必要性は高い。   Mobile phones are often used for sending and receiving e-mails, games, etc., rather than being used as phones. In this case, the user needs to see the FPD. Digital SLR cameras use FPDs as a live view monitor. In this digital single-lens reflex camera, you can wear and remove reading glasses each time to see a live view monitor while viewing a distant subject. It is not practical to do. In addition, a GUI (graphical user interface) using the monitor is often used for changing the shooting mode, and the necessity of viewing the monitor is high.

また、カーナビゲーションシステムのモニターを見るとき、観察者は運転中のドライバーの場合がある。ドライバー自身が、老眼鏡を掛け外しするのは危険であり、老眼鏡の掛け外しは事実上不可能である。さらに他の場面として、パソコン(PC)の液晶画面を観察する時も、いちいち老眼鏡を掛けるのは観察者にとって煩わしい。したがって、老眼鏡を掛け外しすることなくモニターを見ることのできる電子機器が望まれている。   Also, when looking at the monitor of the car navigation system, the observer may be a driving driver. It is dangerous for the driver himself to put off reading glasses, and it is virtually impossible to remove reading glasses. As another scene, it is troublesome for the observer to wear reading glasses every time when observing a liquid crystal screen of a personal computer (PC). Accordingly, there is a demand for an electronic device that allows a monitor to be viewed without removing reading glasses.

例えば、特許文献1には、フレネルレンズ或いはマイクロレンズをデジタルカメラのモニターであるFPDの手前に取り付け、ルーペのようにFPDを覗く構成例が示されている。   For example, Patent Document 1 shows a configuration example in which a Fresnel lens or a microlens is attached in front of an FPD that is a monitor of a digital camera, and the FPD is viewed like a loupe.

特開2009−63624号公報JP 2009-63624 A

特許文献1に開示されている構成においては、ルーペと表示部との間は、適切な像を観察するためには、ある程度の間隔を設ける必要がある。このため、装置が大きくなってしまう。具体的には、老眼の補正をする為には、フレネルレンズをFPDから数cm程度離す必要があり、実用的ではない。   In the configuration disclosed in Patent Document 1, it is necessary to provide a certain distance between the loupe and the display unit in order to observe an appropriate image. For this reason, an apparatus will become large. Specifically, in order to correct presbyopia, the Fresnel lens needs to be separated from the FPD by about several centimeters, which is not practical.

また、特許文献1には、フレネルレンズの代わりにマイクロレンズアレイを画素毎或いは複数の画素毎に用いる構成も示されている。ここで、単に、マイクロレンズアレイを用いると、各マイクロレンズによって画素或いは複数の画素の集合が拡大される。このため、隣の画素が重なって観察されることになり、実用的な画像は得られない。   Patent Document 1 also shows a configuration in which a microlens array is used for each pixel or a plurality of pixels instead of a Fresnel lens. Here, simply using a microlens array enlarges a pixel or a set of a plurality of pixels by each microlens. For this reason, adjacent pixels are observed in an overlapping manner, and a practical image cannot be obtained.

このように、従来、老眼鏡を掛けなくても焦点の合った画像を見ることの出来るFPDは存在していない。また、その様なモニターを搭載した電子機器は無い。   Thus, conventionally, there is no FPD that can see a focused image without wearing reading glasses. There are no electronic devices equipped with such a monitor.

本発明は、このような状況を鑑みてなされたものであって、焦点が容易に合う実用的な薄型の表示装置、その表示装置を備えた電子機器を提供することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to provide a practical thin display device that can be easily focused and an electronic apparatus including the display device.

また、近年液晶パネルなどのフラットパネルディスプレイ上にタッチパネルを重畳して設け、表示されるアイコン、スイッチなど各種オブジェクトを触って入力する電子機器が増加している。実像を表示させるフラットパネルディスプレイにおいては、どのような観察位置においても、視認されるオブジェクトの位置は変化することはない。表示される画像の中でオブジェクトの位置は分かっているから、タッチパネルで検出したタッチ位置の座標からオブジェクトを触っていることが検出できる。しかしながら、観察者から見て遠方に虚像を表示させる表示装置では、観察する位置(方向)によって、観察される虚像の位置は移動する。また、観察する距離によって虚像の大きさは変化しないが、タッチパネルの大きさは変化して見える。すなわち、タッチパネルを設置できる表示装置の表面と虚像の表示との相対位置や相対的大きさが変化する。このような場合、表示装置にタッチパネルを設けてタッチ位置の座標を検出しても、観察位置によって虚像が移動するため、タッチパネルでオブジェクトを特定することができない。   In recent years, there has been an increase in electronic devices in which a touch panel is superimposed on a flat panel display such as a liquid crystal panel, and various objects such as displayed icons and switches are touched and input. In a flat panel display that displays a real image, the position of a visually recognized object does not change at any observation position. Since the position of the object is known in the displayed image, it can be detected that the object is touched from the coordinates of the touch position detected by the touch panel. However, in a display device that displays a virtual image at a distance as viewed from the observer, the position of the observed virtual image moves depending on the observation position (direction). Moreover, although the size of the virtual image does not change depending on the observation distance, the size of the touch panel appears to change. That is, the relative position and relative size between the surface of the display device on which the touch panel can be installed and the display of the virtual image change. In such a case, even if the touch panel is provided on the display device and the coordinates of the touch position are detected, the virtual image moves depending on the observation position, and thus the object cannot be specified on the touch panel.

なお、虚像で表示する表示装置を少し説明する。表示装置の表面から遠方からの光束(例えば、無限遠であれば平行光束)を射出して表示を行う表示装置である。表示は表示装置の表面ではなく、表示装置の奥に形成する虚像で行う。   A display device that displays a virtual image will be described briefly. The display device performs display by emitting a light beam from a distance from the surface of the display device (for example, a parallel light beam at infinity). The display is performed not on the surface of the display device but on a virtual image formed in the back of the display device.

このような課題を解決するため、本発明に係る表示装置は、
複数のレンズを有するレンズアレイと、
前記レンズにそれぞれ対応した複数の表示領域と、を有し、
複数の前記表示領域には、同じ画像が表示されることを特徴とする。
In order to solve such a problem, a display device according to the present invention includes:
A lens array having a plurality of lenses;
A plurality of display areas respectively corresponding to the lenses,
The same image is displayed in the plurality of display areas.

また本発明に係る表示装置は、
観察者から見て表示面よりも遠方に虚像を表示可能とする表示部と、
前記表示部の表面に設けられ、タッチ位置に基づく位置情報を出力するタッチパネルと、を備えたことを特徴とする。
Moreover, the display device according to the present invention includes:
A display unit capable of displaying a virtual image farther than the display surface as viewed from the observer;
A touch panel provided on a surface of the display unit and outputting position information based on a touch position.

本発明に係る表示装置は、観察者の瞳に無限遠からの光束を入射させることにより、通常、表示装置が存在する近点に焦点を合わせることのできない人でも焦点の合った表示を見ることが可能となる。例えば、老眼の人でも老眼鏡を掛ける(或いは外す)ことなく、焦点の合った表示を見ることが可能となる。   The display device according to the present invention makes it possible for a person who cannot normally focus on the near point where the display device exists to view a focused display by causing a light beam from infinity to enter the observer's pupil. It becomes possible. For example, a presbyopic person can view a focused display without wearing (or removing) reading glasses.

また、本発明に係る表示装置における光学要素は、レンズアレイを構成するレンズと、表示領域を組として構成するものであって、このレンズと表示領域を微細なものとすることで、表示領域とレンズ間の光学長を短くすることが可能である。したがって、表示装置の薄型化を実現することが可能となる。   Further, the optical element in the display device according to the present invention comprises a lens array and a display area as a set, and the lens and the display area are made minute so that the display area It is possible to shorten the optical length between the lenses. Therefore, it is possible to reduce the thickness of the display device.

また、本発明に係る表示装置は、虚像を表示可能とする表示部を有することとしている。このような表示装置において、撮像部の出力に基づいて表示部に対する観察者の眼の位置を検出するとともに、検出された観察者の眼の位置に基づいて、タッチパネルが出力する前記位置情報と表示される虚像の位置関係を特定することで、観察者の観察位置が移動した場合においても、観察される虚像とタッチパネルのタッチ位置を整合させることが可能となる。従って、表示装置が存在する近点に焦点を合わせることができない人でも焦点の合った表示を見ることができ、タッチパネルを操作することができる。また、本発明に係る電子機器は、老眼の人でも老眼鏡を掛ける(或いは外す)ことなく、タッチパネルにより電子機器を操作することができる。   In addition, the display device according to the present invention includes a display unit that can display a virtual image. In such a display device, the position of the observer's eyes with respect to the display unit is detected based on the output of the imaging unit, and the position information and display output by the touch panel based on the detected position of the eyes of the observer By specifying the positional relationship of the virtual image to be observed, it is possible to match the observed virtual image and the touch position of the touch panel even when the observation position of the observer moves. Therefore, even a person who cannot focus on the near point where the display device exists can see the focused display and can operate the touch panel. Further, the electronic device according to the present invention can be operated by a touch panel without wearing (or removing) reading glasses even by a presbyopic person.

第1実施形態に係る表示装置を示す斜視図The perspective view which shows the display apparatus which concerns on 1st Embodiment. 第1実施形態に係る表示装置を示す断面図Sectional drawing which shows the display apparatus which concerns on 1st Embodiment. 第1実施形態に係る表示装置に表示される像が観察される様子を示す図The figure which shows a mode that the image displayed on the display apparatus which concerns on 1st Embodiment is observed. 第2実施形態に係る表示装置を示す斜視図The perspective view which shows the display apparatus which concerns on 2nd Embodiment. 第2実施形態に係る表示デバイスを示す正面図Front view showing a display device according to a second embodiment 第2実施形態に係る表示デバイスとレンズアレイの配置関係を示す図The figure which shows the arrangement | positioning relationship between the display device and lens array which concern on 2nd Embodiment. 第2実施形態に係る表示装置を示す正面図Front view showing a display device according to a second embodiment 第2実施形態に係る表示デバイスとレンズアレイの回転誤差を説明するための図The figure for demonstrating the rotation error of the display device which concerns on 2nd Embodiment, and a lens array 本実施形態に係る表示デバイスに表示を行う制御構成を示す図The figure which shows the control structure which displays on the display device which concerns on this embodiment 本実施形態に係る表示装置を有するデジタルカメラ(電子機器)を示す斜視図The perspective view which shows the digital camera (electronic device) which has a display apparatus which concerns on this embodiment. 本実施形態に係る表示装置における観察位置による画像欠けを説明するための図The figure for demonstrating the image missing by the observation position in the display apparatus which concerns on this embodiment. 本実施形態に係る表示装置によって形成される光束を説明するための図The figure for demonstrating the light beam formed with the display apparatus which concerns on this embodiment. 第3実施形態に係る表示装置において、光束の射出方向を変更した場合の形態を示す図The figure which shows the form at the time of changing the emission direction of a light beam in the display apparatus which concerns on 3rd Embodiment. 第3実施形態に係る光束方向の自動調整処理を示すフロー図The flowchart which shows the automatic adjustment process of the light beam direction which concerns on 3rd Embodiment. 第3実施形態に係る表示装置において、表示される画像をシフトした状態を示す図The figure which shows the state which shifted the displayed image in the display apparatus which concerns on 3rd Embodiment. 本実施形態に係る表示装置において、観察距離の変化による入射光束の変化の様子を示す図The figure which shows the mode of the change of incident light beam by the change of observation distance in the display apparatus which concerns on this embodiment. 本実施形態に係る表示装置において、観察距離の変化による観察像の変化の様子を示す図The figure which shows the mode of a change of the observation image by the change of observation distance in the display apparatus which concerns on this embodiment. 第4実施形態に係る表示補正処理を示すフロー図The flowchart which shows the display correction process which concerns on 4th Embodiment 観察位置の変化によって観察される虚像の見え方の変化を説明するための図Illustration for explaining the change in the appearance of a virtual image observed by the change in the observation position 第5実施形態に係る表示装置の構成を示す図The figure which shows the structure of the display apparatus which concerns on 5th Embodiment. 第5実施形態に係る検出処理、特定処理を示すフロー図Flow chart showing detection processing and specific processing according to the fifth embodiment 第5実施形態に係る表示検出眼決定処理を示すフロー図Flow chart showing display detection eye determination processing according to the fifth embodiment 第6実施形態に係る表示部の構成を示す図The figure which shows the structure of the display part which concerns on 6th Embodiment. 第6実施形態に係る表示部の構成を示す図The figure which shows the structure of the display part which concerns on 6th Embodiment. 第7実施形態に係る表示部の構成を示す図The figure which shows the structure of the display part which concerns on 7th Embodiment. 第7実施形態に係る表示部の構成を示す図The figure which shows the structure of the display part which concerns on 7th Embodiment.

以下、本発明に係る表示装置及び表示装置を具備する電子機器のある態様に係る実施形態を図面に基づいて詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, an embodiment according to an aspect of a display device and an electronic apparatus including the display device according to the invention will be described in detail with reference to the drawings.

(第1実施形態)
図1は、第1実施形態の基本構成を示す斜視図である。本実施形態の表示装置は、レンズアレイ1と表示デバイス2を有して構成されている。表示デバイス2には、レンズアレイ1の各レンズ3に対応した位置であっての破線で囲われた表示領域に表示4(図ではアルファベットAの文字)が行われる。この表示は、その他のレンズ3にも対応しており、それぞれのレンズ3に対応して同じ表示が行われる。表示内容は観察者が最終的に観察する表示内容である。なお、図中表示デバイス2の中で一つの表示領域を示す破線は、表示領域の理解を助ける為の記載であって、実際に存在するものではない。
(First embodiment)
FIG. 1 is a perspective view showing a basic configuration of the first embodiment. The display device of this embodiment includes a lens array 1 and a display device 2. On the display device 2, display 4 (letters of alphabet A in the figure) is performed in a display area surrounded by a broken line at a position corresponding to each lens 3 of the lens array 1. This display also corresponds to the other lenses 3, and the same display is performed corresponding to each lens 3. The display content is the display content that the observer finally observes. In the figure, a broken line indicating one display area in the display device 2 is a description for helping understanding of the display area, and does not actually exist.

この表示4は、対応するレンズ3によって図中矢印5のように平行光で無限遠に投影される。表示デバイス2にはレンズアレイ1のレンズ3と同じ数だけ同じ表示がなされる。レンズアレイ1の各レンズ3の隙間は、迷光を避ける為に遮蔽8が施されている。この遮蔽8により、各レンズ3からの光束のみが観察者側に射出され、観察者に対して鮮明な像を観察させることが可能となる。   This display 4 is projected at infinity by parallel light as indicated by an arrow 5 in the figure by the corresponding lens 3. The same number of displays as the lenses 3 of the lens array 1 are displayed on the display device 2. The gap between the lenses 3 of the lens array 1 is shielded 8 to avoid stray light. By this shielding 8, only the light flux from each lens 3 is emitted to the observer side, and it becomes possible for the observer to observe a clear image.

図1中、6は観察者の眼のレンズを示している。また、7は眼の網膜上に映った像を示している。老眼や遠視の人の場合、眼のレンズ6は無限遠にピントが合わせ易いため、矢印5の平行光を網膜上に集光させることにより、観察者は焦点の合った像を観察できる。本実施形態の表示装置では、レンズ3が平面上に配列されたレンズアレイ1を用いることで、表示装置から出射される光束を実質的に太くする。その結果、表示装置における観察範囲は拡大する。また、表示4を投影するレンズ3の焦点距離を短くすることができるため、表示装置の薄型化を実現することも可能となっている。   In FIG. 1, reference numeral 6 denotes a lens of an observer's eye. Reference numeral 7 denotes an image reflected on the retina of the eye. In the case of a presbyopia or a person with hyperopia, the eye lens 6 can be easily focused at infinity, so that the observer can observe a focused image by condensing the parallel light of the arrow 5 on the retina. In the display device of the present embodiment, the light beam emitted from the display device is substantially thickened by using the lens array 1 in which the lenses 3 are arranged on a plane. As a result, the observation range in the display device is expanded. In addition, since the focal length of the lens 3 that projects the display 4 can be shortened, it is possible to reduce the thickness of the display device.

図2には、図1の表示装置を横からみたときの断面図が示されている。図中レンズ3は7個しか示されていないが、実際には非常に多くのレンズ3が上下及び紙面の手前奥方向に配列されることでレンズアレイ1が形成される。図では、各表示領域に表示される表示4の中心から端部までの像高を矢印で示している。各表示領域内に表示される表示4は、表示領域に対応する各レンズ3によって無限遠に投影される。すなわち、各レンズ3から射出する光束は平行光5に変換される。このとき、各表示4は全く同じであるから、各レンズ3から射出される光束は、当該画像について一つの大きな平行光束9や10を形成する。表示の中心の画素からの光束が9、上端の画素からの光束が10である。   FIG. 2 is a cross-sectional view of the display device of FIG. 1 when viewed from the side. Although only seven lenses 3 are shown in the figure, the lens array 1 is actually formed by arranging an extremely large number of lenses 3 in the vertical direction and in the front and back direction of the paper surface. In the figure, the image height from the center to the end of the display 4 displayed in each display area is indicated by an arrow. The display 4 displayed in each display area is projected at infinity by each lens 3 corresponding to the display area. That is, the light beam emitted from each lens 3 is converted into parallel light 5. At this time, since each display 4 is exactly the same, the light beam emitted from each lens 3 forms one large parallel light beam 9 or 10 for the image. The luminous flux from the pixel at the center of the display is 9, and the luminous flux from the uppermost pixel is 10.

したがって、このレンズアレイ1が表示装置の表示光学系の瞳になっていると考えることができる。顕微鏡は接眼レンズを覗いて使用される。接眼レンズの近傍にのみ光学系の瞳が形成されるため、接眼レンズを通して被検体を観察する為には、光学系の瞳位置に眼のレンズの位置を合わせる必要がある。従って、顕微鏡を代表とする光学機器を用いて被検体を観察するには、観察者が顕微鏡の接眼レンズを覗き込む必要がある。但し、接眼レンズから射出される光束は、無限遠から来た光束と等価な平行光に調整できるので、老眼の人でも容易に焦点の合った顕微鏡像を観察できる。本実施形態による表示装置は、1つの大きな平行光束9や10を形成することで、レンズアレイ1全体が光学系の瞳となるため、顕微鏡を使用する際に必要な覗き込む動作を観察者が行う必要がない。そして、表示装置から離れた位置から表示を見ることができる。   Therefore, it can be considered that the lens array 1 is a pupil of the display optical system of the display device. The microscope is used by looking through the eyepiece. Since the pupil of the optical system is formed only in the vicinity of the eyepiece, in order to observe the subject through the eyepiece, it is necessary to align the position of the eye lens with the pupil position of the optical system. Therefore, in order to observe a subject using an optical instrument typified by a microscope, an observer needs to look into the eyepiece lens of the microscope. However, since the light beam emitted from the eyepiece lens can be adjusted to parallel light equivalent to the light beam coming from infinity, a presbyopic person can easily observe a focused microscopic image. In the display device according to the present embodiment, since one large parallel light beam 9 or 10 is formed so that the entire lens array 1 becomes a pupil of the optical system, an observer can perform a peeping operation necessary when using a microscope. There is no need to do it. The display can be seen from a position away from the display device.

さて、表示装置の結像作用を図3を用いて詳説する。図3も簡単のため横から見た断面図で示している。各表示4は、それに対応する各レンズ3によって無限遠に投影される。図では、レンズは4個しか示されていないが、実際には非常に多くのレンズが上下及び紙面の手前奥方向に存在している。この図はその内の4個のレンズによる光束11が観察者の眼のレンズ6に入射している様子を示している。この光束11は平行光であり、無限遠にしか焦点の合わない観察者の眼のレンズ6でも焦点を合わせることができる。各表示領域表示された表示4は、焦点の合った1つの像7として観察者の網膜上に投影される。   Now, the imaging action of the display device will be described in detail with reference to FIG. FIG. 3 is also a cross-sectional view seen from the side for simplicity. Each display 4 is projected at infinity by the corresponding lens 3. In the figure, only four lenses are shown, but in reality, a great number of lenses are present in the vertical direction and in the front and back direction of the paper surface. This figure shows a state in which a light beam 11 from four of the lenses is incident on the lens 6 of the observer's eye. This light beam 11 is parallel light, and can be focused by the lens 6 of the observer's eye that is focused only at infinity. The display 4 displayed in each display area is projected onto the retina of the observer as one focused image 7.

なお、各レンズ3の大きさが小さいと回折の影響で、レンズ3から射出する光束が広がり平行光を射出できない。老眼の人は眼の調整能力が低下しているため、近点に焦点を合わせることができない。しかし、老眼の人が2m先まで焦点を合わせられると仮定すると、眼のレンズ径を3mmとして、3mm/2m[rad]の広がり角を有する光束まで、老眼の人は観察できることになる。回折による広がり角θは、一般にレンズ径D、光の波長λとして、θ=λ/Dと表される。波長を可視光である0.5μm、θ=3/2000、とするとD=0.3mmとなる。すなわち、各レンズ3の径が0.3mm以上あれば、老眼の人でも焦点のあった像を観察可能となる。したがって、レンズ3の径は0.3mm以上が好ましい。   If the size of each lens 3 is small, the light beam emitted from the lens 3 spreads due to diffraction, and parallel light cannot be emitted. Presbyopic people are unable to focus on near points because their ability to adjust their eyes is reduced. However, if it is assumed that the presbyopic person can be focused up to 2 meters away, the presbyopic person can observe a light beam having a divergence angle of 3 mm / 2 m [rad] with the lens diameter of the eye being 3 mm. The spread angle θ due to diffraction is generally expressed as θ = λ / D as a lens diameter D and a light wavelength λ. If the wavelength is 0.5 μm which is visible light and θ = 3/2000, then D = 0.3 mm. That is, if each lens 3 has a diameter of 0.3 mm or more, even a presbyopic person can observe a focused image. Therefore, the diameter of the lens 3 is preferably 0.3 mm or more.

更には、視力0.5の人の解像力は約2分である。この解像力を得るには、D=λ/θ=0.55μm/2分=0.9mm。すなわち、0.9mm以上のレンズ径であることが好ましい。   Furthermore, the resolution of a person with a visual acuity of 0.5 is about 2 minutes. To obtain this resolving power, D = λ / θ = 0.55 μm / 2 min = 0.9 mm. That is, the lens diameter is preferably 0.9 mm or more.

(第2実施形態)
図4は、第2実施形態に係る表示装置の基本構成を示す斜視図である。本実施形態の表示装置は、レンズアレイ1と表示デバイス2で構成されている。表示デバイス2には、レンズアレイ1の各レンズ3に対応した位置の破線で囲われた表示領域に表示4が行われる。この表示4は、その他のレンズ3にも対応しており、それぞれ同じ表示が行われる。その表示内容は観察者が最終的に観察する表示内容である。なお、図中表示デバイス2の中で一つの表示領域を示す破線は、表示領域の理解を助ける為の記載であって、実際には存在するものではない。この表示4はレンズ3によって図中矢印5のように平行光として無限遠に投影される。表示デバイス2にはレンズアレイ1のレンズ3と同じ数だけ同じ表示が行われる。
(Second Embodiment)
FIG. 4 is a perspective view showing a basic configuration of a display device according to the second embodiment. The display device of the present embodiment includes a lens array 1 and a display device 2. On the display device 2, display 4 is performed in a display area surrounded by a broken line at a position corresponding to each lens 3 of the lens array 1. This display 4 also corresponds to the other lenses 3, and the same display is performed. The display content is the display content that the observer finally observes. In the figure, a broken line indicating one display area in the display device 2 is a description for helping understanding of the display area, and does not actually exist. This display 4 is projected at infinity as parallel light by the lens 3 as indicated by an arrow 5 in the figure. The same number of displays as the lenses 3 of the lens array 1 are displayed on the display device 2.

本実施形態の表示装置は、レンズアレイ1におけるレンズ3の形状において実施例1のものと異なっている。本実施形態のレンズ3の形状は、表示領域と同様な形状になっている。すなわち、観察者側からレンズアレイ1を眺めたときの形状が、略表示領域と同じ矩形形状を有している。レンズアレイ1は、このレンズ3を縦横に並べて配列することで構成されている。。第2実施形態では、このような構成により、第1実施形態のように迷光を除くための遮光が不要になり、明るい表示を実現できる。   The display device of this embodiment is different from that of Example 1 in the shape of the lens 3 in the lens array 1. The shape of the lens 3 of the present embodiment is the same as that of the display area. That is, when the lens array 1 is viewed from the viewer side, the shape is substantially the same rectangular shape as the display area. The lens array 1 is configured by arranging the lenses 3 side by side in the vertical and horizontal directions. . In the second embodiment, such a configuration eliminates the need for light shielding for removing stray light as in the first embodiment, and realizes a bright display.

図4中、6は観察者の眼のレンズを示している。また、7は眼の網膜上に映った像を示している。眼のレンズ6は老眼や遠視の人の眼のように無限遠にピントが合っており、矢印5の平行光を網膜上に集光することができる。すなわち、焦点の合った像を観察できる。   In FIG. 4, reference numeral 6 denotes a lens of an observer's eye. Reference numeral 7 denotes an image reflected on the retina of the eye. The eye lens 6 is focused at infinity, like presbyopia or hyperopic human eyes, and can collect the parallel light of the arrow 5 on the retina. That is, an in-focus image can be observed.

なお、標準的な観察方向を表示装置の正面とすると、表示4がレンズ3によって正面に投影されることが望ましい。すなわち表示装置に垂直な方向に投影されることが好ましい。そのためには、表示4がレンズ3の真下に表示されることが望ましい。なお、本第2実施形態における作用は、図2と図3で説明した実施例1と同様である。   If the standard observation direction is the front of the display device, it is desirable that the display 4 be projected to the front by the lens 3. That is, it is preferably projected in a direction perpendicular to the display device. For this purpose, it is desirable that the display 4 be displayed directly below the lens 3. The operation of the second embodiment is the same as that of the first embodiment described with reference to FIGS.

図5には、本実施形態の表示装置で使用される表示デバイス2の正面図が示されている。表示デバイス2には、よく知られた有機ELデバイス、液晶デバイス、電子ペーパーデバイスのような、いわゆるフラットパネルディスプレイデバイスを用いることが可能である。本実施形態の表示デバイス2は、横方向画素数4000、縦方向画素数2000を有する、いわゆる4K×2K表示と言われる800万画素の表示を行うことが出来るものが使用されている。その寸法は60mm×30mmであって、携帯電話やデジタルカメラのモニターとして標準的な大きさである。画素ピッチは、15μmで、画素の大きさはほぼ15μm×15μmである。   FIG. 5 shows a front view of the display device 2 used in the display device of the present embodiment. As the display device 2, a so-called flat panel display device such as a well-known organic EL device, liquid crystal device, or electronic paper device can be used. As the display device 2 of the present embodiment, a display device having a horizontal pixel count of 4000 and a vertical pixel count of 2000 and capable of displaying 8 million pixels, so-called 4K × 2K display, is used. The size is 60 mm × 30 mm, which is a standard size for a monitor of a mobile phone or a digital camera. The pixel pitch is 15 μm, and the pixel size is approximately 15 μm × 15 μm.

本実施形態の表示領域は、この1つの表示デバイス2の表示範囲を複数に分割して設けられる。図に示されるように同じ表示4(図中では「ABC」)が繰返し表示される。図中、表示デバイス2に記載の一つの表示領域を示す破線は、表示領域の理解を助ける為の記載であって、実際には存在するものではない。表示デバイス2に与えられる同じ表示の繰返しの境としてデータ上に存在するだけである。   The display area of the present embodiment is provided by dividing the display range of this one display device 2 into a plurality of parts. As shown in the figure, the same display 4 (“ABC” in the figure) is repeatedly displayed. In the drawing, a broken line indicating one display area described in the display device 2 is a description for helping understanding of the display area, and does not actually exist. It only exists on the data as the boundary of the same display given to the display device 2.

一つの表示領域の大きさは、3mm×1.5mmである。すなわち表示領域の数は縦横20×20である。図では見易くするために10×10で描いている。この一つの表示領域に表示される画素数は200×100である。図6は、このレンズアレイ1と表示デバイス2の対応を示している。図7は、レンズアレイ1と表示デバイス2を重ねた本発明の表示装置を示している。観察される表示は、一つの表示領域に表示された表示4の像「ABC」であり、画素数としては200×100である。この表示4が表示デバイス2全体に表示されているように観察者には見えるので、実感される画素サイズは0.3mmとなる。   The size of one display area is 3 mm × 1.5 mm. That is, the number of display areas is 20 × 20 vertically and horizontally. In the figure, it is drawn at 10 × 10 for easy viewing. The number of pixels displayed in this one display area is 200 × 100. FIG. 6 shows the correspondence between the lens array 1 and the display device 2. FIG. 7 shows a display device of the present invention in which the lens array 1 and the display device 2 are overlapped. The observed display is the image “ABC” of the display 4 displayed in one display area, and the number of pixels is 200 × 100. Since the observer sees the display 4 as being displayed on the entire display device 2, the perceived pixel size is 0.3 mm.

なお、レンズアレイ1と表示デバイス2は、相互に左右上下に平行移動しても性能に大きな影響はない。しかし、図8に示すように回転誤差があるとレンズからの射出光束がねじれて図2で示した光束9、10を正確に形成できなくなる。従って、図8中の回転誤差αは小さく抑えることが好ましい。ここで、回転誤差とは、表示デバイス2とレンズアレイ1の理想的な配置に対する表示デバイス2あるいはレンズアレイ1の回転角度である。例えば、表示デバイス2の長辺とレンズアレイ1の長辺が形成する角度である。具体的には、この回転誤差αは、表示領域の一つ分以下に抑えることが好ましい。すなわち、α[rad]<表示領域の縦の長さ(a)/表示デバイス2の表示範囲の横の長さ(B)が好ましい。表示デバイス2内の表示領域とレンズアレイ1のレンズ3間の対応関係が大幅にずれることを抑制することが可能となる。   It should be noted that the lens array 1 and the display device 2 do not have a significant effect on performance even if they are translated from side to side and up and down. However, if there is a rotation error as shown in FIG. 8, the luminous flux emitted from the lens is twisted and the luminous fluxes 9 and 10 shown in FIG. 2 cannot be formed accurately. Therefore, it is preferable to keep the rotation error α in FIG. 8 small. Here, the rotation error is a rotation angle of the display device 2 or the lens array 1 with respect to an ideal arrangement of the display device 2 and the lens array 1. For example, the angle formed by the long side of the display device 2 and the long side of the lens array 1 is formed. Specifically, it is preferable to suppress the rotation error α to be equal to or less than one display area. That is, α [rad] <vertical length of the display area (a) / horizontal length of the display range of the display device 2 (B) is preferable. It is possible to suppress a significant shift in the correspondence between the display area in the display device 2 and the lenses 3 of the lens array 1.

なお、このような回転誤差が生じた場合、表示デバイス2に表示させる画像を傾けることで調整することも可能である。特に、表示デバイス2とレンズアレイ1を接着固定した場合のように、物理的な位置関係を再調整することが出来ない場合には、表示デバイス2に表示させる画像の傾きを調整(キャリブレーション)することで、表示領域とレンズ3の位置関係の適正化を図ることが可能となる。   In addition, when such a rotation error arises, it is also possible to adjust by tilting the image displayed on the display device 2. In particular, when the physical positional relationship cannot be readjusted, such as when the display device 2 and the lens array 1 are bonded and fixed, the inclination of the image displayed on the display device 2 is adjusted (calibration). By doing so, it is possible to optimize the positional relationship between the display area and the lens 3.

表示デバイス2には他の形態を採用することも可能である。例えば、表示デバイス2として、横方向画素数6000、縦方8000画素数(画素数は4800万画素)の有機EL表示デバイスを用いることが可能である。近年8K×4K表示と言われる画素数3200万画素のスーパーハイビジョンの技術が開発されており実用的な技術となっている。寸法を横120mm、縦160mmとして、電子ブック等の電子機器に用いる。   Other forms may be employed for the display device 2. For example, an organic EL display device having a horizontal pixel number of 6000 and a vertical pixel number of 8000 pixels (the number of pixels is 48 million pixels) can be used as the display device 2. In recent years, Super Hi-Vision technology with 32 million pixels, which is said to be 8K × 4K display, has been developed and has become a practical technology. The dimensions are set to 120 mm in width and 160 mm in length, and used for electronic devices such as electronic books.

この場合、画素ピッチは20μmで、画素の寸法は略20μm×20μmである。表示デバイス2内に縦横20×20の表示領域を設けた場合、一つの表示領域の大きさは、6mm×8mmとなる。この一つの表示領域に表示される画素数は、300×400である。またレンズ3の大きさも6mm×8mmであり、レンズアレイ1は20×20のレンズ3で構成される。観察される表示は、画素数としては300×400である。観察者が実感する画素サイズは0.4mmとなる。   In this case, the pixel pitch is 20 μm, and the pixel dimensions are approximately 20 μm × 20 μm. In the case where a 20 × 20 display area is provided in the display device 2, the size of one display area is 6 mm × 8 mm. The number of pixels displayed in this one display area is 300 × 400. The size of the lens 3 is also 6 mm × 8 mm, and the lens array 1 is composed of 20 × 20 lenses 3. The observed display is 300 × 400 as the number of pixels. The pixel size perceived by the observer is 0.4 mm.

図9には、上述した各実施例について、表示デバイス2に表示する際の制御構成が示されている。本実施形態では、各表示領域に対して同じ表示をする必要がある。そのため、表示する画像やデータを画像処理部で複製することで、表示デバイス2に表示するデータを形成することとしている。入力された原データ(「ABC」)は複製されることで、必要とされる個数分、縦横に配列された1つのデータに変換され、表示デバイス2に表示される。   FIG. 9 shows a control configuration when displaying on the display device 2 for each of the above-described embodiments. In this embodiment, it is necessary to perform the same display for each display area. Therefore, data to be displayed on the display device 2 is formed by duplicating an image or data to be displayed by the image processing unit. The input original data (“ABC”) is duplicated to be converted into one piece of data arranged vertically and horizontally by the required number and displayed on the display device 2.

図10には、本発明の実施形態に係る表示装置を採用したデジタルカメラ(電子機器)12を示す斜視図が示されている。デジタルカメラ12のモニター13に対し、前述した各種実施形態のレンズアレイ1と表示デバイス2を有する表示装置が用いられている。この場合、老眼の人でもモニター13に焦点を合わせることが可能となるため、モニター13に表示されたGUI(グラフィカルユーザーインターフェイス)の表示を見て的確にコントロールボタン15などを操作してデジタルカメラ12を使用することができる。   FIG. 10 is a perspective view showing a digital camera (electronic device) 12 employing the display device according to the embodiment of the present invention. For the monitor 13 of the digital camera 12, a display device having the lens array 1 and the display device 2 of the various embodiments described above is used. In this case, since it is possible for a presbyopic person to focus on the monitor 13, the digital camera 12 can be precisely operated by operating the control button 15 or the like while viewing the GUI (graphical user interface) displayed on the monitor 13. Can be used.

特に、本実施形態では、デジタルカメラの撮像対象となる遠方の風景や被写体をモニター13に表示させる場合、モニター13に表示される被写体が、モニター13の位置よりも遠方に結像される。このため、ユーザーは、実際の被写体とモニター13に表示される被写体との間で、目の焦点調節量を少なくすることも可能となり、目に対する負担を抑制することが可能となる。本実施形態の表示装置は、このようなデジタルカメラのみならず、携帯電話、電子ブックなどの電子機器に用いることが可能であり、老眼の人であっても電子機器本来の機能を使用することができる。   In particular, in this embodiment, when a distant landscape or subject to be imaged by the digital camera is displayed on the monitor 13, the subject displayed on the monitor 13 is imaged farther than the position of the monitor 13. For this reason, the user can reduce the focus adjustment amount of the eye between the actual subject and the subject displayed on the monitor 13, and the burden on the eye can be suppressed. The display device of the present embodiment can be used not only for such a digital camera but also for an electronic device such as a mobile phone or an electronic book, and even a presbyopic person uses the original function of the electronic device. Can do.

(第3実施形態)
図11、図12を用いて本実施形態による表示装置を用いた時に解決することが可能な課題について説明する。図11は、前述した実施形態に係る表示装置における観察位置による画像欠けを説明するための図である。表示装置の正面に観察者がいる場合、すなわち17の位置に観察者の眼のレンズがある場合、表示装置の表示中心の画素からの光束9と、端の画素からの光束10と、反対の端の画素からの光束20は、すべて観察者の眼のレンズに入る。従って、観察者は表示内容全体を見ることができる。
(Third embodiment)
The problems that can be solved when using the display device according to the present embodiment will be described with reference to FIGS. FIG. 11 is a diagram for explaining image missing due to an observation position in the display device according to the above-described embodiment. When there is an observer in front of the display device, that is, when the eye lens of the observer is at position 17, the light beam 9 from the display center pixel of the display device and the light beam 10 from the end pixel are opposite to each other. All the luminous flux 20 from the end pixel enters the lens of the observer's eye. Therefore, the observer can see the entire display content.

しかし、観察者が表示装置の正面から少しずれた18の位置にいる場合は、表示装置の表示中心の画素からの光束9と、端の画素からの光束20は観察者の眼に入るが、その反対の端の画素からの光束10は眼のレンズに入らない。従って、観察者は表示される画像のうち、光束10で形成される画像の端の部分を見ることができない。観察者の眼が19の位置にある場合は、表示の中心画素からの光束9も、端の画素からの光束10も眼のレンズに入らない。従って、光束20で形成される画素近辺の表示しか見ることができない。すなわち、表示装置の正面からでないと、表示内容全部を見ることができない。顔を移動して、表示装置の前に眼を持ってくる必要がある。   However, when the observer is at a position 18 slightly deviated from the front of the display device, the light flux 9 from the display center pixel of the display device and the light flux 20 from the end pixel enter the eyes of the observer. The luminous flux 10 from the pixel at the opposite end does not enter the eye lens. Therefore, the observer cannot see the edge part of the image formed with the light beam 10 among the displayed images. When the observer's eye is at position 19, neither the light beam 9 from the center pixel of the display nor the light beam 10 from the end pixel enters the eye lens. Therefore, only the display near the pixel formed by the light beam 20 can be seen. That is, the entire display content cannot be viewed unless it is from the front of the display device. It is necessary to move the face and bring the eyes in front of the display device.

このように本発明に係る表示装置は、通常の表示装置と比較して狭い観察範囲となっている。図12にはその解決策を示している。図2で説明したように本実施形態の表示装置では、表示デバイス2に表示される各表示4は、それに対応する各レンズ3によって無限遠に投影される。すなわち、各レンズ3から射出する光束は平行光5になっている。このとき、各表示領域の表示4は同じであるから、各レンズから射出される光束は一つの大きな平行光束9や10を作ることができる。表示4の中心の画素からの光束が9、上端の画素からの光束が10である。   As described above, the display device according to the present invention has a narrow observation range as compared with a normal display device. FIG. 12 shows the solution. As described with reference to FIG. 2, in the display device of the present embodiment, each display 4 displayed on the display device 2 is projected at infinity by each lens 3 corresponding thereto. That is, the light beam emitted from each lens 3 is parallel light 5. At this time, since the display 4 of each display area is the same, the light beams emitted from each lens can form one large parallel light beam 9 or 10. The luminous flux from the center pixel of the display 4 is 9, and the luminous flux from the uppermost pixel is 10.

図12では、図2で示したその表示4を少し下方にシフトした状態となっている。その結果、表示4の中心の画素からの光束9が表示装置の正面ではなく、斜め上方に射出されることとなる。同様に、光束10も上方にシフトして射出される。すなわち、表示4をシフトすることで、レンズアレイ1から射出される平行光の射出方向を変更することが可能となる。   In FIG. 12, the display 4 shown in FIG. 2 is shifted slightly downward. As a result, the light beam 9 from the center pixel of the display 4 is emitted obliquely upward rather than in front of the display device. Similarly, the light beam 10 is also shifted upward and emitted. That is, by shifting the display 4, it is possible to change the emission direction of the parallel light emitted from the lens array 1.

図13にはこのような射出方向の変更機能を利用して、図11の状態から射出方向を上方に変更した場合が示されている。図に示されるように、観察者が表示装置の正面から少しずれた位置18にいる場合でも、光束9、10、20の全てが観察者の眼のレンズに入射させることが可能となり、観察者は表示内容全てを観察することが可能となる。観察者の眼が19の位置にある場合は、光束10が眼に入射しないが、表示する表示4のシフト量を更に大きくすることにより全ての光束を入射するようにできる。   FIG. 13 shows a case where the injection direction is changed upward from the state of FIG. 11 using such an injection direction change function. As shown in the figure, even when the observer is at a position 18 slightly deviated from the front of the display device, all of the luminous fluxes 9, 10 and 20 can be incident on the lens of the observer's eye. Makes it possible to observe the entire display content. When the observer's eye is at position 19, the light beam 10 does not enter the eye, but all the light beams can be incident by further increasing the shift amount of the display 4 to be displayed.

表示4のシフトは、観察者の入力に基づいて調整される。観察者は、表示装置に接続された入力手段を利用して画像全体が観察できるように光束の方向を調整する。このような観察者自身による手動調整に代え、この光束の方向は、観察者の場所、すなわち、表示装置と観察者の位置関係に応じて自動調整することとしてもよい。各種センサーを利用して、観察者の顔、もしくは、眼の位置を特定し、観察者に光束が向くようにその方向を自動調整する。センサーには、赤外線センサー、超音波センサーなど各種センサーを用いることも可能であるが、例えば、携帯電話のような電子機器の場合、テレビ電話などを目的として設けられたカメラを利用することが可能である。図10で説明したデジタルカメラの場合においても、モニター13の横に検出用のカメラ14を設けることによって実現できる。   The shift of the display 4 is adjusted based on the observer input. The observer adjusts the direction of the luminous flux so that the entire image can be observed using the input means connected to the display device. Instead of such manual adjustment by the observer, the direction of the light beam may be automatically adjusted according to the location of the observer, that is, the positional relationship between the display device and the observer. Using various sensors, the position of the observer's face or eye is specified, and the direction is automatically adjusted so that the light beam is directed toward the observer. Various sensors such as an infrared sensor and an ultrasonic sensor can be used as the sensor. For example, in the case of an electronic device such as a mobile phone, a camera provided for the purpose of a videophone can be used. It is. The digital camera described with reference to FIG. 10 can also be realized by providing a detection camera 14 beside the monitor 13.

図14には、光束方向の自動調整処理を示すフロー図が示されている。カメラで観察者の顔を撮影し(S101)、撮像された画像から顔を検出することで、表示装置に対する顔の方向が特定される(S102)。その方向に光束を射出する為に必要な表示のシフト量を計算し(S103)、実際に表示をシフトする(S104)。表示のシフトは、顔の位置によって左右上下に必要な量シフトする。表示デバイス2の表示をシフトした例を図15に示す。図5で示した表示に対して右下方向にシフトした状態となっている。なお、図中表示デバイス2の中で一つの表示領域を示す破線は、表示領域の理解を助ける為の記載であって、実際には存在するものではない。   FIG. 14 is a flowchart showing the automatic light beam direction adjustment processing. The face of the observer is photographed with the camera (S101), and the face direction relative to the display device is specified by detecting the face from the captured image (S102). The display shift amount necessary for emitting the light beam in that direction is calculated (S103), and the display is actually shifted (S104). The display is shifted by a necessary amount left, right, up and down depending on the position of the face. An example in which the display of the display device 2 is shifted is shown in FIG. The display shown in FIG. 5 is shifted to the lower right. In the figure, a broken line indicating one display area in the display device 2 is a description for helping understanding of the display area, and does not actually exist.

このように第3実施形態では、表示デバイス2に表示される表示4とレンズ3の位置関係を変更することで、平行光の射出方向を変更することとしている。なお、平行光の方向を変更するには、表示デバイス2に表示される画像をシフトさせるのみならず、表示デバイス2あるいはレンズ3を物理的にシフトさせることによって行うことも可能である。具体的には、表示デバイス2あるいはレンズアレイ1を物理的に移動させることで平行光の射出方向が変更される。   As described above, in the third embodiment, the emission direction of the parallel light is changed by changing the positional relationship between the display 4 and the lens 3 displayed on the display device 2. Note that the direction of the parallel light can be changed not only by shifting the image displayed on the display device 2 but also by physically shifting the display device 2 or the lens 3. Specifically, the emission direction of the parallel light is changed by physically moving the display device 2 or the lens array 1.

(第4実施形態)
近年、液晶パネルなどのフラットパネルディスプレイ(FPD:Flat Panel Display)の上にタッチパネルを重ねて具備し、表示されるオブジェクトを触って入力する電子機器が増加している。いわゆるスマートフォンやタブレット端末などがそれである。デジタルカメラのモニターにおいてもこのようなタッチパネルが使われている。アイコンやスイッチのマークなどのオブジェクトを表示し、それを触ることにより各種入力が行われる。
(Fourth embodiment)
2. Description of the Related Art In recent years, there has been an increase in electronic devices that include a touch panel on a flat panel display (FPD: Flat Panel Display) such as a liquid crystal panel to input a touched object. This is the case with so-called smartphones and tablet devices. Such touch panels are also used in digital camera monitors. Various objects are displayed by displaying objects such as icons and switch marks and touching them.

本実施形態に係る表示装置にタッチパネルを実装した例を示す。タッチパネル29は、例えば、図7で示した本実施形態の表示装置の上に設けられる。ここで通常のFPDと異なる点は、通常のFPDの場合、その表面上に情報が表示されるが、本発明による表示装置は、表面はレンズアレイであり、情報はその奥に虚像として表示されることである。通常のFPDの場合、表示面にスイッチやアイコンを表示すれば、タッチパネルの触る場所はその表示されたスイッチやアイコンになる。タッチパネルは触った場所の座標(位置データ)を検出する。表示の座標(表示の位置データ)と一致させることで、触った位置と表示される像の座標を一対一に同定できる。   The example which mounted the touch panel in the display apparatus which concerns on this embodiment is shown. The touch panel 29 is provided, for example, on the display device of this embodiment shown in FIG. Here, the difference from a normal FPD is that information is displayed on the surface of a normal FPD, but the display device according to the present invention has a lens array on the surface, and the information is displayed as a virtual image behind it. Is Rukoto. In the case of a normal FPD, if a switch or icon is displayed on the display surface, the touched place of the touch panel becomes the displayed switch or icon. The touch panel detects the coordinates (position data) of the touched location. By matching the coordinates of the display (display position data), the touched position and the coordinates of the displayed image can be identified one-to-one.

しかしながら、本実施形態で表示される像は、虚像であって表示装置の表面に固定されて表示される訳ではない。特に、この表示された虚像を観察する場合、表示デバイス2から観察者までの距離によって観察される虚像の見え方が変化することとなり、表示される虚像中の位置とタッチパネルの座標との整合性が変化することとなる。また、場合によっては観察される虚像に欠けが生じる場合もある。図16と図17を用いてこのことを詳説する。   However, the image displayed in the present embodiment is a virtual image and is not fixedly displayed on the surface of the display device. In particular, when observing the displayed virtual image, the appearance of the observed virtual image changes depending on the distance from the display device 2 to the observer, and the consistency between the position in the displayed virtual image and the coordinates of the touch panel. Will change. In some cases, the observed virtual image may be chipped. This will be described in detail with reference to FIGS.

図16は、観察距離の変化による入射光束の変化の様子が示されている。レンズアレイ1と表示デバイス2とタッチパネル29で構成される本実施形態の表示装置を場所31で見ている場合は、虚像の大きさが光束32(図2の光束10の一部)と光束33(図2の光束9の一部)で決められるので、表示された虚像の大きさは表示装置の表示面の大きさで観察される(図17(a))。しかし、場所34で表示装置を見ている場合は、虚像の大きさが光束35と光束36で決まるため、表示装置の表示面の大きさより小さく観察される(図17(b))。実際には、見える虚像の大きさは変わらず、表示装置を見る距離が違うので、表示装置の表示面の大きさが異なって見える。また、表示装置30を見る場所が37の場合は、38と39で示す光束が存在しないので、表示される虚像の一部しか観察されない(図17(c))。このように、観察者の位置、具体的には、表示装置から観察者の観察位置までの距離によって、表示装置のレンズアレイ、すなわちタッチパネル6の奥に見える虚像の場所が違ってくる。すなわち、触るべき位置を特定することができない状態となる。   FIG. 16 shows a change in incident light flux due to a change in observation distance. When the display device of this embodiment configured by the lens array 1, the display device 2, and the touch panel 29 is viewed at a location 31, the size of the virtual image is a light beam 32 (a part of the light beam 10 in FIG. 2) and a light beam 33. Therefore, the size of the displayed virtual image is observed with the size of the display surface of the display device (FIG. 17A). However, when the display device is viewed at the place 34, the size of the virtual image is determined by the light beam 35 and the light beam 36, and therefore, it is observed smaller than the size of the display surface of the display device (FIG. 17B). Actually, the size of the visible virtual image does not change, and the distance to look at the display device is different, so the display surface of the display device looks different. Further, when the place where the display device 30 is viewed is 37, since the luminous fluxes 38 and 39 do not exist, only a part of the displayed virtual image is observed (FIG. 17C). As described above, the position of the virtual image that can be seen in the back of the lens array of the display device, that is, the touch panel 6 differs depending on the position of the observer, specifically, the distance from the display device to the observation position of the observer. That is, the position to be touched cannot be specified.

本実施形態では、観察者までの距離を特定することで、虚像の大きさに対して表示装置の表示面の大きさ、すなわちタッチパネル面の大きさの変化がどの程度か検出している。更には、第3実施形態で説明したように観察者が見る方向によっては表示を見ることができないため、観察者の方向を特定して表示4をシフトすることも行っている。   In this embodiment, by specifying the distance to the observer, it is detected how much the display screen size of the display device, that is, the size of the touch panel surface changes with respect to the size of the virtual image. Furthermore, as described in the third embodiment, since the display cannot be seen depending on the viewing direction of the observer, the display 4 is shifted by specifying the direction of the observer.

観察される虚像に対するタッチパネル29の相対位置や相対的大きさが分かれば、表示の座標をタッチパネル29の座標に一致させることができる。その結果、タッチパネル29の触るべき座標に合わせてスイッチやアイコンを表示することが可能となる。あるいは、タッチパネル29とその奥に見える虚像との相対位置を特定することで、表示におけるどの場所をタッチパネル29で触っているかを判別できる。さらには、図17(c)のように表示が一部欠ける場合には、表示の大きさを縮小することで、全てを観察することが可能となる(図17(d))。   If the relative position and relative size of the touch panel 29 with respect to the observed virtual image are known, the coordinates of the display can be matched with the coordinates of the touch panel 29. As a result, it is possible to display switches and icons in accordance with the coordinates to be touched on the touch panel 29. Alternatively, by identifying the relative position between the touch panel 29 and the virtual image visible in the back, it is possible to determine which place on the display is touched by the touch panel 29. Furthermore, when a part of the display is missing as shown in FIG. 17C, it is possible to observe all of the display by reducing the size of the display (FIG. 17D).

観察者までの距離、方向を特定する手段としては、前述の第3実施形態と同様、各種センサー、あるいは、電子機器に装備されたカメラを利用することが可能である。カメラを利用した場合、カメラの焦点位置を検出することや、撮像した顔の大きさから距離、方向を特定、あるいは、推定することが可能である。   As a means for specifying the distance and direction to the observer, it is possible to use various sensors or a camera installed in an electronic device as in the third embodiment. When a camera is used, it is possible to detect the focal position of the camera and to specify or estimate the distance and direction from the size of the captured face.

図18には、表示補正処理を示すフローが示されている。カメラで観察者の顔を撮影し(S201)、撮像された画像の中で顔を検出し画像の中での位置と大きさを利用してカメラ(すなわち表示装置の位置)から顔までの距離と方向を特定する(S202)。次に、特定した方向に光束を射出するために必要な表示のシフト量と、表示装置から顔までの距離に応じた表示の大きさが計算される(S203)。そして、計算されたシフト量に従い表示をシフトするとともに、画像を計算された大きさに変換する(S204)。また、このような表示補正処理に対応して、タッチパネル29の座標系を調整することで、表示される虚像とタッチパネル29の入力位置(接触検出位置)との整合性をとることが可能となる。   FIG. 18 shows a flow showing the display correction process. The face of the observer is photographed with the camera (S201), the face is detected in the captured image, and the distance from the camera (that is, the position of the display device) to the face is detected using the position and size in the image. And the direction are specified (S202). Next, a display shift amount necessary for emitting the light beam in the specified direction and a display size corresponding to the distance from the display device to the face are calculated (S203). Then, the display is shifted according to the calculated shift amount, and the image is converted into the calculated size (S204). In addition, by adjusting the coordinate system of the touch panel 29 corresponding to such display correction processing, it is possible to achieve consistency between the displayed virtual image and the input position (contact detection position) of the touch panel 29. .

このように、観察者までの距離を特定することで、観察される虚像の見え方、すなわち、表示面(タッチパネル29)に対する虚像の場所と大きさが算出可能となる。したがって、表示のどの部分をタッチパネル29で触っているかを特定することが可能となり、虚像で表示されたアイコンやスイッチなどのオブジェクトを利用した入力が可能となる。このように本実施形態では、観察される虚像内に表示されるオブジェクトと、接触検出位置の整合性を保つことで、虚像で表示されたスイッチやアイコンを接触指示することによる入力が可能となる。   Thus, by specifying the distance to the observer, it is possible to calculate the appearance of the observed virtual image, that is, the location and size of the virtual image with respect to the display surface (touch panel 29). Therefore, it is possible to specify which part of the display is touched with the touch panel 29, and input using an object such as an icon or a switch displayed as a virtual image is possible. As described above, in this embodiment, by maintaining the consistency between the object displayed in the observed virtual image and the contact detection position, it is possible to input by instructing the switch or icon displayed in the virtual image. .

本発明による表示装置をデジタルカメラ、携帯電話、電子ブックなどの電子機器に用いることで老眼の人でもその表示を見ることができ、タッチパネルにより機器の操作が可能となり、電子機器本来の機能を使用することができる。   By using the display device according to the present invention for electronic devices such as digital cameras, mobile phones, and electronic books, even presbyopic people can see the display, and the device can be operated with the touch panel, and the original functions of the electronic device are used. can do.

(第5実施形態)
第4実施形態では、タッチパネルを使用する表示装置において、観察される虚像をタッチパネルの座標と整合させることで、観察位置によって相対位置や相対的大きさが変化する虚像に対して、タッチ入力を可能とすることとしていた。本実施形態では、虚像を表示させる表示装置において、表示させる虚像の位置や大きさは変更することなく、タッチパネルから出力される位置情報によるタッチ位置と表示される虚像の相対位置を特定させることとしている。なお、本実施形態の表示装置は、観察者から見て表示面よりも遠方に虚像を表示可能な形態であればよく、第1〜第3実施形態で説明したレンズアレイを使用する形態に限られるものではない。
(Fifth embodiment)
In the fourth embodiment, in a display device using a touch panel, touch input can be performed on a virtual image whose relative position and relative size change depending on the observation position by aligning the observed virtual image with the coordinates of the touch panel. Was supposed to be. In this embodiment, in a display device that displays a virtual image, the position and size of the virtual image to be displayed are not changed, and the touch position based on the position information output from the touch panel and the relative position of the displayed virtual image are specified. Yes. Note that the display device according to the present embodiment is not limited to the form using the lens array described in the first to third embodiments as long as the virtual image can be displayed farther than the display surface as viewed from the observer. It is not something that can be done.

第4実施形態にて説明したように、虚像を表示する表示装置では、観察者と表示装置の相対位置が変化することによって、表示装置の開口の中に見える画像の相対位置や相対的大きさが変化する。従って、タッチパネルで観察者が触っている座標位置を検出しても、画像の何処を触っているか特定することができない。すなわち、画像に表示されたアイコンなどのオブジェクトを触っても、タッチパネルで検出した座標位置が表示されたオブジェクトの座標位置と一致するとは限らない。虚像を表示する表示装置ではタッチパネルは使うことができない。   As described in the fourth embodiment, in the display device that displays a virtual image, the relative position and the relative size of the image that can be seen in the opening of the display device are changed by changing the relative position of the observer and the display device. Changes. Therefore, even if the coordinate position touched by the observer is detected on the touch panel, it cannot be specified where the image is touched. That is, even if an object such as an icon displayed on the image is touched, the coordinate position detected by the touch panel does not always match the coordinate position of the displayed object. A touch panel cannot be used in a display device that displays a virtual image.

図19でその様子を詳細に説明する。図19(a)に示すように、観察者の眼140が表示装置141の真正面にあるとき、遠方に表示される虚像142は、表示装置141の中心に見える(143)。図19(b)のように、観察者の眼140が左側に移動した場合、遠方に表示された虚像142は、眼140の真正面に見える。従って、見える画像(143)は、表示装置141の左側に移動して見える。すなわち、表示装置141の観察枠内では、観察者の眼140の移動によって、観察者にて観察される画像(143)も移動することとなる。   This will be described in detail with reference to FIG. As shown in FIG. 19A, when the observer's eye 140 is in front of the display device 141, the virtual image 142 displayed in the distance can be seen at the center of the display device 141 (143). As illustrated in FIG. 19B, when the observer's eye 140 moves to the left side, the virtual image 142 displayed far away appears to be in front of the eye 140. Therefore, the visible image (143) appears to move to the left side of the display device 141. That is, in the observation frame of the display device 141, the image (143) observed by the observer is moved by the movement of the eye 140 of the observer.

すなわち、観察者の観察位置によっては、観察者が視認したオブジェクトの位置と、タッチパネルの座標で検出されたオブジェクトの位置との間にずれが生じることとなり、観察者があるオブジェクトをタッチしたつもりでも、タッチパネルで検出された座標には当該オブジェクトが存在しない、あるいは、別のオブジェクトが存在する現象が生じる。このような現象は、表示装置141の表示面に対する虚像142の形成位置が遠方である程、顕著に発生する。したがって、本実施形態の表示装置で使用する表示部は、アイコンやボタン等のオブジェクトを表示させた際、観察者の観察位置によって、オブジェクトの虚像の位置が、タッチパネルで検出された座標の位置から特定できない程度にずれが発生するものに適用することが好ましい。   In other words, depending on the observation position of the observer, there will be a deviation between the position of the object visually recognized by the observer and the position of the object detected by the coordinates of the touch panel. The phenomenon that the object does not exist or another object exists in the coordinates detected by the touch panel occurs. Such a phenomenon becomes more prominent as the formation position of the virtual image 142 with respect to the display surface of the display device 141 is farther away. Therefore, when the display unit used in the display device of the present embodiment displays an object such as an icon or a button, the position of the virtual image of the object is determined from the position of the coordinates detected by the touch panel depending on the observation position of the observer. It is preferable to apply to the case where a deviation occurs to an unspecified extent.

具体的には、観察者から表示部までの距離が20〜30cm程度で使用する携帯情報端末のような電子機器においては、形成される虚像は、表示部の表示面から20cm以上(最大:無限大)、観察者から遠方に位置した場合、上述する問題が顕著となる。本実施形態は、このような表示部を有する表示装置に適用することが好ましい。   Specifically, in an electronic device such as a portable information terminal used at a distance from the observer to the display unit of about 20 to 30 cm, the formed virtual image is 20 cm or more (maximum: infinite) from the display surface of the display unit. Large), the problem described above becomes conspicuous when positioned far from the observer. The present embodiment is preferably applied to a display device having such a display unit.

本実施形態は、観察者の眼の表示装置に対する位置を検出することによって、虚像表示型表示装置101の開口、すなわちタッチパネルの有効領域と虚像で表示される画像の相対位置及び相対的大きさを特定する。特定された画像の相対位置及び相対的大きさに基づいてタッチパネルから出力されるタッチ位置が虚像画像)のどの位置かを特定することで、タッチパネルの入力が画像の、どの部分に行われたかが明らかになる。したがって、観察者の観察位置が移動した場合においても、観察者がタッチしているアイコン等を特定し、電子機器の制御を行うことが可能となる。   In the present embodiment, by detecting the position of the observer's eye with respect to the display device, the opening of the virtual image display type display device 101, that is, the effective area of the touch panel and the relative position and relative size of the image displayed by the virtual image are determined. Identify. By identifying which position of the virtual image is the touch position output from the touch panel based on the relative position and relative size of the specified image, it is clear to which part of the image the touch panel input was performed. become. Therefore, even when the observation position of the observer moves, it is possible to specify an icon or the like that the observer is touching and control the electronic device.

なお、表示部の開口が小さい場合など、人間は両目ではなく片目(利き目)で像を観察する場合がある。例えば、通常のルーペでも多くの場合、片目による観察である。従って、本実施形態では、利き目の眼の位置を検出することが好ましい。観察者の利き目は、予め表示装置の入力部で設定しておくことや、後述する検出眼決定処理にて決定することが可能である。   In some cases, such as when the aperture of the display unit is small, a human may observe an image with one eye (dominant eye) instead of both eyes. For example, an ordinary loupe is often observed with one eye. Therefore, in this embodiment, it is preferable to detect the position of the dominant eye. The dominant eye of the observer can be set in advance by the input unit of the display device or can be determined by a detection eye determination process described later.

図20には、本実施形態の表示装置の制御構成が示されている。本実施形態の表示装置は、タッチパネル、観察者を検出する検出用カメラ(撮像部)、また、図示しない虚像を表示する表示部を有している。また、顔認識回路、眼位置検出回路、タッチ位置特定回路、電子機器制御回路などを含む制御部を備えて構成されている。本実施形態の制御部は、複数の回路によって構成されているが、これら回路は、CPUなどで適宜に構成することも可能である。また、本実施形態は、制御部で実行可能な表示装置用プログラムとして提供することも可能である。   FIG. 20 shows a control configuration of the display device of the present embodiment. The display device of the present embodiment includes a touch panel, a detection camera (imaging unit) that detects an observer, and a display unit that displays a virtual image (not shown). In addition, a control unit including a face recognition circuit, an eye position detection circuit, a touch position specifying circuit, an electronic device control circuit, and the like is provided. The control unit of the present embodiment is configured by a plurality of circuits, but these circuits can be appropriately configured by a CPU or the like. Moreover, this embodiment can also be provided as a program for a display device that can be executed by the control unit.

検出用カメラ(撮像部)は、表示装置の筐体中、表示部を観察する観察者の顔を撮像可能な位置に設けられている。顔認識回路は、検出用カメラで撮像された撮像情報中、観察者の顔を検出する。眼位置検出回路は、観察者の顔の中から、表示装置に対する観察者の眼の位置(方向、距離)を求める。なお、観察者に対する距離は、検出用カメラの焦点位置を利用して特定することも可能である。一方、タッチパネルは、観察者による操作(タッチ入力)に基づいてタッチ位置情報をタッチ位置特定回路に出力する。タッチ位置特定回路は、眼位置検出回路で検出された観察者の眼の位置に基づいて、観察者にて観察される虚像(画像)とタッチパネルの相対位置を算出し、表示(画像)のどの部分をタッチしたかを特定する。特定されたタッチ位置情報は電子機器制御回路に入力され、特定された位置情報で特定される各種処理が実行される。   The detection camera (imaging unit) is provided in the housing of the display device at a position where the face of the observer who observes the display unit can be imaged. The face recognition circuit detects the face of the observer in the image information captured by the detection camera. The eye position detection circuit obtains the position (direction and distance) of the observer's eyes relative to the display device from the observer's face. Note that the distance to the observer can also be specified using the focal position of the detection camera. On the other hand, the touch panel outputs touch position information to the touch position specifying circuit based on an operation (touch input) by an observer. The touch position specifying circuit calculates a relative position between the virtual image (image) observed by the observer and the touch panel based on the position of the eye of the observer detected by the eye position detection circuit, and displays the display (image). Determine if you touched the part. The specified touch position information is input to the electronic device control circuit, and various processes specified by the specified position information are executed.

図21には、表示装置を観察する観察者の眼の位置を検出する検出処理と、検出処理の検出結果に基づいて画像とタッチパネルの相対位置と相対的大きさを計算するフロー図が示されている。表示装置が起動すると、S401では、検出用カメラで観察者の顔が撮影される。S402では、撮像された画像に対して画像認識を行い、顔を検出すると共に顔の中から眼の位置(方向、距離)が検出される。S403では、観察者が見ている画像と表示装置の開口(タッチパネル)との相対的な位置関係及び大きさの関係が特定される。S404では、画像とタッチパネルの座標の関係を構築し、タッチパネルでタッチされた画像の該当部分を特定する(タッチ位置検出)。このようなS401、S402からなる検出処理と、S403、S404からなる特定処理を繰り返し実行することで、観察者の観察位置が変動した場合においても、表示される画像と、観察者が表示画像を意図して入力したタッチ位置の整合性を取ることが可能となる。   FIG. 21 shows a detection process for detecting the position of the eye of the observer observing the display device, and a flowchart for calculating the relative position and relative size of the image and the touch panel based on the detection result of the detection process. ing. When the display device is activated, an observer's face is photographed by the detection camera in S401. In S402, image recognition is performed on the captured image to detect a face and to detect the position (direction and distance) of the eye from the face. In S403, the relative positional relationship and size relationship between the image viewed by the observer and the opening (touch panel) of the display device are specified. In S404, the relationship between the image and the coordinates of the touch panel is constructed, and the corresponding part of the image touched on the touch panel is specified (touch position detection). By repeatedly executing the detection process including S401 and S402 and the specific process including S403 and S404, even when the observation position of the observer fluctuates, the displayed image and the display image are displayed by the observer. It is possible to ensure the consistency of the touch position that is input intentionally.

図20のタッチ位置特定回路、図21の特定処理(S403、S404)にて行われる位置情報と表示する画像の位置関係の特定には、両眼を検出して、その中間位置などを眼の位置とすることも可能である。しかしながら、前述したように表示部の開口が小さい場合などにおいては、観察者は左右どちらかの利き目を利用して観察することが多い。そのため、検出処理、特定処理においては、左右の眼どちらかの利き目を使用することが好ましい。このような利き目の設定は、表示装置に設けられた入力部から入力することで設定することが可能である。   For specifying the positional relationship between the position information and the image to be displayed performed in the touch position specifying circuit of FIG. 20 and the specifying process (S403, S404) of FIG. 21, both eyes are detected and the intermediate position thereof is determined. It can also be a position. However, when the opening of the display unit is small as described above, the observer often observes using either the right or left dominant eye. Therefore, it is preferable to use the dominant eye of either the left or right eye in the detection process and the identification process. Such dominant setting can be set by inputting from the input unit provided in the display device.

あるいは、自分のどちらの眼が利き目であるかを知らない観察者のために、表示装置にて、利き目を検出して設定する検出眼決定処理を行うこととしてもよい。図22には、表示装置の制御部にて実行される検出眼決定処理が示されている。この検出眼決定処理は、表示装置の設定機能として制御部にて実行される処理である。   Or it is good also as performing the detection eye determination process which detects and sets a dominant eye in a display apparatus for the observer who does not know which eye of self is a dominant eye. FIG. 22 shows detected eye determination processing executed by the control unit of the display device. This detected eye determination process is a process executed by the control unit as a setting function of the display device.

この検出眼決定処理では、観察者をカメラで撮影し、左右それぞれの眼の位置(表示装置との相対位置、距離・方向)を求める(S501、S502)。次に、左右それぞれの眼の位置情報に基づいて、観察者に見える画像と表示装置の開口(タッチパネル)との相対位置や大きさの関係が特定される(S503)。利き目検出用の所定のマークを表示部に表示させる(S504)。このマークは、表示装置に使用するときにスイッチとして表示するアイコンやテンキーのボタンの大きさ程度でよいが、できるだけ小さい方が利き目を正確に検出する上で好ましい。   In this detected eye determination process, the observer is photographed with a camera and the positions of the left and right eyes (relative position, distance and direction with respect to the display device) are obtained (S501, S502). Next, based on the positional information of the left and right eyes, the relative position and size relationship between the image visible to the observer and the opening (touch panel) of the display device are specified (S503). A predetermined mark for dominant eye detection is displayed on the display unit (S504). This mark may be about the size of an icon or a numeric keypad displayed as a switch when used in a display device, but it is preferable that the mark is as small as possible to accurately detect the dominant eye.

マークに触った接触位置が検出される(S505)。次に、左右それぞれの眼の位置から算出したマークの表示位置とタッチパネルから出力された位置情報を比較する(S506)。左右の眼で観察されるマークの位置のどちらが、タッチパネルから出力される位置情報に一致するかを判定し、より一致している側の眼を利き眼として、タッチ位置特定回路に設定する(S507)。以上の検出眼決定処理を実行することで、観察者は自分のどちらの眼が利き目であるかを意識することなく、表示装置に利き目を設定し、利き目に応じた位置情報の補正を行うことが可能となる。   A contact position touching the mark is detected (S505). Next, the display position of the mark calculated from the positions of the left and right eyes is compared with the position information output from the touch panel (S506). It is determined which of the mark positions observed by the left and right eyes matches the position information output from the touch panel, and the matching eye is set as the dominant eye in the touch position specifying circuit (S507). ). By executing the above-described detection eye determination process, the observer sets the dominant eye on the display device without being aware of which eye is his dominant eye, and corrects position information according to the dominant eye. Can be performed.

第5実施形態では、虚像を表示させる表示装置において、表示させる虚像の位置や大きさは変更することなく、タッチパネルから出力される位置情報を特定することとしていたが、この第5実施形態において、さらに、表示させる虚像の位置や大きさを変更し、観察者に対して虚像全体、あるいは、虚像中の必要とされる所定領域を視認可能としてもよい。この場合、表示装置の制御部では、観察者の眼の位置を検出する検出処理(図21のS401、S402など)に基づいて、表示部に表示させる画像の位置あるいは大きさの少なくとも一方を変更する視野調整処理が実行される。このような視野調整処理を実行することで、観察者の観察位置が移動した場合であっても、観察者は虚像全体、あるいは、虚像中の必要とされる所定領域を観察することが可能となる。なお、本視野調整処理を実行する場合においても、観察される虚像とタッチパネルの位置関係にずれが生じる場合があるため、前述した特定処理(図21のS403、S404など)は実行されることとなる。   In the fifth embodiment, in the display device that displays the virtual image, the position information output from the touch panel is specified without changing the position and size of the virtual image to be displayed. In the fifth embodiment, Furthermore, the position and size of the virtual image to be displayed may be changed so that the entire virtual image or a predetermined area in the virtual image can be visually recognized by the observer. In this case, the control unit of the display device changes at least one of the position or size of the image displayed on the display unit based on the detection process (S401, S402, etc. in FIG. 21) for detecting the position of the observer's eyes. A visual field adjustment process is executed. By executing such visual field adjustment processing, even when the observation position of the observer moves, the observer can observe the entire virtual image or a predetermined area in the virtual image. Become. Even when the visual field adjustment process is executed, the positional relationship between the observed virtual image and the touch panel may be shifted, so that the above-described specific process (S403, S404, etc. in FIG. 21) is executed. Become.

(第6実施形態)
第4、5実施形態は、虚像を表示する表示部を備えた表示装置において、タッチパネルの入力位置(タッチ位置)の適正化を図ることとするものであるが、これら実施形態において使用される表示部は、第1〜3実施形態で説明したレンズアレイを使用するものに限定されるものではなく、虚像を表示可能な表示部であれば適用することが可能である。以降に説明する第6、第7実施形態では、虚像を表示可能な表示部について異なる形態を提案するものである。
(Sixth embodiment)
In the fourth and fifth embodiments, in a display device including a display unit that displays a virtual image, the input position (touch position) of the touch panel is optimized, and the display used in these embodiments The unit is not limited to the one using the lens array described in the first to third embodiments, and any unit that can display a virtual image can be used. In the sixth and seventh embodiments described below, different forms are proposed for the display unit capable of displaying a virtual image.

図23には、瞳合成を利用した虚像表示型の表示部の一例(第6実施形態)を示している。新聞紙をルーペで見ることを考える。これは、ルーペで拡大された虚像を見ていることになる。しかし、この系は大きく、そのままではフラットパネルディスプレイ(以下、FPDと称する)を構成することはできない。そこで、数mm四方の小さなディスプレイ120を小型のレンズ121で拡大してディスプレイ120に表示された画像を見ることを考える。系を小さくすることはできるが、レンズ121の開口は小さく、眼をレンズ121に密着させて覗く必要がある。通常のFPDのように離れてみることはできない。そこで、レンズ121から射出される光束を光導波路118に入射させる。光導波路118に入射した光は、光導波路118の中を全反射して伝わっていく。   FIG. 23 shows an example (sixth embodiment) of a virtual image display type display unit using pupil synthesis. Think of looking at newspapers with a loupe. This means that you are looking at a virtual image magnified with a loupe. However, this system is large, and a flat panel display (hereinafter referred to as FPD) cannot be constructed as it is. Therefore, consider that an image displayed on the display 120 is enlarged by enlarging a small display 120 of several mm square with a small lens 121. Although the system can be made small, the aperture of the lens 121 is small, and it is necessary to look closely while keeping the eye in close contact with the lens 121. You can't look away like a normal FPD. Therefore, the light beam emitted from the lens 121 is incident on the optical waveguide 118. The light incident on the optical waveguide 118 travels through the optical waveguide 118 with total reflection.

ホログラム119は光導波路118内を全反射して伝わる光の一部を回折して光導波路の外に射出させる。ディスプレイ120はレンズ121の焦点位置あるので、ディスプレイ120の表示された画像の中心122から射出される光束は平行光束となって光導波路118に入射する。すると光導波路118内を全反射して伝わりホログラム119によってその一部が平行光束123として光導波路118から射出する。ホログラム119で反射した光束は引続き光導波路118内を全反射して伝わり、ホログラム119によって一部が平行光束として光導波路118の外に射出される。すなわち、光導波路の表面124のほぼ全域から太くなった平行光束として125の方向に射出される。ディスプレイに表示された画像の端126から射出される光束は平行光束となり光導波路118に入射する。そして光導波路118内を全反射して伝わり、ホログラム119によってその一部が平行光束として射出される。方向は127である。   The hologram 119 diffracts a part of the light transmitted by being totally reflected in the optical waveguide 118 and emits it out of the optical waveguide. Since the display 120 is at the focal position of the lens 121, the light beam emitted from the center 122 of the image displayed on the display 120 enters the optical waveguide 118 as a parallel light beam. Then, the light is totally reflected in the optical waveguide 118, and a part of the light is emitted from the optical waveguide 118 as a parallel light beam 123 by the hologram 119. The light beam reflected by the hologram 119 continues to be totally reflected inside the optical waveguide 118, and a part of the light beam is emitted out of the optical waveguide 118 as a parallel light beam by the hologram 119. That is, the light beam is emitted in the direction of 125 as a thick parallel light beam from almost the entire surface 124 of the optical waveguide. The light beam emitted from the end 126 of the image displayed on the display becomes a parallel light beam and enters the optical waveguide 118. The light is then totally reflected through the optical waveguide 118, and a part thereof is emitted as a parallel light beam by the hologram 119. The direction is 127.

ディスプレイの反対の端からの光束は、128の方向の平行光束として光導波路118から射出される。すなわち、光導波路118の表面124から、レンズ121の小さな瞳が合成され、大きな並行光束が射出さる。観察者は、光導波路118から離れた位置でディスプレイ120に表示された画像を見ることができる。並行光束なので老眼の人でも表示された画像を見ることができる。なお、図23は一方向の導波について示した例であり、このような一方向の導波では細長い表示部となる。複数の光導波路を異なる方向に2組み合わせることで、通常の縦横比の表示部が出来る。図24にその様子を示す。光導波路118は130の方向に光を導波し、光導波路129に光を入射させる。下方に位置する光導波路129は131の方向に光を導波する。これによってレンズ121の小さな瞳を大きな瞳に合成できる。すなわち光導波路129の表面132の全面からあらゆる方向133に平行光束が射出される。これによりこれはルーペと同様、虚像を観察していることになる。しかし、ルーペと違って非常に薄い光導波路程度の厚さのシステムとなっている。   The light beam from the opposite end of the display is emitted from the optical waveguide 118 as a parallel light beam in 128 directions. That is, a small pupil of the lens 121 is synthesized from the surface 124 of the optical waveguide 118, and a large parallel light beam is emitted. The observer can see the image displayed on the display 120 at a position away from the optical waveguide 118. Because of the parallel light flux, even presbyopic people can see the displayed image. FIG. 23 shows an example of unidirectional waveguide, and such a unidirectional waveguide forms an elongated display portion. By combining two or more optical waveguides in different directions, a display portion having a normal aspect ratio can be formed. This is shown in FIG. The optical waveguide 118 guides light in the direction 130 and makes the light incident on the optical waveguide 129. The optical waveguide 129 located below guides light in the direction of 131. As a result, the small pupil of the lens 121 can be synthesized into a large pupil. That is, a parallel light beam is emitted in all directions 133 from the entire surface 132 of the optical waveguide 129. This means that, like a loupe, this is observing a virtual image. However, unlike a loupe, the system is as thin as a very thin optical waveguide.

(第7実施形態)
図25、図26には第7実施形態に係る虚像表示型の表示部が示されている。本実施形態の表示部は、モニター151(ディスプレイ)をルーペ152で覗くデジタルカメラ(電子機器)に適用した例である。デジタルカメラ150のモニター151をルーペ152で覗く光路は、二つのミラー153、154で形成される。図26(a)に、使用時におけるデジタルカメラ150を横から見た光路を示す。モニター151から出た光は、ミラー154で反射し、更にミラー153で反射し、ルーペ152で平行光束に変換されて観察者の眼に入る。このような構成により観察者は、ルーペ152を介して、モニター151に表示される像を虚像として観察することが可能である。図28(b)にルーペ152やミラー153、154を収納した場合を示している。このように、携帯時には小さくすることができる。
(Seventh embodiment)
25 and 26 show a virtual image display type display unit according to the seventh embodiment. The display unit of the present embodiment is an example applied to a digital camera (electronic device) that looks into the monitor 151 (display) with the loupe 152. An optical path through which the monitor 151 of the digital camera 150 is viewed with the loupe 152 is formed by two mirrors 153 and 154. FIG. 26A shows an optical path when the digital camera 150 is viewed from the side during use. The light emitted from the monitor 151 is reflected by the mirror 154, further reflected by the mirror 153, converted into a parallel light beam by the loupe 152, and enters the observer's eyes. With such a configuration, the observer can observe the image displayed on the monitor 151 as a virtual image via the loupe 152. FIG. 28B shows a case where the loupe 152 and the mirrors 153 and 154 are stored. In this way, it can be reduced when carried.

図25に戻って説明を続ける。ルーペ152の表面にはタッチパネル158が設けられている。検出用カメラ155によって観察者の眼を撮影し、眼の位置、すなわち方向と距離を検出する。このことによって、ルーペ152の開口に対して虚像がどの位置に、どの程度の大きさで観察されるか明らかにできる。従って、ルーペ152の表面に設けられたタッチパネル158の座標軸との相対位置、相対的大きさを把握できる。観察者は虚像で表示される画像を見てタッチパネル158を触ることができる。すなわち、虚像で表示されたGUI(Graphical User Interface)に基づいてデジタルカメラ150を操作し、望みの撮影モードなどを選択し、シャッター156を押して撮像することが可能となる。   Returning to FIG. 25, the description will be continued. A touch panel 158 is provided on the surface of the loupe 152. The eye of the observer is photographed by the detection camera 155, and the eye position, that is, the direction and the distance are detected. This makes it possible to clarify at what position and in what size the virtual image is observed with respect to the opening of the loupe 152. Therefore, the relative position and relative size with respect to the coordinate axis of the touch panel 158 provided on the surface of the loupe 152 can be grasped. An observer can touch the touch panel 158 while viewing an image displayed as a virtual image. That is, it is possible to operate the digital camera 150 based on a GUI (Graphical User Interface) displayed as a virtual image, select a desired shooting mode, and press the shutter 156 to take an image.

また、第5実施形態で説明したように、観察者の位置に基づいて虚像の位置もしくは大きさの少なくとも一方を変更させる場合には、観察者は表示される虚像全体を視認することが可能となる。具体的には、ルーペ152の略正面に対向して観察者がいる場合、観察者はルーペ152の中央に虚像を観察することができる。観察者がルーペ152の正面から移動した場合であっても、観察者の眼の位置に追随して画像の位置もしくは大きさの少なくとも一方を変更することにより、ルーペ152の中央付近で虚像を観察することが可能となる。   Further, as described in the fifth embodiment, when changing at least one of the position or size of the virtual image based on the position of the observer, the observer can visually recognize the entire virtual image to be displayed. Become. Specifically, when there is an observer facing substantially the front of the loupe 152, the observer can observe a virtual image in the center of the loupe 152. Even when the observer moves from the front of the loupe 152, a virtual image is observed near the center of the loupe 152 by changing at least one of the position and size of the image following the position of the eyes of the observer. It becomes possible to do.

(第8実施形態)
上述するタッチパネルを使用する各種実施形態では、観察者の眼の表示装置に対する位置を検出することによって、虚像表示型表示装置の開口、すなわちタッチパネルの有効領域と虚像で表示される画像の相対位置及び相対的大きさを特定することができることを示した。特定された画像の相対位置及び相対的大きさに基づいてタッチパネルから出力されるタッチ位置が虚像(画像)のどの位置かを特定することで、タッチパネルの入力が画像のどの部分に行われたかが明らかになる。したがって、観察者の観察位置が移動した場合においても、観察者がタッチしているアイコン等を特定し、電子機器の制御を行うことが可能となる。ところで、医療機器の表示装置等では、衛生的観点からタッチパネルに触らないで入力できることが好ましい。
(Eighth embodiment)
In various embodiments using the touch panel described above, by detecting the position of the eye of the observer with respect to the display device, the opening of the virtual image display type display device, that is, the effective position of the touch panel and the relative position of the image displayed by the virtual image, and It was shown that the relative size can be specified. By identifying which position of the virtual image (image) the touch position output from the touch panel is based on the relative position and relative size of the identified image, it is clear to which part of the image the touch panel input was performed. become. Therefore, even when the observation position of the observer moves, it is possible to specify an icon or the like that the observer is touching and control the electronic device. By the way, in the display apparatus of medical equipment, it is preferable that input can be performed without touching the touch panel from a hygienic viewpoint.

タッチパネルに触らない形態としては、ユーザーの指の位置を検出し、表示装置に表示されているオブジェクト中、どのオブジェクトを指しているかを特定する手法が考えられる。すなわち、タッチパネルに代え、表示装置の表示開口付近の指の位置、動きを検出することで、非接触で表示装置の表示面近傍にある指の位置を特定する手法である。このような手法によれば、ユーザーが指し示す表示面の位置に対応して表示されるオブジェクトを特定することが可能となる。   As a form that does not touch the touch panel, a method of detecting the position of the user's finger and identifying which object is indicated among the objects displayed on the display device can be considered. That is, in place of the touch panel, a finger position near the display surface of the display device is specified in a non-contact manner by detecting the position and movement of the finger near the display opening of the display device. According to such a method, it is possible to specify an object to be displayed corresponding to the position of the display surface pointed to by the user.

指の位置、動きを検出するためには、表示装置の表示開口付近を撮像するカメラを使用することが考えられる。このカメラは、前述した観察者の眼の位置を検出するカメラと兼用してもよい。カメラで撮像した撮像情報に基づいて、ユーザーの指の位置、動きを検出し、どのオブジェクトを指し示しているかを特定することで、アイコンなどオブジェクトに対する操作を行うことが可能となる。その際、観察者の眼の位置を参照して、オブジェクトを特定することにより、観察者位置が変化した場合においても、ユーザーが意図するオブジェクトに対する操作が可能となる。   In order to detect the position and movement of the finger, it is conceivable to use a camera that captures the vicinity of the display opening of the display device. This camera may also be used as the camera for detecting the position of the observer's eye described above. By detecting the position and movement of the user's finger based on the imaging information captured by the camera and specifying which object is pointing, it is possible to perform operations on objects such as icons. At that time, by specifying the object with reference to the position of the eye of the observer, the user can operate the object intended even when the position of the observer changes.

本発明におけるタッチパネルとは、上述するような表示装置の表示面の位置を非接触で検出する機能を有する入力手段を含むものである。また、本発明におけるタッチ位置とは、このような入力手段を用い、非接触で特定された表示装置の表示面上の位置を含むものである。   The touch panel in the present invention includes input means having a function of detecting the position of the display surface of the display device as described above in a non-contact manner. Further, the touch position in the present invention includes a position on the display surface of the display device that is specified in a non-contact manner using such input means.

以上、本発明の例示として、種々の実施形態について説明したが、本発明はこれらの実施形態のみに限られるものではなく、それぞれの実施形態の構成を適宜組み合わせて構成した実施形態も本発明の範疇となるものである。   As described above, various embodiments have been described as examples of the present invention. However, the present invention is not limited to these embodiments, and embodiments configured by appropriately combining the configurations of the embodiments are also included in the present invention. It is a category.

1…レンズアレイ、2…表示デバイス、3…レンズ、4…表示領域、5…平行光、6…観察者の眼のレンズ、8…遮蔽部、7…網膜上に映った像、29…タッチパネル、118…光導波路、119…ホログラム、121…レンズ、122…ディスプレイ、123…平行光束、124…光導波路の表面、125、127、128…平行光束の射出方向、126…画像端部、129…光導波路、130、131…光導波路の導波方向、132…光導波路の表面、133…平行光束の射出方向、140…観察者の眼、141…表示装置、142…虚像、143…画像、150…デジタルカメラ、151…モニター(ディスプレイ)、152…ルーペ、153…ミラー、154…ミラー、155…検出用カメラ、156…シャッター、157…射出される光束、158…タッチパネル DESCRIPTION OF SYMBOLS 1 ... Lens array, 2 ... Display device, 3 ... Lens, 4 ... Display area, 5 ... Parallel light, 6 ... Lens of an observer's eye, 8 ... Shield part, 7 ... Image reflected on retina, 29 ... Touch panel 118 ... Optical waveguide, 119 ... Hologram, 121 ... Lens, 122 ... Display, 123 ... Parallel light beam, 124 ... Surface of optical waveguide, 125, 127, 128 ... Ejecting direction of parallel light beam, 126 ... Image end, 129 ... Optical waveguide, 130, 131 ... Waveguide direction of optical waveguide, 132 ... Surface of optical waveguide, 133 ... Ejecting direction of parallel light beam, 140 ... Eye of observer, 141 ... Display device, 142 ... Virtual image, 143 ... Image, 150 ... Digital camera, 151 ... Monitor (display), 152 ... Loupe, 153 ... Mirror, 154 ... Mirror, 155 ... Detection camera, 156 ... Shutter, 157 ... Ejected Ruhikaritaba, 158 ... touch panel

本発明は、観察者に対して画像を表示するための表示装置に関する。 The present invention relates to a display device for displaying an image to an observer.

本発明は、このような状況を鑑みてなされたものであって、焦点が容易に合う実用的な薄型の表示装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a practical thin display device that can be easily focused.

このような課題を解決するため、本発明に係る表示装置は、
表示デバイスを含むフラットパネルディスプレイであって、観察者から直接見て前記フラットパネルディスプレイの表示面よりも遠方に虚像を表示可能とする表示部と、
観察者の顔又は眼の方向を検出するセンサーと、
前記センサーの出力に基づいて前記表示部に対する観察者の顔又は眼の方向を検出する検出処理と、前記検出処理によって検出された前記観察者の顔又は眼の方向に基づいて、前記表示部に表示する虚像の方向を変更する視野調整処理と、を実行可能な制御部と、
を備えたことを特徴とする。
In order to solve such a problem, a display device according to the present invention includes:
A flat panel display including a display device, a display unit capable of displaying a virtual image farther than the display surface of the flat panel display when viewed directly from an observer;
A sensor that detects the face or eye direction of the observer;
A detection process for detecting the direction of the observer's face or eyes relative to the display unit based on the output of the sensor, and the display unit based on the direction of the observer's face or eyes detected by the detection process A visual field adjustment process for changing the direction of the virtual image to be displayed;
It is provided with.

Claims (24)

複数のレンズを有するレンズアレイと、
前記レンズにそれぞれ対応した複数の表示領域と、を有し、
複数の前記表示領域には、同じ画像が表示されることを特徴とする
表示装置。
A lens array having a plurality of lenses;
A plurality of display areas respectively corresponding to the lenses,
The display device, wherein the same image is displayed in the plurality of display areas.
前記レンズは、対応する前記表示領域に表示された表示を無限遠に投影することを特徴とする
請求項1に記載の表示装置。
The display device according to claim 1, wherein the lens projects the display displayed in the corresponding display area to infinity.
前記レンズアレイは、各前記レンズ間に遮蔽部を有することを特徴とする
請求項1または請求項2に記載の表示装置。
The display device according to claim 1, wherein the lens array includes a shielding portion between the lenses.
前記レンズは、前記表示領域と同じ形状であることを特徴とする
請求項1から請求項3の何れか1項に記載の表示装置。
The display device according to any one of claims 1 to 3, wherein the lens has the same shape as the display area.
前記レンズの開口は、0.3mm以上であることを特徴とする
請求項1から請求項4の何れか1項に記載の表示装置。
The display device according to any one of claims 1 to 4, wherein an opening of the lens is 0.3 mm or more.
複数の前記表示領域は、一つの表示デバイスで表示されることを特徴とする
請求項1から請求項5の何れか1項に記載の表示装置。
The display device according to any one of claims 1 to 5, wherein the plurality of display areas are displayed by a single display device.
前記レンズアレイと前記表示デバイスの組合せ時の回転誤差αが下記条件
α<前記表示領域の縦の長さ/前記表示デバイスの表示範囲の横の長さ
を満たすことを特徴とする
請求項6に記載の表示装置。
The rotation error α when the lens array and the display device are combined satisfies the following condition α <vertical length of the display area / horizontal length of the display range of the display device. The display device described.
前記表示デバイスは、液晶デバイス、自発光デバイス、電子ペーパーの何れかからなることを特徴とする
請求項6または請求項7に記載の表示装置。
The display device according to claim 6, wherein the display device includes any one of a liquid crystal device, a self-luminous device, and electronic paper.
1つの画像信号を複製して各前記表示領域に画像を表示する画像処理部を有することを特徴とする
請求項1から請求項8の何れか1項に記載の表示装置。
The display device according to claim 1, further comprising: an image processing unit that duplicates one image signal and displays an image in each of the display areas.
前記表示領域に表示される画像もしくは前記レンズアレイを移動させることで、各レンズから射出される光束の方向を変更させることを特徴とする
請求項1から請求項8の何れか1項に記載の表示装置。
9. The direction of a light beam emitted from each lens is changed by moving an image displayed in the display area or the lens array. 10. Display device.
前記表示領域の移動は、検出した観察者の位置に基づいて行われることを特徴とする
請求項10に記載の表示装置。
The display device according to claim 10, wherein the display area is moved based on the detected position of the observer.
タッチパネルを有することを特徴とする
請求項1から請求項11に記載の表示装置。
The display device according to claim 1, further comprising a touch panel.
前記観察者の位置もしくは距離は、カメラによって検出されることを特徴とする
請求項11または請求項12に記載の表示装置。
The display device according to claim 11, wherein the position or distance of the observer is detected by a camera.
請求項1から請求項13の何れか1項に記載の表示装置を有することを特徴とする
電子機器。
An electronic apparatus comprising the display device according to any one of claims 1 to 13.
請求項13に記載の表示装置と、
観察者を撮像可能な前記カメラを有することを特徴とする
電子機器。
A display device according to claim 13;
An electronic apparatus comprising the camera capable of imaging an observer.
観察者から見て表示面よりも遠方に虚像を表示可能とする表示部と、
前記表示部の表面に設けられ、タッチ位置に基づく位置情報を出力するタッチパネルと、を備えたことを特徴とする
表示装置。
A display unit capable of displaying a virtual image farther than the display surface as viewed from the observer;
A touch panel provided on a surface of the display unit and outputting position information based on a touch position.
観察者を撮像する撮像部と、
前記撮像部の出力に基づいて前記表示部に対する観察者の眼の位置を検出する検出処理と、
前記検出処理によって検出された前記観察者の眼の位置に基づいて、前記タッチパネルが出力する前記位置情報と表示される虚像の位置関係を特定する特定処理と、を実行可能な制御部と、を備えたことを特徴とする
請求項16に記載の表示装置。
An imaging unit for imaging the observer;
A detection process for detecting a position of an observer's eye with respect to the display unit based on an output of the imaging unit;
A control unit capable of executing, based on the position of the eye of the observer detected by the detection process, a specifying process for specifying a positional relationship between the position information output from the touch panel and a virtual image to be displayed; The display device according to claim 16, wherein the display device is provided.
前記特定処理は、予め設定された前記観察者の右眼もしくは左眼のどちらか一方の位置に基づいて前記タッチパネルが出力する前記位置情報と表示される虚像の位置関係を特定することを特徴とする
請求項17に記載の表示装置。
The specifying process specifies the positional relationship between the position information output from the touch panel and a virtual image to be displayed based on a preset position of either the right eye or the left eye of the observer. The display device according to claim 17.
前記制御部は、前記特定処理で使用する観察者の右眼もしくは左眼を設定可能とすることを特徴とする
請求項18に記載の表示装置。
The display device according to claim 18, wherein the control unit can set a right eye or a left eye of an observer used in the specifying process.
前記制御部は、前記表示部に所定のマークを表示させるとともに、前記マークの表示時において前記タッチパネルから出力される位置情報に基づいて、前記特定処理で使用する前記観察者の右眼もしくは左眼を決定する検出眼決定処理を実行可能とする
請求項18または請求項19に記載の表示装置。
The control unit displays a predetermined mark on the display unit and, based on position information output from the touch panel when the mark is displayed, the right or left eye of the observer used in the specifying process The display device according to claim 18, wherein the detection eye determination process for determining the eye is executable.
前記制御部は、前記検出処理によって検出された前記観察者の眼の位置に基づいて、前記表示部に表示する虚像の位置もしくは大きさの少なくとも一方を変更する視野調整処理を実行可能とする
請求項17から請求項20の何れか1項に記載の電子機器。
The control unit can execute a visual field adjustment process for changing at least one of a position or a size of a virtual image displayed on the display unit based on the position of the observer's eye detected by the detection process. Item 21. The electronic device according to any one of Items 17 to 20.
前記視野調整処理は、前記表示部に表示される虚像の所定領域が、前記観察者に観察可能となるように、虚像の位置もしくは大きさの少なくとも一方を変更することを特徴とする
請求項21に記載の電子機器。
The visual field adjustment process changes at least one of a position and a size of the virtual image so that a predetermined region of the virtual image displayed on the display unit can be observed by the observer. The electronic device as described in.
請求項16から請求項22の何れか1項に記載の表示装置を有することを特徴とする
電子機器。
An electronic apparatus comprising the display device according to any one of claims 16 to 22.
観察者から見て表示面よりも遠方に虚像を表示可能とする表示部と、
前記表示部の表面に設けられ、操作位置に基づく位置情報を出力するタッチパネルと、
観察者を撮像する撮像部と、を備えた表示装置にて実行可能な表示装置用プログラムにおいて、
前記撮像部の出力に基づいて前記表示部に対する観察者の眼の位置を検出する検出処理と、
前記検出処理によって検出された前記観察者の眼の位置に基づいて、前記タッチパネルが出力する前記位置情報と表示される虚像の位置関係を特定する特定処理と、を実行可能としたことを特徴とする
表示装置用プログラム。
A display unit capable of displaying a virtual image farther than the display surface as viewed from the observer;
A touch panel provided on the surface of the display unit and outputting position information based on an operation position;
In a program for a display device that can be executed by a display device including an imaging unit that images an observer,
A detection process for detecting a position of an observer's eye with respect to the display unit based on an output of the imaging unit;
Based on the position of the eye of the observer detected by the detection process, the specification process for specifying the positional relationship between the position information output from the touch panel and the virtual image to be displayed can be executed. Yes Display device program.
JP2013526016A 2012-02-07 2012-08-07 Display device Expired - Fee Related JP5496425B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013526016A JP5496425B2 (en) 2012-02-07 2012-08-07 Display device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012024025 2012-02-07
JP2012024025 2012-02-07
PCT/JP2012/070093 WO2013118328A1 (en) 2012-02-07 2012-08-07 Display, electronic device and program for display
JP2013526016A JP5496425B2 (en) 2012-02-07 2012-08-07 Display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014038343A Division JP5857082B2 (en) 2012-02-07 2014-02-28 Display device and electronic device

Publications (2)

Publication Number Publication Date
JP5496425B2 JP5496425B2 (en) 2014-05-21
JPWO2013118328A1 true JPWO2013118328A1 (en) 2015-05-11

Family

ID=48947123

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013526016A Expired - Fee Related JP5496425B2 (en) 2012-02-07 2012-08-07 Display device
JP2014038343A Expired - Fee Related JP5857082B2 (en) 2012-02-07 2014-02-28 Display device and electronic device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2014038343A Expired - Fee Related JP5857082B2 (en) 2012-02-07 2014-02-28 Display device and electronic device

Country Status (2)

Country Link
JP (2) JP5496425B2 (en)
WO (1) WO2013118328A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6061552B2 (en) * 2012-08-23 2017-01-18 キヤノン株式会社 Head-mounted image display device
JP6277816B2 (en) * 2014-03-26 2018-02-14 セイコーエプソン株式会社 projector
JP6196934B2 (en) * 2014-05-09 2017-09-13 オリンパス株式会社 Display method and display device
US9366871B2 (en) * 2014-10-24 2016-06-14 Emagin Corporation Microdisplay based immersive headset
US20170336626A1 (en) * 2014-11-07 2017-11-23 Sony Corporation Display device and display control method
JP6787344B2 (en) * 2016-01-12 2020-11-18 ソニー株式会社 Display system and electronics

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272009A (en) * 1995-03-29 1996-10-18 Terumo Corp Stereoscopic image display device
JPH10254381A (en) * 1997-03-14 1998-09-25 Sony Corp Follow-up type virtual image view display system
JPH10319342A (en) * 1997-05-15 1998-12-04 Olympus Optical Co Ltd Eye ball projection type video display device
JP2002277610A (en) * 2001-03-21 2002-09-25 Ricoh Co Ltd Method for manufacturing microlens substrate with light shielding part
JP2004168230A (en) * 2002-11-21 2004-06-17 Nissan Motor Co Ltd Display device for vehicle
JP2005301144A (en) * 2004-04-15 2005-10-27 Denso Corp Virtual image display device and program
JP2006039359A (en) * 2004-07-29 2006-02-09 Shimadzu Corp Head-part attachment type display device
JP2006126280A (en) * 2004-10-26 2006-05-18 Konica Minolta Photo Imaging Inc Transmission type video display device and transmission type video display device order system
JP2006203668A (en) * 2005-01-21 2006-08-03 Konica Minolta Photo Imaging Inc Image creation system and image creation method
JP2007140500A (en) * 2005-10-18 2007-06-07 Yamazaki Emiko Infinity view display device and infinity view planetarium device
JP2008151992A (en) * 2006-12-18 2008-07-03 Nippon Seiki Co Ltd Headup display
JP2009069364A (en) * 2007-09-12 2009-04-02 Shimadzu Corp Head mounted display device and head mounted display device system
JP2009225064A (en) * 2008-03-14 2009-10-01 Ricoh Co Ltd Image input device, authentication device, and electronic apparatus having them mounted thereon
JP2010032818A (en) * 2008-07-29 2010-02-12 National Institute Of Information & Communication Technology Lens function member array, hologram producing device, and hologram producing program
JP2010128000A (en) * 2008-11-25 2010-06-10 Toyota Motor Corp Vehicular display
JP2010262232A (en) * 2009-05-11 2010-11-18 Konica Minolta Opto Inc Apparatus for displaying video image and head-mounted display
JP2011028011A (en) * 2009-07-27 2011-02-10 Sharp Corp Video display device
JP2011170277A (en) * 2010-02-22 2011-09-01 Olympus Corp Display method, display device, optical unit, and electronic equipment
JP2012003175A (en) * 2010-06-21 2012-01-05 Noriji Ooishi Stereoscopic image display device
EP2413609A1 (en) * 2010-07-29 2012-02-01 Pantech Co., Ltd. Active type display apparatus and driving method for providing stereographic image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138755A (en) * 2003-11-07 2005-06-02 Denso Corp Device and program for displaying virtual images
JP4657331B2 (en) * 2008-08-27 2011-03-23 富士フイルム株式会社 Pointed position setting device, method and program for three-dimensional display
JP5117418B2 (en) * 2009-01-28 2013-01-16 株式会社東芝 Information processing apparatus and information processing method
JP5476910B2 (en) * 2009-10-07 2014-04-23 株式会社ニコン Image generating apparatus, image generating method, and program
JP5558094B2 (en) * 2009-10-07 2014-07-23 オリンパス株式会社 Display method, display device, optical unit, display device manufacturing method, and electronic apparatus
JP5749444B2 (en) * 2010-03-16 2015-07-15 オリンパス株式会社 Display device, electronic device, portable electronic device, mobile phone, and imaging device
JP5450791B2 (en) * 2010-03-18 2014-03-26 富士フイルム株式会社 Stereoscopic display device, stereoscopic imaging device, dominant eye determination method, dominant eye determination program and recording medium used therefor

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272009A (en) * 1995-03-29 1996-10-18 Terumo Corp Stereoscopic image display device
JPH10254381A (en) * 1997-03-14 1998-09-25 Sony Corp Follow-up type virtual image view display system
JPH10319342A (en) * 1997-05-15 1998-12-04 Olympus Optical Co Ltd Eye ball projection type video display device
JP2002277610A (en) * 2001-03-21 2002-09-25 Ricoh Co Ltd Method for manufacturing microlens substrate with light shielding part
JP2004168230A (en) * 2002-11-21 2004-06-17 Nissan Motor Co Ltd Display device for vehicle
JP2005301144A (en) * 2004-04-15 2005-10-27 Denso Corp Virtual image display device and program
JP2006039359A (en) * 2004-07-29 2006-02-09 Shimadzu Corp Head-part attachment type display device
JP2006126280A (en) * 2004-10-26 2006-05-18 Konica Minolta Photo Imaging Inc Transmission type video display device and transmission type video display device order system
JP2006203668A (en) * 2005-01-21 2006-08-03 Konica Minolta Photo Imaging Inc Image creation system and image creation method
JP2007140500A (en) * 2005-10-18 2007-06-07 Yamazaki Emiko Infinity view display device and infinity view planetarium device
JP2008151992A (en) * 2006-12-18 2008-07-03 Nippon Seiki Co Ltd Headup display
JP2009069364A (en) * 2007-09-12 2009-04-02 Shimadzu Corp Head mounted display device and head mounted display device system
JP2009225064A (en) * 2008-03-14 2009-10-01 Ricoh Co Ltd Image input device, authentication device, and electronic apparatus having them mounted thereon
JP2010032818A (en) * 2008-07-29 2010-02-12 National Institute Of Information & Communication Technology Lens function member array, hologram producing device, and hologram producing program
JP2010128000A (en) * 2008-11-25 2010-06-10 Toyota Motor Corp Vehicular display
JP2010262232A (en) * 2009-05-11 2010-11-18 Konica Minolta Opto Inc Apparatus for displaying video image and head-mounted display
JP2011028011A (en) * 2009-07-27 2011-02-10 Sharp Corp Video display device
JP2011170277A (en) * 2010-02-22 2011-09-01 Olympus Corp Display method, display device, optical unit, and electronic equipment
JP2012003175A (en) * 2010-06-21 2012-01-05 Noriji Ooishi Stereoscopic image display device
EP2413609A1 (en) * 2010-07-29 2012-02-01 Pantech Co., Ltd. Active type display apparatus and driving method for providing stereographic image

Also Published As

Publication number Publication date
JP5496425B2 (en) 2014-05-21
WO2013118328A1 (en) 2013-08-15
JP2014171220A (en) 2014-09-18
JP5857082B2 (en) 2016-02-10

Similar Documents

Publication Publication Date Title
JP5857082B2 (en) Display device and electronic device
JP6123365B2 (en) Image display system and head-mounted display device
EP3574361B1 (en) Systems and method for augmented reality ophthalmic surgical microscope projection
JP6089705B2 (en) Display device and control method of display device
JP2019091051A (en) Display device, and display method using focus display and context display
JP5694257B2 (en) Display device, display method, and program
CN116126170A (en) Display device and control device
TW201426005A (en) Virtual image display apparatus
WO2017145590A1 (en) Display device, method for driving display device, and electronic device
JP2010055266A (en) Apparatus, method and program for setting position designated in three-dimensional display
JP2010102215A (en) Display device, image processing method and computer program
KR20140097226A (en) Display device, and display control program
JP2016024751A (en) Image display device
JP2018182570A (en) Line-of-sight information sharing method and line-of-sight information sharing system
JPWO2019221105A1 (en) Display device
WO2011136213A1 (en) Display device
JP2013070227A (en) Head-mounted type display device
JP2017134399A (en) Glasses-free 3d display device without requiring interpupillary distance adjustment
KR101941880B1 (en) Focus Free Type Display Apparatus
JP6740613B2 (en) Display device, display device control method, and program
JP2015007722A (en) Image display device
JP5330623B2 (en) Display device, electronic apparatus including the display device, and projection unit
JP2008249869A (en) Head-mounted video display device
US20200218067A1 (en) Mirror Device
JP2020112717A (en) Image photographing device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140304

R150 Certificate of patent or registration of utility model

Ref document number: 5496425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees