JP6427981B2 - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP6427981B2
JP6427981B2 JP2014126922A JP2014126922A JP6427981B2 JP 6427981 B2 JP6427981 B2 JP 6427981B2 JP 2014126922 A JP2014126922 A JP 2014126922A JP 2014126922 A JP2014126922 A JP 2014126922A JP 6427981 B2 JP6427981 B2 JP 6427981B2
Authority
JP
Japan
Prior art keywords
unit
image
image display
distance
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014126922A
Other languages
Japanese (ja)
Other versions
JP2016006564A (en
Inventor
高橋 和浩
和浩 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2014126922A priority Critical patent/JP6427981B2/en
Priority to US14/743,247 priority patent/US9841844B2/en
Priority to EP15172970.4A priority patent/EP2957997B1/en
Publication of JP2016006564A publication Critical patent/JP2016006564A/en
Application granted granted Critical
Publication of JP6427981B2 publication Critical patent/JP6427981B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、画像表示装置に関し、特に、画像表示装置から指示体までの距離情報を取得する距離測定部を備えた画像表示装置に関する。   The present invention relates to an image display device, and more particularly to an image display device including a distance measuring unit that acquires distance information from an image display device to an indicator.

従来、画像表示装置から指示体までの距離情報を取得する距離測定部を備えた画像表示装置が知られている(たとえば、特許文献1参照)。   2. Description of the Related Art Conventionally, an image display device that includes a distance measurement unit that acquires distance information from an image display device to an indicator is known (see, for example, Patent Document 1).

上記特許文献1には、発光部から人物(指示体)までの距離情報を取得するタイム・オブ・フライト式距離画像センサを備えた遊具装置が開示されている。この遊具装置には、家庭用テレビジョン受像機と、タイム・オブ・フライト式距離画像センサと、アプリケーションプロセッサとが設けられている。そして、アプリケーションプロセッサは、タイム・オブ・フライト式距離画像センサから距離情報を取得して、取得した距離情報に基づいて、遊具装置(発光部)と人物(指示体)との距離の変化量と変化方向とを示す動作情報を算出するように構成されている。そして、アプリケーションプロセッサは、算出した動作情報を、家庭用テレビジョン受像機(画像表示部)に表示させる内容に反映させる制御を行うように構成されている。   Patent Document 1 discloses a playground equipment device including a time-of-flight distance image sensor that acquires distance information from a light emitting unit to a person (indicator). This playground equipment is provided with a home television receiver, a time-of-flight distance image sensor, and an application processor. Then, the application processor acquires distance information from the time-of-flight distance image sensor, and based on the acquired distance information, the amount of change in the distance between the playground equipment (light emitting unit) and the person (indicator) Operation information indicating the change direction is calculated. The application processor is configured to perform control to reflect the calculated operation information on the content displayed on the home television receiver (image display unit).

また、従来、画像表示部からの画像の光を一方の面側から入射されるとともに、入射された画像の光を他方の面側の空中に光学像として結像させる結像部を備える画像表示装置が知られている。   In addition, conventionally, an image display provided with an image forming unit that makes the image light from the image display unit incident from one surface side and forms the incident image light as an optical image in the air on the other surface side. The device is known.

従来の画像表示部と結像部とを備える画像表示装置において、画像表示装置から指示体までの距離情報を取得する場合に、従来の画像表示装置に上記特許文献1の画像表示装置から指示体までの距離情報を取得可能に構成されたタイム・オブ・フライト式距離画像センサを適用することが考えられる。この場合、画像表示装置にタイム・オブ・フライト式距離画像センサを配置して、画像表示装置から指示体(ユーザの指など)までの距離情報をタイム・オブ・フライト式距離画像センサ(距離測定部)により取得する構成が考えられる。また、指示体によるタッチ操作を受け付ける場合、光学像の位置を、指示体がタッチ操作を行ったか否かを判断するための位置(仮想タッチ画面)として、指示体がタッチ操作を行ったか否かを判断するための位置と、指示体の位置(距離測定部により取得した距離情報)とに基づいて、指示体がタッチ操作を行ったか否かを判断する制御部を設ける構成が考えられる。   In a conventional image display device including an image display unit and an image forming unit, when acquiring distance information from the image display device to the indicator, the conventional image display device is changed from the image display device of Patent Document 1 to the indicator. It is conceivable to apply a time-of-flight distance image sensor configured to be able to acquire distance information up to. In this case, a time-of-flight distance image sensor is disposed on the image display device, and distance information from the image display device to the indicator (such as a user's finger) is obtained as a time-of-flight distance image sensor (distance measurement). A configuration obtained by (1) is conceivable. Also, when accepting a touch operation by the indicator, whether or not the indicator has performed the touch operation using the position of the optical image as a position (virtual touch screen) for determining whether or not the indicator has performed the touch operation. A configuration may be considered in which a control unit is provided that determines whether or not the pointer has performed a touch operation based on the position for determining the position and the position of the pointer (distance information acquired by the distance measuring unit).

特開2011―27707号公報JP 2011-27707 A

一般的に、空間に結像される光学像は、視認範囲が狭いので、光学像全体を視認することが可能なユーザの身長(目の位置)が制限される。このため、ユーザの身長に合わせて光学像が結像される位置を移動させる必要がある。しかしながら、この場合、光学像が結像される位置が移動したことに起因して、指示体が光学像に対してタッチ操作を行ったか否かを適切に判断できない場合があるという問題点がある。   In general, since an optical image formed in space has a narrow viewing range, the height (eye position) of a user who can visually recognize the entire optical image is limited. For this reason, it is necessary to move the position where the optical image is formed in accordance with the height of the user. However, in this case, there is a problem that it may not be possible to appropriately determine whether or not the indicator has performed a touch operation on the optical image due to the movement of the position where the optical image is formed. .

この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、光学像が結像される位置が移動した場合でも、指示体が光学像に対してタッチ操作を行ったか否かを適切に判断することが可能な画像表示装置を提供することである。   The present invention has been made to solve the above-described problems, and one object of the present invention is to provide an indicator with respect to an optical image even when the position where the optical image is formed moves. An object of the present invention is to provide an image display device capable of appropriately determining whether or not a touch operation has been performed.

上記目的を達成するために、この発明の一の局面による画像表示装置は、画像を表示する画像表示部と、画像表示部により表示された画像の光が一方の面側から入射されるとともに、入射された画像の光を他方の面側の空中に画像に対応する仮想タッチ画面としての光学像を結像させる結像部とを含み、画像表示部および結像部のうちの少なくとも一方を移動させることにより、光学像を結像させる位置を移動可能に構成されている表示ユニットと、光学像を仮想的にタッチする指示体を検出する検出部を含み、光学像を介して指示体と対向するように配置され、検出部から指示体までの距離を示す距離情報を含む画像データを取得する距離画像データ取得部と、画像表示部および結像部の少なくとも一方と距離画像データ取得部との相対的な移動情報から相対移動した位置に応じて移動するように生成され、ユーザが仮想的にタッチする面として認識するための仮想的なタッチ検出面と、距離画像データ取得部により取得された画像データに含まれる距離情報とに基づいて、指示体が光学像に対してタッチ操作したか否かを判断する制御部とを備える。 In order to achieve the above object, an image display device according to one aspect of the present invention includes an image display unit that displays an image, and light of an image displayed by the image display unit is incident from one surface side. An image forming unit that forms an optical image as a virtual touch screen corresponding to the image in the air on the other surface side, and moves at least one of the image display unit and the image forming unit A display unit configured to be able to move a position where an optical image is formed, and a detection unit that detects an indicator that virtually touches the optical image, and faces the indicator via the optical image. A distance image data acquisition unit that acquires image data including distance information indicating a distance from the detection unit to the indicator, and at least one of the image display unit and the imaging unit, and the distance image data acquisition unit Relative Is generated as moving in response to the relative movement from the movement information location, and the virtual touch detection surface for a user to recognize a face touching virtually, the range image data image data acquired by the acquisition unit And a control unit that determines whether or not the indicator has touched the optical image based on the included distance information.

この発明の一の局面による画像表示装置では、上記のように、制御部を、画像表示部および結像部の少なくとも一方と距離画像データ取得部との相対的な移動情報と、距離画像データ取得部により取得された距離情報とに基づいて、指示体が光学像に対してタッチ操作したか否かを判断するように構成する。これにより、光学像が結像される位置が移動した場合でも、指示体が光学像に対してタッチ操作したか否かを判断するための位置を、移動情報により光学像が結像される位置に対応する位置に移動させることができる。その結果、光学像が結像される位置が移動した場合でも、指示体が光学像に対してタッチ操作を行ったか否かを適切に判断することができる。 In the image display device according to one aspect of the present invention, as described above, the control unit includes the relative movement information between at least one of the image display unit and the imaging unit and the distance image data acquisition unit, and the distance image data acquisition. Based on the distance information acquired by the unit, it is configured to determine whether or not the indicator has touched the optical image. As a result, even when the position where the optical image is formed moves, the position for determining whether or not the indicator has touched the optical image is the position where the optical image is formed based on the movement information. Can be moved to a position corresponding to. As a result, even when the position where the optical image is formed moves, it is possible to appropriately determine whether or not the indicator has performed a touch operation on the optical image.

上記一の局面による画像表示装置において、好ましくは、画像表示部と結像部とは、互いに相対的に移動可能に構成されており、制御部は、画像表示部と結像部との相対的な移動情報から生成されるタッチ検出面と、距離情報とに基づいて、指示体が光学像に対してタッチ操作したか否かを判断するように構成されている。このように構成すれば、画像表示装置の全体を移動させることなく、光学像の位置を移動させることができるので、画像表示装置(光学像の位置を移動させるための機構部)が大型化するのを抑制しながら、ユーザが視認しやすい高さ位置に光学像を移動させることができる。 In the image display device according to the above aspect, preferably, the image display unit and the image forming unit are configured to be movable relative to each other, and the control unit is configured such that the image display unit and the image forming unit are relative to each other. It is configured to determine whether or not the indicator has touched the optical image based on the touch detection surface generated from the movement information and the distance information. If comprised in this way, since the position of an optical image can be moved, without moving the whole image display apparatus, an image display apparatus (mechanism part for moving the position of an optical image) will enlarge. The optical image can be moved to a height position that is easy for the user to visually recognize.

この場合、好ましくは、画像表示部は、結像部に対して所定の傾斜角を有するように配置されているとともに、所定の傾斜角を維持しながら、結像部に対して移動可能に構成されており、制御部は、結像部に対して所定の傾斜角を維持しながら移動した画像表示部の移動情報から生成されるタッチ検出面と、距離情報とに基づいて指示体が光学像に対してタッチ操作したか否かを判断するように構成されている。このように構成すれば、ユーザと光学像との距離を、ユーザが視認しやすい距離に、容易に変更することができる。 In this case, preferably, the image display unit is arranged to have a predetermined tilt angle with respect to the image forming unit, and is configured to be movable with respect to the image forming unit while maintaining the predetermined tilt angle. The control unit is configured to display the optical image on the basis of the touch detection surface generated from the movement information of the image display unit moved while maintaining a predetermined inclination angle with respect to the imaging unit, and the distance information. It is configured to determine whether or not a touch operation has been performed. If comprised in this way, the distance of a user and an optical image can be easily changed into the distance which a user can visually recognize easily.

上記所定の傾斜角を維持しながら結像部に対して移動可能に構成されている画像表示部を備える画像表示装置において、好ましくは、結像部は、結像部の同一平面上に沿った所定の回動軸を回動中心として、回動可能に構成されており、制御部は、結像部の同一平面上に沿った所定の回動軸を回動中心として回動された結像部の回動情報から生成されるタッチ検出面と、距離情報とに基づいて、指示体が光学像に対してタッチ操作したか否かを判断するように構成されている。このように構成すれば、光学像の傾斜角を、ユーザが視認しやすい角度に容易に変更することができる。 In the image display device including the image display unit configured to be movable with respect to the imaging unit while maintaining the predetermined tilt angle, preferably, the imaging unit is along the same plane of the imaging unit. The imaging unit is configured to be rotatable about a predetermined rotation axis as a rotation center, and the control unit rotates the image about the predetermined rotation axis along the same plane of the imaging unit as the rotation center. Based on the touch detection surface generated from the rotation information of the unit and the distance information, it is configured to determine whether or not the indicator has touched the optical image. If comprised in this way, the inclination-angle of an optical image can be easily changed into the angle which a user can visually recognize easily.

上記画像表示部と結像部とが互いに相対的に移動可能に構成されている画像表示装置において、好ましくは、結像部は、水平面に対して平行になるように配置されているとともに、上下方向に移動可能に構成されており、制御部は、上下方向に移動した結像部の移動情報から生成されるタッチ検出面と、距離情報とに基づいて、指示体が光学像に対してタッチ操作したか否かを判断するように構成されている。このように構成すれば、光学像の高さを、ユーザが視認しやすい高さ(ユーザの身長に応じた高さ)に、容易に変更することができる。
In the image display device in which the image display unit and the image forming unit are configured to be movable relative to each other, preferably, the image forming unit is arranged to be parallel to the horizontal plane and The control unit is configured to be movable in the direction, and the control unit touches the optical image based on the touch detection surface generated from the movement information of the imaging unit moved in the vertical direction and the distance information. It is configured to determine whether or not an operation has been performed. If comprised in this way, the height of an optical image can be easily changed to the height (height according to a user's height) which a user can visually recognize easily.

上記一の局面による画像表示装置において、好ましくは、距離画像データ取得部と表示ユニットとは、一体的に移動可能に構成されている。ここで、距離画像データ取得部と表示ユニットとを一体的に移動させて光学像の位置を移動させる場合は、距離画像データ取得部と表示ユニットとの相対的な位置関係は変化しない。このため、上記のように、距離画像データ取得部と表示ユニットとを、一体的に移動させて光学像の位置を移動させることにより、制御部が、距離画像データ取得部と表示ユニットとの相対的な位置情報を取得することなく、指示体が光学像に対してタッチ操作を行ったか否かを適切に判断することができる。 In the image display device according to the above aspect, the distance image data acquisition unit and the display unit are preferably configured to be movable together. Here, if the distance image data acquisition unit and the display unit is moved integrally moving the position of the optical image, the relative positional relationship between the distance image data acquisition unit and the display unit does not change. For this reason, as described above, the distance image data acquisition unit and the display unit are moved together to move the position of the optical image, so that the control unit can move the distance image data acquisition unit and the display unit relative to each other. Thus, it is possible to appropriately determine whether or not the indicator has performed a touch operation on the optical image without acquiring specific position information.

上記一の局面による画像表示装置において、好ましくは、検出部は、光を発する発光部と、発光部から発せられ指示体により反射された光を受光する受光部とを含み、距離画像データ取得部は、発光部が光を発する時点から、受光部が発光部から発せられ指示体により反射された光を受光する時点までの経過時間に基づいて、検出部から指示体までの距離情報を取得するように構成されている。このように構成すれば、受光部が発光部から発せられ指示体により反射された光を受光する時点までの経過時間を測定することにより、容易に、検出部から指示体までの距離情報を取得することができる。 In the image display device according to the above aspect, the detection unit preferably includes a light emitting unit that emits light and a light receiving unit that receives the light emitted from the light emitting unit and reflected by the indicator, and the distance image data acquisition unit Obtains distance information from the detection unit to the indicator based on the elapsed time from the time when the light emitting unit emits light to the time when the light receiving unit receives light emitted from the light emitting unit and reflected by the indicator. It is configured as follows. If comprised in this way, the distance information from a detection part to an indicator will be easily acquired by measuring the elapsed time until the light-receiving part receives the light emitted from the light emission part and reflected by the indicator. can do.

本発明によれば、上記のように、光学像が結像される位置が移動した場合でも、指示体が光学像に対してタッチ操作を行ったか否かを適切に判断することができる。   According to the present invention, as described above, even when the position where the optical image is formed moves, it is possible to appropriately determine whether or not the indicator has performed a touch operation on the optical image.

本発明の第1実施形態による画像表示装置の全体構成を示した断面図(1)である。It is sectional drawing (1) which showed the whole structure of the image display apparatus by 1st Embodiment of this invention. 本発明の第1実施形態による画像表示装置の全体構成を示した断面図(2)である。It is sectional drawing (2) which showed the whole structure of the image display apparatus by 1st Embodiment of this invention. 本発明の第1実施形態による画像表示装置の全体構成を示したブロック図である。1 is a block diagram illustrating an overall configuration of an image display device according to a first embodiment of the present invention. 本発明の第1実施形態による距離画像データおよびタッチ検出面を説明するための図である。It is a figure for demonstrating the distance image data and touch detection surface by 1st Embodiment of this invention. 本発明の第1実施形態によるタッチ操作検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the touch operation detection process by 1st Embodiment of this invention. 本発明の第2実施形態による画像表示装置の全体構成を示した断面図である。It is sectional drawing which showed the whole structure of the image display apparatus by 2nd Embodiment of this invention. 本発明の第2実施形態による画像表示装置の全体構成を示したブロック図である。It is the block diagram which showed the whole structure of the image display apparatus by 2nd Embodiment of this invention. 本発明の第3実施形態による画像表示装置の全体構成を示した断面図である。It is sectional drawing which showed the whole structure of the image display apparatus by 3rd Embodiment of this invention. 本発明の第3実施形態による画像表示装置の全体構成を示したブロック図である。It is the block diagram which showed the whole structure of the image display apparatus by 3rd Embodiment of this invention.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
図1〜図4を参照して、本発明の第1実施形態による画像表示装置100の構成について説明する。
(First embodiment)
With reference to FIGS. 1-4, the structure of the image display apparatus 100 by 1st Embodiment of this invention is demonstrated.

本発明の第1実施形態による画像表示装置100では、図1に示すように、画像表示装置本体1は、地面(床など)に設置されている。   In the image display device 100 according to the first embodiment of the present invention, as shown in FIG. 1, the image display device main body 1 is installed on the ground (floor or the like).

また、画像表示装置100には、表示ユニット2が設けられている。表示ユニット2は、表示ユニット筐体部21と、回動機構部22とを含む。表示ユニット筐体部21は、画像表示装置本体1の内部に配置されている。また、回動機構部22は、画像表示装置本体1に取付けられており、表示ユニット筐体部21を回動可能に構成されている。   The image display apparatus 100 is provided with a display unit 2. The display unit 2 includes a display unit housing unit 21 and a rotation mechanism unit 22. The display unit housing part 21 is disposed inside the image display apparatus main body 1. Moreover, the rotation mechanism part 22 is attached to the image display apparatus main body 1, and is comprised so that the display unit housing | casing part 21 can be rotated.

また、画像表示装置100には、反射素子集合基板3が設けられている。反射素子集合基板3は、平板形状に形成されている。また、反射素子集合基板3は、表示ユニット筐体部21の上方側(矢印Z1方向側)に配置されているとともに、表示ユニット筐体部21の矢印Y1方向側において、回動機構部22に取付けられている。なお、反射素子集合基板3は、本発明の「結像部」の一例である。   Further, the image display device 100 is provided with a reflective element aggregate substrate 3. The reflective element aggregate substrate 3 is formed in a flat plate shape. The reflective element aggregate substrate 3 is arranged on the upper side (arrow Z1 direction side) of the display unit housing part 21 and is arranged on the rotation mechanism part 22 on the arrow Y1 direction side of the display unit housing part 21. Installed. The reflective element aggregate substrate 3 is an example of the “imaging unit” in the present invention.

また、画像表示装置100には、画像表示部4が設けられている。画像表示部4は、表示ユニット筐体部21の内部に配置されている。   The image display device 100 is provided with an image display unit 4. The image display unit 4 is disposed inside the display unit housing unit 21.

また、画像表示装置100には、距離測定部5が設けられている。距離測定部5は、表示ユニット2の上方側(矢印Z1方向側)に配置されているとともに、画像表示装置本体1に取り付けられている。   In addition, the image display device 100 is provided with a distance measuring unit 5. The distance measuring unit 5 is disposed on the upper side (arrow Z1 direction side) of the display unit 2 and is attached to the image display apparatus main body 1.

また、画像表示装置100には、本体側制御部6が設けられている。本体側制御部6は、画像表示装置本体1の内部に配置されており、表示ユニット2および距離測定部5に接続されている。なお、本体側制御部6は、本発明の「制御部」の一例である。   The image display device 100 is provided with a main body side control unit 6. The main body side control unit 6 is disposed inside the image display apparatus main body 1 and is connected to the display unit 2 and the distance measuring unit 5. The main body side control unit 6 is an example of the “control unit” in the present invention.

また、画像表示装置100には、操作部7が設けられている。操作部7は、画像表示装置本体1の上面(矢印Z1方向側の面)で、かつ矢印Y1方向側(ユーザが位置する側)に取り付けられている。そして、操作部7は、ユーザからの操作を受け付け可能に構成されている。具体的には、操作部7には、複数の操作ボタン(図示せず)が設けられている。そして、操作部7は、本体側制御部6と接続されており、ユーザによる操作ボタンの操作内容を、本体側制御部6に伝達するように構成されている。   The image display device 100 is provided with an operation unit 7. The operation unit 7 is attached to the upper surface (the surface on the arrow Z1 direction side) of the image display device main body 1 and the arrow Y1 direction side (the side on which the user is located). And the operation part 7 is comprised so that the operation from a user can be received. Specifically, the operation unit 7 is provided with a plurality of operation buttons (not shown). The operation unit 7 is connected to the main body side control unit 6 and is configured to transmit the operation contents of the operation buttons by the user to the main body side control unit 6.

ここで、第1実施形態では、図1に示すように、反射素子集合基板3は、反射素子集合基板3の同一平面上に沿った回動軸C1を回動中心として、表示ユニット筐体部21と一体的に回動可能に構成されている。   Here, in the first embodiment, as shown in FIG. 1, the reflective element assembly substrate 3 has a display unit housing section with the rotational axis C1 along the same plane of the reflective element assembly substrate 3 as the rotational center. 21 is configured to be rotatable integrally with the main body 21.

具体的には、反射素子集合基板3が取り付けられている回動機構部22の近傍には、回動駆動部23が設けられている。回動駆動部23は、モータなどより構成されており、本体側制御部6からの指令に基づいて、回動機構部22を、反射素子集合基板3の同一平面上に沿った回動軸C1を回動中心として、YZ平面上で矢印A1方向(または矢印A1方向と逆方向)に回動するように構成されている。そして、回動機構部22が矢印A1方向に回動することにより、回動機構部22に取付けられている反射素子集合基板3が(表示ユニット筐体部21と一体的に)、矢印A1方向に回動するように構成されている。   Specifically, a rotation drive unit 23 is provided in the vicinity of the rotation mechanism unit 22 to which the reflective element assembly substrate 3 is attached. The rotation drive unit 23 is configured by a motor or the like, and based on a command from the main body side control unit 6, the rotation mechanism unit 22 moves the rotation axis C <b> 1 along the same plane of the reflective element assembly substrate 3. Is configured to rotate in the direction of arrow A1 (or the direction opposite to the direction of arrow A1) on the YZ plane. Then, when the turning mechanism portion 22 is turned in the arrow A1 direction, the reflective element assembly substrate 3 attached to the turning mechanism portion 22 (integrated with the display unit housing portion 21) is moved in the arrow A1 direction. It is comprised so that it may rotate.

また、回動機構部22の近傍には、回動変位検出部24が設けられている。回動変位検出部24は、ロータリエンコーダなどを含み、回動駆動部23により回動機構部22が回動された回動角度の情報を取得可能に構成されている。そして、回動変位検出部24は、本体側制御部6に接続されており、取得した回動機構部22の回動角度の情報を本体側制御部6に伝達するように構成されている。なお、回動角度の情報は、本発明の「移動情報」の一例である。   Further, a rotation displacement detection unit 24 is provided in the vicinity of the rotation mechanism unit 22. The rotation displacement detection unit 24 includes a rotary encoder and the like, and is configured to be able to acquire information on a rotation angle at which the rotation mechanism unit 22 is rotated by the rotation drive unit 23. The rotation displacement detection unit 24 is connected to the main body side control unit 6 and is configured to transmit the acquired information on the rotation angle of the rotation mechanism unit 22 to the main body side control unit 6. The rotation angle information is an example of the “movement information” in the present invention.

ここで、第1実施形態では、図2に示すように、画像表示部4は、反射素子集合基板3に対して傾斜角Bを有するように配置されているとともに、傾斜角Bを維持しながら、反射素子集合基板3に対して移動可能に構成されている。   Here, in the first embodiment, as shown in FIG. 2, the image display unit 4 is disposed so as to have an inclination angle B with respect to the reflective element aggregate substrate 3, while maintaining the inclination angle B. The reflection element assembly substrate 3 is configured to be movable.

具体的には、画像表示部4には、液晶パネル41が設けられている。液晶パネル41は、反射素子集合基板3の下側(矢印Z2方向側)に配置されており、反射素子集合基板3に対して、傾斜角Bを有するように配置されている。また、液晶パネル41は、画像を表示するように構成されており、反射素子集合基板3の下面31に向かって、画像の光を照射するように配置されている。なお、下面31は、本発明の「一方の面」の一例である。   Specifically, the image display unit 4 is provided with a liquid crystal panel 41. The liquid crystal panel 41 is disposed on the lower side (arrow Z2 direction side) of the reflective element assembly substrate 3 and is disposed so as to have an inclination angle B with respect to the reflective element assembly substrate 3. The liquid crystal panel 41 is configured to display an image, and is arranged to irradiate the image light toward the lower surface 31 of the reflective element assembly substrate 3. The lower surface 31 is an example of “one surface” in the present invention.

そして、画像表示部4には、直動機構部42および直動駆動部43が設けられている。直動機構部42は、液晶パネル41を支持するとともに、表示ユニット筐体部21に取付けられている。また、直動駆動部43は、モータなどにより構成されており、本体側制御部6の指令に基づいて、駆動するように構成されている。そして、直動駆動部43は、直動機構部42に接続されており、直動駆動部43が駆動することによって、直動機構部42に取り付けられている液晶パネル41を矢印D1方向に傾斜角Bを維持しながら移動させるように構成されている。   The image display unit 4 is provided with a linear motion mechanism unit 42 and a linear motion drive unit 43. The linear motion mechanism portion 42 supports the liquid crystal panel 41 and is attached to the display unit housing portion 21. The linear motion drive unit 43 is configured by a motor or the like, and is configured to be driven based on a command from the main body side control unit 6. The linear motion drive unit 43 is connected to the linear motion mechanism unit 42, and when the linear motion drive unit 43 is driven, the liquid crystal panel 41 attached to the linear motion mechanism unit 42 is tilted in the arrow D1 direction. It is configured to move while maintaining the corner B.

より具体的には、液晶パネル41には、直動機構部42の台形ネジを有する軸部42aを貫通させるとともに螺合させることが可能に構成された穴部(図示せず)が設けられている。そして、軸部42aが直動駆動部43により軸回りに回動されることにより、液晶パネル41を矢印D1方向に移動させるように構成されている。すなわち、直動機構部42および直動駆動部43は、リニアアクチュエータとして駆動されるように構成されている。   More specifically, the liquid crystal panel 41 is provided with a hole portion (not shown) configured to allow the shaft portion 42a having a trapezoidal screw of the linear motion mechanism portion 42 to pass through and to be screwed. Yes. The shaft portion 42a is rotated about the axis by the linear motion drive portion 43, so that the liquid crystal panel 41 is moved in the direction of the arrow D1. That is, the linear motion mechanism unit 42 and the linear motion drive unit 43 are configured to be driven as linear actuators.

また、直動機構部42の近傍には、直動変位検出部44が設けられている。直動変位検出部44は、直動駆動部43により直動機構部42が移動された移動距離の情報を取得可能に構成されている。すなわち、直動機構部42が移動された移動距離の情報は、画像表示部4と反射素子集合基板3との相対的な移動情報として表される。そして、直動変位検出部44は、本体側制御部6に接続されており、取得した直動機構部42の移動距離の情報を本体側制御部6に伝達するように構成されている。なお、移動距離の情報は、本発明の「移動情報」の一例である。   Further, a linear displacement detector 44 is provided in the vicinity of the linear motion mechanism 42. The linear motion displacement detection unit 44 is configured to be able to acquire information on the movement distance that the linear motion mechanism unit 42 has been moved by the linear motion drive unit 43. That is, the information on the movement distance by which the linear motion mechanism unit 42 is moved is expressed as relative movement information between the image display unit 4 and the reflective element aggregate substrate 3. The linear motion displacement detection unit 44 is connected to the main body side control unit 6 and is configured to transmit the acquired information on the movement distance of the linear motion mechanism unit 42 to the main body side control unit 6. The movement distance information is an example of the “movement information” in the present invention.

ここで、第1実施形態では、図2に示すように、反射素子集合基板3は、液晶パネル41により表示された画像の光が下面31から入射されるとともに、入射された画像の光を上面32側(矢印Z1方向側)の空中に入射された画像に対応する光学像Eとして結像させるように構成されている。また、光学像Eは、後述するように、距離測定部5および本体側制御部6などにより、仮想的にユーザのタッチ操作を受け付ける仮想タッチ画面として構成されている。なお、上面32は、本発明の「他方の面」の一例である。   Here, in the first embodiment, as shown in FIG. 2, the reflective element assembly substrate 3 is configured such that the image light displayed by the liquid crystal panel 41 is incident from the lower surface 31 and the incident image light is incident on the upper surface. It is configured to form an optical image E corresponding to an image incident in the air on the 32 side (arrow Z1 direction side). Moreover, the optical image E is comprised as a virtual touch screen which receives a user's touch operation virtually by the distance measurement part 5, the main body side control part 6, etc. so that it may mention later. The upper surface 32 is an example of the “other surface” in the present invention.

具体的には、反射素子集合基板3は、XY平面に対して平行な平板形状に形成されている。そして、反射素子集合基板3は、上面32から下面31に向かって貫くように設けられた、複数の貫通孔(図示せず)が形成されており、この複数の貫通孔の内壁面が鏡面として形成されている。そして、反射素子集合基板3では、液晶パネル41から複数の貫通孔に入射した光が各々の鏡面により反射されて、光の進行方向を変えながら反射素子集合基板3の下面31側から上面32側に通過するように構成されている。そして、反射素子集合基板3は、上面32側から出射した光が反射素子集合基板3に対して、液晶パネル41の面対称となる位置に、液晶パネル41の画像に対応する光学像Eとして結像するように構成されている。すなわち、反射素子集合基板3は、上面32側(矢印Z1方向側)に、傾斜角Bと等しい大きさの傾斜角を有する面上に、光学像Eを結像するように構成されている。   Specifically, the reflective element assembly substrate 3 is formed in a flat plate shape parallel to the XY plane. The reflective element assembly substrate 3 is formed with a plurality of through holes (not shown) provided so as to penetrate from the upper surface 32 toward the lower surface 31, and the inner wall surfaces of the plurality of through holes serve as mirror surfaces. Is formed. In the reflective element aggregate substrate 3, light incident on the plurality of through holes from the liquid crystal panel 41 is reflected by each mirror surface, and the lower surface 31 side to the upper surface 32 side of the reflective element aggregate substrate 3 while changing the traveling direction of the light. It is configured to pass through. The reflective element aggregate substrate 3 is coupled as an optical image E corresponding to the image of the liquid crystal panel 41 at a position where the light emitted from the upper surface 32 side is symmetrical with respect to the reflective element aggregate substrate 3. It is configured to image. That is, the reflective element aggregate substrate 3 is configured to form the optical image E on the surface having an inclination angle equal to the inclination angle B on the upper surface 32 side (arrow Z1 direction side).

ここで、第1実施形態では、図1に示すように、距離測定部5には、検出部51と、距離測定部側制御部52とが設けられている。そして、検出部51は、光を発する赤外光源51aと、赤外光源51aから発せられ指示体(指F)により反射された光を受光するCCD(Charge Coupled Device)カメラ51bとを含む。なお、赤外光源51aは、本発明の「発光部」の一例である。また、CCDカメラ51bは、本発明の「受光部」の一例である。   Here, in the first embodiment, as shown in FIG. 1, the distance measurement unit 5 is provided with a detection unit 51 and a distance measurement unit side control unit 52. The detection unit 51 includes an infrared light source 51a that emits light and a CCD (Charge Coupled Device) camera 51b that receives light emitted from the infrared light source 51a and reflected by the indicator (finger F). The infrared light source 51a is an example of the “light emitting unit” in the present invention. The CCD camera 51b is an example of the “light receiving unit” in the present invention.

また、第1実施形態では、図4に示すように、距離測定部側制御部52は、赤外光源51aが光を発する時点から、CCDカメラ51bが赤外光源51aから発せられ指示体(指F)により反射された光を受光する時点までの経過時間に基づいて、検出部51から指Fまでの距離画像データを取得するように構成されている。そして、距離測定部側制御部52は、本体側制御部6に接続されており、取得した距離画像データを本体側制御部6に伝達するように構成されている。また、距離画像データは、本発明の「距離情報」の一例である。   Further, in the first embodiment, as shown in FIG. 4, the distance measuring unit side control unit 52 starts the CCD camera 51b from the infrared light source 51a from the time when the infrared light source 51a emits light. The distance image data from the detection unit 51 to the finger F is acquired based on the elapsed time until the light reflected by F) is received. The distance measurement unit side control unit 52 is connected to the main body side control unit 6 and is configured to transmit the acquired distance image data to the main body side control unit 6. The distance image data is an example of “distance information” in the present invention.

具体的には、図1に示すように、赤外光源51aは、距離測定部側制御部52の指令に基づいて、表示ユニット2の上方側(矢印Z1方向側)で、かつ、ユーザに向かって(矢印Y1方向に)赤外光を照射するように構成されている。   Specifically, as shown in FIG. 1, the infrared light source 51 a is on the upper side of the display unit 2 (arrow Z <b> 1 direction side) and toward the user, based on a command from the distance measurement unit side control unit 52. (In the direction of arrow Y1) is configured to irradiate infrared light.

そして、図3に示すように、距離測定部側制御部52には、光源制御部52aおよび検出制御部52bが設けられている。検出制御部52bは、本体側制御部6からの制御信号を取得するように構成されており、取得した制御信号を光源制御部52aに伝達するように構成されている。そして、光源制御部52aは、伝達された制御信号に基づいて、赤外光源51aを駆動させるように構成されている。   As shown in FIG. 3, the distance measuring unit side control unit 52 is provided with a light source control unit 52a and a detection control unit 52b. The detection control unit 52b is configured to acquire a control signal from the main body side control unit 6, and is configured to transmit the acquired control signal to the light source control unit 52a. And the light source control part 52a is comprised so that the infrared light source 51a may be driven based on the transmitted control signal.

また、図1および図2に示すように、CCDカメラ51bは、赤外光源51aから照射され、反射された光を受光可能に構成されている。そして、CCDカメラ51bは、表示ユニット2の上方側(矢印Z1方向側)の撮像領域Gにおいて、赤外光源51aから照射され、反射された光を画像として撮像するように構成されている。そして、CCDカメラ51bは、取得した撮像データを、距離測定部側制御部52に伝達するように構成されている。   As shown in FIGS. 1 and 2, the CCD camera 51b is configured to receive light reflected and reflected from the infrared light source 51a. The CCD camera 51b is configured to capture the reflected light as an image from the infrared light source 51a in the imaging region G above the display unit 2 (arrow Z1 direction side). The CCD camera 51b is configured to transmit the acquired imaging data to the distance measuring unit side control unit 52.

そして、図3に示すように、距離測定部側制御部52には、信号集積部52cと、信号演算部52dと、画像生成部52eとが設けられている。信号集積部52cは、CCDカメラ51bから撮像データを取得して、撮像データを集積するように構成されている。そして、信号演算部52dは、信号集積部52cにより集積された撮像データと、赤外光源51aが赤外光を発する時点から、CCDカメラ51bが赤外光源51aから発せられ指示体(指F)などにより反射された光を受光する時点までの経過時間の情報を取得して、距離測定部5から指示体(指F)までの距離を演算するように構成されている。そして、画像生成部52eは、撮像データと、演算された距離のデータとに基づいて、距離の情報を有する撮像画像のデータである距離画像データ(図4参照)を生成するように構成されている。たとえば、距離画像データは、2次元の画像の画素ごとに距離のデータを含むように構成される。そして、画像生成部52eは、本体側制御部6と接続されており、生成した距離画像データを本体側制御部6に伝達するように構成されている。   As shown in FIG. 3, the distance measurement unit side control unit 52 includes a signal integration unit 52c, a signal calculation unit 52d, and an image generation unit 52e. The signal accumulation unit 52c is configured to acquire imaging data from the CCD camera 51b and accumulate imaging data. Then, the signal calculation unit 52d is configured such that the CCD camera 51b is emitted from the infrared light source 51a and the indicator (finger F) from the time when the infrared light source 51a emits infrared light and the imaging data accumulated by the signal accumulation unit 52c. The information of the elapsed time until the time of receiving the light reflected by, for example, is acquired, and the distance from the distance measuring unit 5 to the indicator (finger F) is calculated. The image generation unit 52e is configured to generate distance image data (see FIG. 4) that is data of a captured image having distance information based on the captured data and the calculated distance data. Yes. For example, the distance image data is configured to include distance data for each pixel of a two-dimensional image. The image generation unit 52 e is connected to the main body side control unit 6 and is configured to transmit the generated distance image data to the main body side control unit 6.

そして、図3に示すように、本体側制御部6には、制御部61が設けられている。制御部61は、画像表示装置100の全体の制御を行うように構成されている。たとえば、制御部61は、液晶パネル41に表示する画像を出力する制御と、距離測定部5に距離画像データを取得するための制御信号を出力する制御と、操作部7からの操作情報を取得する制御とを行うように構成されている。   As shown in FIG. 3, the main body side control unit 6 is provided with a control unit 61. The control unit 61 is configured to perform overall control of the image display apparatus 100. For example, the control unit 61 obtains control information for outputting an image to be displayed on the liquid crystal panel 41, control for outputting a control signal for obtaining distance image data to the distance measurement unit 5, and operation information from the operation unit 7. And control to perform.

また、操作部7からの操作情報は、ユーザによる画像表示部4の移動方向および移動距離を示す操作情報、および、ユーザによる表示ユニット2の移動方向および移動距離を示す操作情報などを含む。   The operation information from the operation unit 7 includes operation information indicating the movement direction and movement distance of the image display unit 4 by the user, operation information indicating the movement direction and movement distance of the display unit 2 by the user, and the like.

また、本体側制御部6には、直動制御部62が設けられている。直動制御部62は、制御部61が取得した操作情報に基づいて、液晶パネル41を移動させるための制御信号を、直動駆動部43に伝達するように構成されている。   The main body side control unit 6 is provided with a linear motion control unit 62. The linear motion control unit 62 is configured to transmit a control signal for moving the liquid crystal panel 41 to the linear motion drive unit 43 based on the operation information acquired by the control unit 61.

また、本体側制御部6には、回動制御部63が設けられている。回動制御部63は、制御部61が取得した操作情報に基づいて、表示ユニット2を移動させるための制御信号を、回動駆動部23に伝達するように構成されている。   Further, the main body side control unit 6 is provided with a rotation control unit 63. The rotation control unit 63 is configured to transmit a control signal for moving the display unit 2 to the rotation drive unit 23 based on the operation information acquired by the control unit 61.

また、本体側制御部6には、タッチ検出面生成部64が設けられている。タッチ検出面生成部64は、図4に示すように、回動変位検出部24および直動変位検出部44から移動情報を取得して、タッチ検出面H1(およびH2)を生成するように構成されている。具体的には、タッチ検出面H1(およびH2)とは、本体側制御部6が、検出部51から所定の距離を有する面上に結像される光学像Eに対応する位置をユーザが仮想的にタッチする面として認識するための仮想的な検出面である。   The main body side control unit 6 is provided with a touch detection surface generation unit 64. As shown in FIG. 4, the touch detection surface generation unit 64 is configured to acquire movement information from the rotational displacement detection unit 24 and the linear movement displacement detection unit 44 and generate the touch detection surface H1 (and H2). Has been. Specifically, the touch detection surface H <b> 1 (and H <b> 2) refers to the position where the main body side control unit 6 corresponds to the optical image E formed on a surface having a predetermined distance from the detection unit 51. This is a virtual detection surface for recognizing as a surface to be touched.

また、図3に示すように、本体側制御部6には、タッチ検出面記憶部65が設けられている。タッチ検出面記憶部65は、タッチ検出面生成部64が生成したタッチ検出面H1(およびH2)の情報を記憶するように構成されている。   As shown in FIG. 3, the main body side control unit 6 is provided with a touch detection surface storage unit 65. The touch detection surface storage unit 65 is configured to store information on the touch detection surface H1 (and H2) generated by the touch detection surface generation unit 64.

また、本体側制御部6には、画像記憶部66が設けられている。画像記憶部66は、距離測定部5から距離画像データを取得して、取得した距離画像データを記憶するように構成されている。   Further, the main body side control unit 6 is provided with an image storage unit 66. The image storage unit 66 is configured to acquire distance image data from the distance measurement unit 5 and store the acquired distance image data.

また、本体側制御部6には、タッチ操作判断部67が設けられている。タッチ操作判断部67は、タッチ検出面記憶部65に記憶されているタッチ検出面H1(およびH2)のデータを読み出すとともに、画像記憶部66に記憶されている距離画像データを読み出すように構成されている。   The main body side control unit 6 is provided with a touch operation determination unit 67. The touch operation determination unit 67 is configured to read the data of the touch detection surface H1 (and H2) stored in the touch detection surface storage unit 65 and to read the distance image data stored in the image storage unit 66. ing.

そして、タッチ操作判断部67は、タッチ検出面H1(およびH2)の近傍に指Fが配置されているか否かを判断することによって、指Fが光学像Eに対してタッチ操作したか否かを判断するように構成されている。すなわち、タッチ操作判断部67は、指Fがタッチ検出面H1(およびH2)の近傍に配置されている場合(タッチ検出面H1(およびH2)から所定の距離の範囲以内の場合)には、タッチ操作されたと判断するとともに、タッチ操作された位置の座標情報を、制御部61に伝達するように構成されている。一方、タッチ操作判断部67は、指Fがタッチ検出面H1(およびH2)の近傍に配置されていない場合には、タッチ操作されていないと判断するとともに、タッチ操作されていないことを示す信号を、制御部61に伝達するように構成されている。   Then, the touch operation determination unit 67 determines whether or not the finger F performs a touch operation on the optical image E by determining whether or not the finger F is disposed in the vicinity of the touch detection surface H1 (and H2). Is configured to determine. That is, when the finger F is arranged in the vicinity of the touch detection surface H1 (and H2) (when it is within a predetermined distance from the touch detection surface H1 (and H2)), the touch operation determination unit 67 The control unit 61 is configured to determine that the touch operation has been performed and transmit the coordinate information of the touched position to the control unit 61. On the other hand, when the finger F is not arranged in the vicinity of the touch detection surface H1 (and H2), the touch operation determination unit 67 determines that the touch operation is not performed and also indicates that the touch operation is not performed. Is transmitted to the control unit 61.

また、制御部61は、タッチ操作判断部67からタッチ操作された位置の座標情報、または、タッチ操作されていないことを示す信号を取得するように構成されている。   Further, the control unit 61 is configured to acquire coordinate information of a position where the touch operation is performed from the touch operation determination unit 67 or a signal indicating that the touch operation is not performed.

次に、図5を参照して、第1実施形態における画像表示装置100のタッチ操作検出処理フローについて説明する。なお、画像表示装置100の処理は、本体側制御部6により行われる。   Next, a touch operation detection process flow of the image display device 100 according to the first embodiment will be described with reference to FIG. The processing of the image display device 100 is performed by the main body side control unit 6.

第1実施形態では、反射素子集合基板3に対して所定の傾斜角Bを維持しながら移動した画像表示部4の移動情報(移動距離の情報)と、回動中心C1で回動された反射素子集合基板3(表示ユニット2)の回動情報(回動角度の情報)と、距離測定部5により取得された距離情報(距離画像データ)とに基づいて、指Fが光学像Eに対してタッチ操作したか否かが判断される。以下、具体的に説明する。   In the first embodiment, the movement information (movement distance information) of the image display unit 4 moved while maintaining a predetermined inclination angle B with respect to the reflection element assembly substrate 3, and the reflection rotated at the rotation center C1. On the basis of the rotation information (rotation angle information) of the element assembly substrate 3 (display unit 2) and the distance information (distance image data) acquired by the distance measurement unit 5, the finger F corresponds to the optical image E. It is then determined whether or not a touch operation has been performed. This will be specifically described below.

まず、ステップS1において、操作部7からユーザの操作情報を取得したか否かが判断される。操作部7からユーザの操作情報を取得した場合には、ステップS2に進み、操作部7からユーザの操作情報を取得しない場合には、ステップS6にすすむ。   First, in step S <b> 1, it is determined whether user operation information has been acquired from the operation unit 7. If the user operation information is acquired from the operation unit 7, the process proceeds to step S2. If the user operation information is not acquired from the operation unit 7, the process proceeds to step S6.

そして、ステップS2において、反射素子集合基板3または液晶パネル41の移動が行われる。すなわち、ステップS1において、操作部7から取得したユーザの操作情報に基づいて、回動駆動部23または直動駆動部43が駆動され、反射素子集合基板3の回動(表示ユニット2の回動)(図1参照)または液晶パネル41の移動(図2参照)が行われる。   In step S2, the reflective element aggregate substrate 3 or the liquid crystal panel 41 is moved. That is, in step S1, based on the user operation information acquired from the operation unit 7, the rotation drive unit 23 or the linear motion drive unit 43 is driven, and the reflection element assembly substrate 3 is rotated (the display unit 2 is rotated). ) (See FIG. 1) or the liquid crystal panel 41 is moved (see FIG. 2).

たとえば、図2に示すように、操作部7から取得したユーザの操作情報に基づいて、直動駆動部43が駆動され、液晶パネル41が矢印D1方向に移動される。そして、液晶パネル41が矢印D1方向に移動されることにより、光学像Eが矢印D2方向に移動される。その後、ステップS3に進む。   For example, as shown in FIG. 2, the linear motion drive unit 43 is driven based on the user operation information acquired from the operation unit 7, and the liquid crystal panel 41 is moved in the direction of arrow D1. Then, when the liquid crystal panel 41 is moved in the direction of the arrow D1, the optical image E is moved in the direction of the arrow D2. Thereafter, the process proceeds to step S3.

そして、ステップS3において、移動情報の取得が行われる。すなわち、ステップS2において移動させた反射素子集合基板3または液晶パネル41の移動情報を、回動変位検出部24または直動変位検出部44が取得して、取得された移動情報がタッチ検出面生成部64に伝達される。その後、ステップS4に進む。   In step S3, movement information is acquired. That is, the movement information of the reflecting element assembly substrate 3 or the liquid crystal panel 41 moved in step S2 is acquired by the rotational displacement detection unit 24 or the linear movement displacement detection unit 44, and the acquired movement information is generated as a touch detection surface. Is transmitted to the unit 64. Thereafter, the process proceeds to step S4.

そして、ステップS4において、タッチ検出面の生成が行われる。すなわち、ステップS3において取得された移動情報に基づいて、タッチ検出面生成部64によりタッチ検出面H2(図4参照)の生成が行われる。   In step S4, a touch detection surface is generated. That is, based on the movement information acquired in step S3, the touch detection surface generation unit 64 generates the touch detection surface H2 (see FIG. 4).

たとえば、図2および図4に示すように、液晶パネル41が矢印D1方向に移動される前(光学像Eが矢印D2方向に移動される前)では、タッチ検出面H1が生成される。そして、液晶パネル41が矢印D1方向に移動された後(光学像Eが矢印D2方向に移動された後)では、タッチ検出面H2が生成される。この場合、図4に示すように、移動後の光学像Eは、移動前の光学像Eよりも距離測定部5に近い位置(矢印Y2方向側)に結像されるので、タッチ検出面H2は、タッチ検出面H1の大きさよりも大きく形成される。また、移動後の光学像Eは、移動前の光学像Eよりも下方側に結像されるので、タッチ検出面H2は、タッチ検出面H1よりも下方側(矢印Z2方向側)に生成される。その後、ステップS5に進む。   For example, as shown in FIGS. 2 and 4, before the liquid crystal panel 41 is moved in the arrow D1 direction (before the optical image E is moved in the arrow D2 direction), the touch detection surface H1 is generated. After the liquid crystal panel 41 is moved in the arrow D1 direction (after the optical image E is moved in the arrow D2 direction), the touch detection surface H2 is generated. In this case, as shown in FIG. 4, the optical image E after movement is imaged at a position closer to the distance measurement unit 5 than the optical image E before movement (arrow Y2 direction side). Is formed larger than the size of the touch detection surface H1. Further, since the optical image E after movement is formed below the optical image E before movement, the touch detection surface H2 is generated below the touch detection surface H1 (arrow Z2 direction side). The Thereafter, the process proceeds to step S5.

そして、ステップS5において、タッチ検出面の記憶が行われる。すなわち、タッチ検出面生成部64により生成されたタッチ検出面H2がタッチ検出面記憶部65に記憶される。その後、ステップS6に進む。   In step S5, the touch detection surface is stored. That is, the touch detection surface H <b> 2 generated by the touch detection surface generation unit 64 is stored in the touch detection surface storage unit 65. Then, it progresses to step S6.

そして、ステップS5の後、または、ステップS1においてユーザの操作情報を取得しない場合に進むステップS6において、距離測定部5から距離画像データの取得が行われる。その後、ステップS7に進む。   Then, after step S5, or in step S6, which is performed when the user operation information is not acquired in step S1, the distance image data is acquired from the distance measuring unit 5. Then, it progresses to step S7.

そして、ステップS7において、距離画像データが画像記憶部66に記憶される。その後、ステップS8に進む。   In step S7, the distance image data is stored in the image storage unit 66. Thereafter, the process proceeds to step S8.

そして、ステップS8において、タッチ検出面H2(光学像E)がタッチ操作されているか否かが判断される。すなわち、図4に示すように、ステップS7において画像記憶部66に記憶された距離画像データが読み出されるとともに、ステップS5においてタッチ検出面記憶部65に記憶されたタッチ検出面H2が読み出されて、比較が行われる。   In step S8, it is determined whether or not the touch detection surface H2 (optical image E) is touched. That is, as shown in FIG. 4, the distance image data stored in the image storage unit 66 is read out in step S7, and the touch detection surface H2 stored in the touch detection surface storage unit 65 is read out in step S5. A comparison is made.

たとえば、図4に示すように、距離画像データにおける指F(指示体)がタッチ検出面H2(光学像E)の近傍にある場合(図4におけるハッチングの線間隔が最も小さい部分)、タッチ検出面H2(光学像E)がタッチ操作されていると判断する。一方、距離画像データにおける指F(指示体)がタッチ検出面H2(光学像E)の近傍にない場合、タッチ検出面H2(光学像E)がタッチ操作されていないと判断する。図4に示す例の場合、指Fの部分(ハッチングの線間隔が最も小さい部分)がタッチ操作されていると判断する一方、指F以外の部分(ハッチングの線間隔が最も小さい部分以外の部分)は、タッチ操作されていないと判断する。そして、タッチ検出面H2のうちの一部(光学像E)がタッチ操作されている場合、ステップS9に進み、タッチ検出面H2の全体(光学像E)がタッチ操作されていない場合、ステップS1に戻る。   For example, as shown in FIG. 4, when the finger F (indicator) in the distance image data is in the vicinity of the touch detection surface H2 (optical image E) (the portion with the smallest hatching line interval in FIG. 4), touch detection is performed. It is determined that the touch operation is performed on the surface H2 (optical image E). On the other hand, when the finger F (indicator) in the distance image data is not near the touch detection surface H2 (optical image E), it is determined that the touch detection surface H2 (optical image E) is not touched. In the case of the example shown in FIG. 4, it is determined that the part of the finger F (the part with the smallest hatching line interval) is touched, while the part other than the finger F (the part other than the part with the smallest hatching line interval). ) Determines that no touch operation has been performed. If a part (optical image E) of the touch detection surface H2 is touch-operated, the process proceeds to step S9. If the entire touch detection surface H2 (optical image E) is not touch-operated, step S1 is performed. Return to.

そして、ステップS9において、タッチ操作された座標情報の取得が行われる。たとえば、図4に示す例の場合、指Fの部分(ハッチングの線間隔が最も小さい部分)の座標情報の取得が行われる。この場合、タッチ検出面H2のうちのタッチ操作された座標情報が取得される。その後、ステップS1に進む。   In step S9, the coordinate information that has been touched is acquired. For example, in the example shown in FIG. 4, the coordinate information of the part of the finger F (the part with the smallest hatching line interval) is acquired. In this case, the coordinate information of the touch operation on the touch detection surface H2 is acquired. Then, it progresses to step S1.

第1実施形態では、以下のような効果を得ることができる。   In the first embodiment, the following effects can be obtained.

第1実施形態では、上記のように、本体側制御部6を、画像表示部4および反射素子集合基板3の少なくとも一方と距離測定部5との相対的な移動情報(移動距離の情報、回動角度の情報およびタッチ検出面H2)と、距離測定部5により取得された距離情報(距離画像データ)とに基づいて、指示体(指F)が光学像Eに対してタッチ操作したか否かを判断するように構成する。これにより、光学像Eが結像される位置が移動した場合でも、指示体(指F)が光学像Eに対してタッチ操作したか否かを判断するための位置(タッチ検出面H1)を、移動情報により、光学像Eが結像される位置に対応する位置(タッチ検出面H2)に移動させることができる。その結果、光学像Eが結像される位置が移動した場合でも、指示体(指F)が光学像Eに対してタッチ操作を行ったか否かを適切に判断することができる。   In the first embodiment, as described above, the main body side control unit 6 controls the relative movement information (movement distance information, rotation) between at least one of the image display unit 4 and the reflective element assembly substrate 3 and the distance measurement unit 5. Whether or not the indicator (finger F) has touched the optical image E based on the information on the moving angle and the touch detection surface H2) and the distance information (distance image data) acquired by the distance measurement unit 5. It is configured to determine whether or not. Thereby, even when the position where the optical image E is formed moves, the position (touch detection surface H1) for determining whether or not the indicator (finger F) has touched the optical image E is determined. The movement information can be moved to a position (touch detection surface H2) corresponding to a position where the optical image E is formed. As a result, even when the position where the optical image E is formed moves, it is possible to appropriately determine whether or not the indicator (finger F) has performed a touch operation on the optical image E.

また、第1実施形態では、上記のように、画像表示部4と反射素子集合基板3とを、互いに相対的に移動可能に構成して、本体側制御部6を、画像表示部4と反射素子集合基板3との相対的な移動情報(移動距離の情報およびタッチ検出面H2)と、距離情報(距離画像データ)とに基づいて、指示体(指F)が光学像Eに対してタッチ操作したか否かを判断するように構成する。これにより、画像表示装置100の全体を移動させることなく、光学像Eの位置を移動させることができるので、画像表示装置100(回動機構部22および直動機構部42)が大型化するのを抑制しながら、ユーザが視認しやすい高さ位置に光学像Eを移動させることができる。   In the first embodiment, as described above, the image display unit 4 and the reflective element assembly substrate 3 are configured to be movable relative to each other, and the main body side control unit 6 is configured to reflect the image display unit 4 and the reflection. The indicator (finger F) touches the optical image E based on the relative movement information (movement distance information and touch detection surface H2) with the element assembly substrate 3 and the distance information (distance image data). It is configured to determine whether or not an operation has been performed. As a result, the position of the optical image E can be moved without moving the entire image display device 100, so that the size of the image display device 100 (the turning mechanism unit 22 and the linear motion mechanism unit 42) is increased. The optical image E can be moved to a height position that is easy for the user to visually recognize.

また、第1実施形態では、上記のように、画像表示部4を、反射素子集合基板3に対して所定の傾斜角Bを有するように配置するとともに、所定の傾斜角Bを維持しながら、反射素子集合基板3に対して移動可能に構成する。これにより、本体側制御部6を、反射素子集合基板3に対して所定の傾斜角Bを維持しながら移動した画像表示部4の移動情報(移動距離の情報およびタッチ検出面H2)と、距離情報(距離画像データ)とに基づいて指示体(指F)が光学像Eに対してタッチ操作したか否かを判断するように構成する。これにより、ユーザと光学像Eとの距離を、ユーザが視認しやすい距離に、容易に変更することができる。   In the first embodiment, as described above, the image display unit 4 is arranged so as to have a predetermined inclination angle B with respect to the reflective element assembly substrate 3, and while maintaining the predetermined inclination angle B, The reflection element assembly substrate 3 is configured to be movable. Accordingly, the movement information (movement distance information and touch detection surface H2) of the image display unit 4 that has moved the main body side control unit 6 while maintaining the predetermined inclination angle B with respect to the reflective element assembly substrate 3, and the distance Based on the information (distance image data), it is configured to determine whether or not the indicator (finger F) has touched the optical image E. Thereby, the distance between the user and the optical image E can be easily changed to a distance that is easy for the user to visually recognize.

また、第1実施形態では、上記のように、反射素子集合基板3を、反射素子集合基板3の同一平面上に沿った回動軸C1を回動中心として、回動可能に構成する。また、本体側制御部6を、反射素子集合基板3の同一平面上に沿った回動軸C1を回動中心として回動された反射素子集合基板3の回動情報(回動角度の情報およびタッチ検出面H2)と、距離情報(距離画像データ)とに基づいて、指示体(指F)が光学像Eに対してタッチ操作したか否かを判断するように構成する。これにより、光学像Eの傾斜角を、ユーザが視認しやすい角度に容易に変更することができる。   In the first embodiment, as described above, the reflecting element assembly substrate 3 is configured to be rotatable about the rotation axis C1 along the same plane of the reflecting element assembly substrate 3 as the center of rotation. Further, the main body side control unit 6 controls the rotation information (rotation angle information and rotation angle) of the reflection element assembly substrate 3 rotated about the rotation axis C1 along the same plane of the reflection element assembly substrate 3. Based on the touch detection surface H2) and distance information (distance image data), it is configured to determine whether or not the indicator (finger F) has touched the optical image E. Thereby, the inclination | tilt angle of the optical image E can be easily changed into the angle which a user can visually recognize easily.

また、第1実施形態では、上記のように、検出部51に、光を発する赤外光源51aと、赤外光源51aから発せられ指示体(指F)により反射された光を受光するCCDカメラ51bとを設ける。また、距離測定部5を、赤外光源51aが光を発する時点から、CCDカメラ51bが赤外光源51aから発せられ指示体(指F)により反射された光を受光する時点までの経過時間に基づいて、検出部51から指示体(指F)までの距離情報(距離画像データ)を取得するように構成する。これにより、CCDカメラ51bが赤外光源51aから発せられ指示体(指F)により反射された光を受光する時点までの経過時間を測定することにより、容易に、検出部51から指示体(指F)までの距離情報(距離画像データ)を取得することができる。   In the first embodiment, as described above, the detection unit 51 receives the infrared light source 51a that emits light and the CCD camera that receives the light emitted from the infrared light source 51a and reflected by the indicator (finger F). 51b. Further, the distance measuring unit 5 is set to the elapsed time from the time when the infrared light source 51a emits light until the time when the CCD camera 51b receives the light emitted from the infrared light source 51a and reflected by the indicator (finger F). Based on this, the distance information (distance image data) from the detection unit 51 to the indicator (finger F) is acquired. As a result, by measuring the elapsed time until the CCD camera 51b receives the light emitted from the infrared light source 51a and reflected by the indicator (finger F), the indicator (finger) can be easily detected from the detector 51. Distance information (distance image data) up to F) can be acquired.

(第2実施形態)
次に、図6および図7を参照して、第2実施形態による画像表示装置200の構成について説明する。第2実施形態では、表示ユニットと反射素子集合基板とが一体的に回動可能に構成されていた第1実施形態による画像表示装置100と異なり、反射素子集合基板は、上下方向(鉛直方向)に移動可能に構成されている。
(Second Embodiment)
Next, the configuration of the image display device 200 according to the second embodiment will be described with reference to FIGS. In the second embodiment, unlike the image display device 100 according to the first embodiment in which the display unit and the reflective element aggregate substrate are configured to be integrally rotatable, the reflective element aggregate substrate is in the vertical direction (vertical direction). It is configured to be movable.

図6および図7に示すように、第2実施形態による画像表示装置200には、表示ユニット202が設けられている。表示ユニット202は、画像表示装置本体1に固定されており、表示ユニット筐体部221と、移動機構部222と、移動駆動部223(図7参照)と、移動変位検出部224(図7参照)とを含む。移動機構部222は、歯車などにより構成されており、歯車は、後述する反射素子集合基板203の歯部231と歯合するように配置されている。また、移動駆動部223は、モータなどにより構成されており、移動機構部222の歯車を、後述する本体側制御部206の指令に基づいて、回動させるように構成されている。また、移動変位検出部224は、移動駆動部223が移動機構部222を回動させた回動角度の情報(移動情報)を取得するように構成されている。   As shown in FIGS. 6 and 7, the image display device 200 according to the second embodiment is provided with a display unit 202. The display unit 202 is fixed to the image display apparatus main body 1, and includes a display unit housing unit 221, a movement mechanism unit 222, a movement drive unit 223 (see FIG. 7), and a movement displacement detection unit 224 (see FIG. 7). ). The moving mechanism unit 222 is configured by a gear or the like, and the gear is disposed so as to mesh with a tooth portion 231 of a reflective element assembly substrate 203 described later. Moreover, the movement drive part 223 is comprised by the motor etc., and is comprised so that the gear of the movement mechanism part 222 may be rotated based on the command of the main body side control part 206 mentioned later. Further, the movement displacement detection unit 224 is configured to acquire information (movement information) of a rotation angle at which the movement driving unit 223 rotates the movement mechanism unit 222.

ここで、第2実施形態では、図6に示すように、反射素子集合基板203は、水平面(XY平面)に対して平行になるように配置されているとともに、上下方向(鉛直方向)(Z方向)に移動可能に構成されている。   Here, in the second embodiment, as shown in FIG. 6, the reflective element assembly substrate 203 is arranged so as to be parallel to the horizontal plane (XY plane), and also in the vertical direction (vertical direction) (Z Direction).

また、反射素子集合基板203は、矢印Y1方向側で歯部231と接続されている。また、表示ユニット202には、表示ユニット筐体部221に固定されている固定部232が設けられている。固定部232は、歯部231をZ方向に貫通することが可能に構成されている。そして、歯部231は、移動機構部222と歯合されており、移動機構部222が回動することにより、歯部231は、Z方向に移動するように構成されている。そして、反射素子集合基板203は、歯部231がZ方向に移動することによって、上下方向(Z方向)に移動するように構成されている。   Further, the reflective element assembly substrate 203 is connected to the tooth portion 231 on the arrow Y1 direction side. The display unit 202 is provided with a fixing portion 232 that is fixed to the display unit housing portion 221. The fixing portion 232 is configured to be able to penetrate the tooth portion 231 in the Z direction. The tooth portion 231 is engaged with the movement mechanism portion 222, and the tooth portion 231 is configured to move in the Z direction when the movement mechanism portion 222 rotates. The reflective element assembly substrate 203 is configured to move in the vertical direction (Z direction) when the tooth portion 231 moves in the Z direction.

たとえば、図6に示すように、反射素子集合基板203が画像表示部4に対して移動距離I1分、矢印Z1方向側に移動された場合、光学像Eは、反射素子集合基板203に対する画像表示部4の面対称を有する位置に結像されるので、光学像Eの移動後の位置は、光学像Eの移動前の位置より移動距離I2分(移動距離I1の2倍の大きさ)矢印Z1方向に移動される。   For example, as shown in FIG. 6, when the reflective element aggregate substrate 203 is moved to the arrow Z1 direction side by the moving distance I1 with respect to the image display unit 4, the optical image E is displayed on the reflective element aggregate substrate 203. Since the image is formed at the position having the plane symmetry of the part 4, the position after the movement of the optical image E is an arrow corresponding to the movement distance I2 (twice as large as the movement distance I1). It is moved in the Z1 direction.

ここで、第2実施形態では、図7に示すように、本体側制御部206は、上下方向(鉛直方向)(Z方向)に移動した反射素子集合基板203の移動情報と、距離情報(距離画像データ)とに基づいて、指示体(指F)が光学像Eに対してタッチ操作したか否かを判断するように構成されている。   Here, in the second embodiment, as illustrated in FIG. 7, the main body side control unit 206 includes the movement information of the reflecting element assembly substrate 203 moved in the vertical direction (vertical direction) (Z direction) and the distance information (distance). The indicator (finger F) is configured to determine whether or not the optical image E is touched based on the image data.

具体的には、図7に示すように、本体側制御部206には、制御部261と、移動制御部263と、タッチ検出面生成部264とが設けられている。制御部261は、操作部7からユーザの操作情報を取得して、移動制御部263に制御信号を伝達するように構成されている。そして、移動制御部263は、移動駆動部223の動作を、制御部261からの制御信号に基づいて、制御するように構成されている。   Specifically, as shown in FIG. 7, the main body side control unit 206 is provided with a control unit 261, a movement control unit 263, and a touch detection surface generation unit 264. The control unit 261 is configured to acquire user operation information from the operation unit 7 and transmit a control signal to the movement control unit 263. The movement control unit 263 is configured to control the operation of the movement driving unit 223 based on a control signal from the control unit 261.

そして、タッチ検出面生成部264は、移動変位検出部224および直動変位検出部44から移動情報を取得して、取得した移動情報に基づいて、タッチ検出面を生成するように構成されている。そして、タッチ操作判断部67は、生成されたタッチ検出面と、距離測定部5から取得した距離画像データとの比較に基づいて、指示体(指F)が光学像Eに対してタッチ操作したか否かを判断するように構成されている。なお、第2実施形態における距離画像データ、および、生成されたタッチ検出面と距離測定部5から取得した距離画像データとの比較方法は、第1実施形態における距離画像データ、および、生成されたタッチ検出面と距離測定部5から取得した距離画像データとの比較方法と同様である。また、第2実施形態による画像表示装置200のその他の構成は、第1実施形態における画像表示装置100と同様である。   Then, the touch detection surface generation unit 264 is configured to acquire movement information from the movement displacement detection unit 224 and the linear motion displacement detection unit 44 and generate a touch detection surface based on the acquired movement information. . Then, the touch operation determination unit 67 performs a touch operation on the optical image E by the indicator (finger F) based on the comparison between the generated touch detection surface and the distance image data acquired from the distance measurement unit 5. It is configured to determine whether or not. Note that the distance image data in the second embodiment and the method for comparing the generated touch detection surface and the distance image data acquired from the distance measurement unit 5 are the distance image data in the first embodiment and the generated method. This is the same as the comparison method between the touch detection surface and the distance image data acquired from the distance measurement unit 5. Other configurations of the image display device 200 according to the second embodiment are the same as those of the image display device 100 according to the first embodiment.

第2実施形態では、以下のような効果を得ることができる。   In the second embodiment, the following effects can be obtained.

第2実施形態では、上記のように、反射素子集合基板203を、水平面(XY平面)に対して平行になるように配置するとともに、上下方向(鉛直方向)(Z方向)に移動可能に構成する。また、本体側制御部206を、上下方向(鉛直方向)(Z方向)に移動した反射素子集合基板203の移動情報と、距離情報(距離画像データ)とに基づいて、指示体(指F)が光学像Eに対してタッチ操作したか否かを判断するように構成する。これにより、光学像Eの高さ(Z方向の位置)を、ユーザが視認しやすい高さ(ユーザの身長に応じた高さ)に、容易に変更することができる。また、第2実施形態による画像表示装置200のその他の効果は、第1実施形態における画像表示装置100と同様である。   In the second embodiment, as described above, the reflective element assembly substrate 203 is arranged so as to be parallel to the horizontal plane (XY plane) and configured to be movable in the vertical direction (vertical direction) (Z direction). To do. Further, the indicator (finger F) is controlled based on the movement information of the reflecting element aggregate substrate 203 moved in the vertical direction (vertical direction) (Z direction) and the distance information (distance image data). Is configured to determine whether or not the optical image E has been touched. Thereby, the height (position in the Z direction) of the optical image E can be easily changed to a height that is easy for the user to visually recognize (a height according to the height of the user). The other effects of the image display device 200 according to the second embodiment are the same as those of the image display device 100 according to the first embodiment.

(第3実施形態)
次に、図8および図9を参照して、第3実施形態による画像表示装置300の構成について説明する。第3実施形態では、距離測定部が画像表示装置本体に対して固定されていた第1実施形態による画像表示装置100と異なり、距離測定部と表示ユニットとが一体的に画像表示装置本体に対して移動可能に構成されている。
(Third embodiment)
Next, the configuration of the image display apparatus 300 according to the third embodiment will be described with reference to FIGS. In the third embodiment, unlike the image display device 100 according to the first embodiment in which the distance measurement unit is fixed to the image display device main body, the distance measurement unit and the display unit are integrated with the image display device main body. It is configured to be movable.

図8および図9に示すように、第3実施形態による画像表示装置300では、距離測定部305と表示ユニット302とは、画像表示装置本体1に対して、一体的に移動可能に構成されている。具体的には、図8に示すように、表示ユニット302は、表示ユニット筐体部321を含み、距離測定部305は、表示ユニット筐体部321に取り付けられている。また、図9に示すように、表示ユニット302には、回動機構部322および回動駆動部323が設けられている。そして、図8に示すように、回動機構部322は、画像表示装置本体1に取り付けられており、回動駆動部323により、距離測定部305と表示ユニット302とを、画像表示装置本体1に対して、一体的に矢印J1方向に回動するように構成されている。   As shown in FIGS. 8 and 9, in the image display device 300 according to the third embodiment, the distance measuring unit 305 and the display unit 302 are configured to be integrally movable with respect to the image display device main body 1. Yes. Specifically, as shown in FIG. 8, the display unit 302 includes a display unit housing part 321, and the distance measurement unit 305 is attached to the display unit housing part 321. As shown in FIG. 9, the display unit 302 is provided with a rotation mechanism unit 322 and a rotation drive unit 323. As shown in FIG. 8, the rotation mechanism unit 322 is attached to the image display device main body 1, and the distance measurement unit 305 and the display unit 302 are connected by the rotation drive unit 323 to the image display device main body 1. On the other hand, it is configured to integrally rotate in the direction of arrow J1.

そして、表示ユニット302が画像表示装置本体1に対して矢印J1方向に回動された場合、光学像Eは、表示ユニット302が回動する略同一の回動角度分、矢印J2方向に回動される。また、距離測定部305は、表示ユニット302と一体的に回動されるので、撮像領域は、撮像領域K1から撮像領域K2に変化する。しかしながら、距離測定部305の回動前と回動後とにおける、距離測定部305と光学像Eとの相対的な位置関係は、変化しない。   When the display unit 302 is rotated in the arrow J1 direction with respect to the image display apparatus main body 1, the optical image E is rotated in the arrow J2 direction by substantially the same rotation angle by which the display unit 302 is rotated. Is done. Further, since the distance measuring unit 305 is rotated integrally with the display unit 302, the imaging area changes from the imaging area K1 to the imaging area K2. However, the relative positional relationship between the distance measurement unit 305 and the optical image E before and after the rotation of the distance measurement unit 305 does not change.

そして、図9に示すように、本体側制御部306には、制御部361と、回動制御部363と、タッチ検出面生成部364とが設けられている。制御部361は、操作部7からユーザの操作情報を取得して、回動制御部363に制御信号を伝達するように構成されている。そして、回動制御部363は、回動駆動部323の動作を、制御部361からの制御信号に基づいて、制御するように構成されている。   As shown in FIG. 9, the main body side control unit 306 is provided with a control unit 361, a rotation control unit 363, and a touch detection surface generation unit 364. The control unit 361 is configured to acquire user operation information from the operation unit 7 and transmit a control signal to the rotation control unit 363. The rotation control unit 363 is configured to control the operation of the rotation drive unit 323 based on a control signal from the control unit 361.

そして、タッチ検出面生成部364は、直動変位検出部44から移動情報を取得して、取得した移動情報に基づいて、タッチ検出面を生成するように構成されている。すなわち、第3実施形態によるタッチ検出面生成部364は、第1実施形態によるタッチ検出面生成部64と異なり、回動機構部322の移動情報を用いないで、タッチ検出面を生成するように構成されている。そして、タッチ操作判断部67は、生成されたタッチ検出面と、距離測定部305から取得した距離画像データとの比較に基づいて、指示体(指F)が光学像Eに対してタッチ操作したか否かを判断するように構成されている。なお、第3実施形態における距離画像データ、および、生成されたタッチ検出面と距離測定部305から取得した距離画像データとの比較方法は、第1実施形態における距離画像データ、および、生成されたタッチ検出面と距離測定部5から取得した距離画像データとの比較方法と同様である。また、第3実施形態による画像表示装置300のその他の構成は、第1実施形態における画像表示装置100と同様である。   The touch detection surface generation unit 364 is configured to acquire movement information from the linear movement displacement detection unit 44 and generate a touch detection surface based on the acquired movement information. That is, unlike the touch detection surface generation unit 64 according to the first embodiment, the touch detection surface generation unit 364 according to the third embodiment generates a touch detection surface without using the movement information of the rotation mechanism unit 322. It is configured. Then, the touch operation determination unit 67 performs a touch operation on the optical image E by the indicator (finger F) based on a comparison between the generated touch detection surface and the distance image data acquired from the distance measurement unit 305. It is configured to determine whether or not. Note that the distance image data in the third embodiment and the method for comparing the generated touch detection surface and the distance image data acquired from the distance measurement unit 305 are the distance image data in the first embodiment and the generated method. This is the same as the comparison method between the touch detection surface and the distance image data acquired from the distance measurement unit 5. The other configuration of the image display device 300 according to the third embodiment is the same as that of the image display device 100 according to the first embodiment.

第3実施形態では、以下のような効果を得ることができる。   In the third embodiment, the following effects can be obtained.

第3実施形態では、上記のように、距離測定部305と表示ユニット302とを、一体的に移動可能に構成する。ここで、距離測定部305と表示ユニット302とを一体的に移動させて光学像Eの位置を移動させる場合は、距離測定部305と表示ユニット302との相対的な位置関係は変化しない。このため、第3実施形態のように、距離測定部305と表示ユニット302とを、一体的に移動させて光学像Eの位置を移動させることにより、本体側制御部306が、距離測定部305と表示ユニット302との相対的な位置情報を取得することなく、指示体(指F)が光学像Eに対してタッチ操作を行ったか否かを適切に判断することができる。また、第3実施形態による画像表示装置300のその他の効果は、第1実施形態における画像表示装置100と同様である。   In the third embodiment, as described above, the distance measuring unit 305 and the display unit 302 are configured to be movable together. Here, when the position of the optical image E is moved by integrally moving the distance measurement unit 305 and the display unit 302, the relative positional relationship between the distance measurement unit 305 and the display unit 302 does not change. Therefore, as in the third embodiment, the distance measurement unit 305 and the display unit 302 are moved integrally to move the position of the optical image E, so that the main body side control unit 306 causes the distance measurement unit 305 to move. It is possible to appropriately determine whether or not the indicator (finger F) has performed a touch operation on the optical image E without acquiring relative position information between the display unit 302 and the display unit 302. The other effects of the image display device 300 according to the third embodiment are the same as those of the image display device 100 according to the first embodiment.

なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and further includes all modifications within the meaning and scope equivalent to the scope of claims for patent.

また、上記第1〜第3実施形態では、本発明の画像表示部として、液晶パネルを用いる例を示したが、本発明はこれに限られない。本発明では、画像表示部として液晶パネル以外の画像表示部を用いてもよい。たとえば、プロジェクタからの投影光をスクリーンに照射して、投影光が照射されたスクリーンを本発明の画像表示部として用いてもよい。   Moreover, although the example which uses a liquid crystal panel as an image display part of this invention was shown in the said 1st-3rd embodiment, this invention is not limited to this. In the present invention, an image display unit other than the liquid crystal panel may be used as the image display unit. For example, a screen irradiated with projection light from a projector may be used as the image display unit of the present invention.

また、上記第1〜第3実施形態では、距離測定部の距離画像データの取得方法として、赤外光源が光を発する時点からCCDカメラが指示体により反射された光を受光する時点までの経過時間を算出することにより距離画像データを取得する方法を用いる例を示したが、本発明はこれに限られない。本発明では、赤外光源が光を発する時点からCCDカメラが指示体により反射された光を受光する時点までの経過時間を算出する方法以外の距離画像データの取得方法を用いてもよい。たとえば、2つの撮像部を設けた3次元カメラを用いて、3次元カメラと指示体との距離を算出して、距離画像データを取得するように構成してもよい。   In the first to third embodiments, as a method of acquiring the distance image data of the distance measuring unit, the process from the time when the infrared light source emits light to the time when the CCD camera receives the light reflected by the indicator. Although the example using the method of acquiring distance image data by calculating time has been shown, the present invention is not limited to this. In the present invention, a method of acquiring distance image data other than a method of calculating an elapsed time from the time when the infrared light source emits light to the time when the CCD camera receives the light reflected by the indicator may be used. For example, the distance image data may be obtained by calculating the distance between the three-dimensional camera and the indicator using a three-dimensional camera provided with two imaging units.

また、上記第1および第3実施形態では、表示ユニットをYZ平面上において回動するように構成する例を示したが、本発明はこれに限られない。本発明では、表示ユニットをYZ平面上以外の平面において回動するように構成してもよい。たとえば、表示ユニットをXY平面上の平面において回動するように構成してもよい。   In the first and third embodiments, the example in which the display unit is configured to rotate on the YZ plane has been described. However, the present invention is not limited to this. In the present invention, the display unit may be configured to rotate in a plane other than the YZ plane. For example, the display unit may be configured to rotate in a plane on the XY plane.

また、上記第1〜第3実施形態では、本発明の画像表示装置本体を地面に配置する例を示したが、本発明はこれに限られない。本発明では、画像表示装置本体を地面以外に配置するように構成してもよい。たとえば、画像表示装置本体を天井に配置するように構成してもよいし、壁に配置してもよい。   Moreover, although the example which arrange | positions the image display apparatus main body of this invention on the ground was shown in the said 1st-3rd embodiment, this invention is not limited to this. In this invention, you may comprise so that an image display apparatus main body may be arrange | positioned other than the ground. For example, the image display device main body may be arranged on the ceiling or on the wall.

また、上記第1〜第3実施形態では、本発明の距離測定部により取得する距離情報を、距離画像データとして取得するように構成する例を示したが、本発明はこれに限られない。本発明では、距離測定部により取得する距離情報を、距離画像データ以外の情報として取得するように構成してもよい。すなわち、距離測定部が、指示体(ユーザの指など)と検出部との位置関係を取得することが可能な構成であればよい。   Moreover, although the said 1st-3rd embodiment showed the example comprised so that the distance information acquired by the distance measurement part of this invention may be acquired as distance image data, this invention is not limited to this. In this invention, you may comprise so that the distance information acquired by a distance measurement part may be acquired as information other than distance image data. That is, the distance measurement unit may be configured to be able to acquire the positional relationship between the indicator (such as a user's finger) and the detection unit.

また、上記第1〜第3実施形態では、本発明の移動情報として、移動距離や回動角度の変位量を用いた例を示したが、本発明はこれに限られない。本発明では、移動後の位置や回動後の回動角度値を移動情報として用いてもよい。   Moreover, in the said 1st-3rd embodiment, although the example using the displacement amount of a movement distance and a rotation angle was shown as movement information of this invention, this invention is not limited to this. In the present invention, the position after movement and the rotation angle value after rotation may be used as movement information.

また、上記第1〜第3実施形態では、説明の便宜上、本発明の制御部の処理を処理フローに沿って順番に処理を行うフロー駆動型のフローチャートを用いて説明したが、本発明はこれに限られない。本発明では、制御部の処理動作を、イベントごとに処理を実行するイベント駆動型(イベントドリブン型)の処理により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。   In the first to third embodiments, for convenience of explanation, the processing of the control unit of the present invention has been described using a flow-driven flowchart in which processing is performed in order along the processing flow. Not limited to. In the present invention, the processing operation of the control unit may be performed by event-driven (event-driven) processing that executes processing for each event. In this case, it may be performed by a complete event drive type or a combination of event drive and flow drive.

1 画像表示装置本体
2、202、302 表示ユニット
3、203 反射素子集合基板(結像部)
4 画像表示部
5、305 距離測定部
6、206、306 本体側制御部(制御部)
31 下面(一方の面)
32 上面(他方の面)
51 検出部
51a 赤外光源(発光部)
51b CCDカメラ(受光部)
100、200、300 画像表示装置
DESCRIPTION OF SYMBOLS 1 Image display apparatus main body 2,202,302 Display unit 3,203 Reflective element assembly board (imaging part)
4 Image display unit 5, 305 Distance measurement unit 6, 206, 306 Main body side control unit (control unit)
31 Bottom (one side)
32 Upper surface (the other surface)
51 Detection Unit 51a Infrared Light Source (Light Emitting Unit)
51b CCD camera (light receiving unit)
100, 200, 300 Image display device

Claims (7)

画像を表示する画像表示部と、前記画像表示部により表示された前記画像の光が一方の面側から入射されるとともに、入射された前記画像の光を他方の面側の空中に前記画像に対応する仮想タッチ画面としての光学像を結像させる結像部とを含み、前記画像表示部および前記結像部のうちの少なくとも一方を移動させることにより、前記光学像を結像させる位置を移動可能に構成されている表示ユニットと、
前記光学像を仮想的にタッチする指示体を検出する検出部を含み、前記光学像を介して前記指示体と対向するように配置され、前記検出部から前記指示体までの距離を示す距離情報を含む画像データを取得する距離画像データ取得部と、
前記画像表示部および前記結像部の少なくとも一方と前記距離画像データ取得部との相対的な移動情報から相対移動した位置に応じて移動するように生成され、ユーザが仮想的にタッチする面として認識するための仮想的なタッチ検出面と、前記距離画像データ取得部により取得された前記画像データに含まれる前記距離情報とに基づいて、前記指示体が前記光学像に対してタッチ操作したか否かを判断する制御部とを備える、画像表示装置。
An image display unit for displaying an image, and light of the image displayed by the image display unit is incident from one surface side, and incident light of the image is incident on the image in the air on the other surface side. An image forming unit that forms an optical image as a corresponding virtual touch screen, and moving the position at which the optical image is formed by moving at least one of the image display unit and the image forming unit A display unit configured to be possible,
Distance information that includes a detection unit that detects an indicator that virtually touches the optical image, is disposed to face the indicator via the optical image, and indicates distance from the detection unit to the indicator A distance image data acquisition unit for acquiring image data including:
As a surface that is generated so as to move according to the position of relative movement from the relative movement information of at least one of the image display unit and the imaging unit and the distance image data acquisition unit, and the user virtually touches Whether the indicator touches the optical image based on a virtual touch detection surface for recognition and the distance information included in the image data acquired by the distance image data acquisition unit. An image display device comprising: a control unit that determines whether or not.
前記画像表示部と前記結像部とは、互いに相対的に移動可能に構成されており、
前記制御部は、前記画像表示部と前記結像部との相対的な移動情報から生成される前記タッチ検出面と、前記距離情報とに基づいて、前記指示体が前記光学像に対してタッチ操作したか否かを判断するように構成されている、請求項1に記載の画像表示装置。
The image display unit and the imaging unit are configured to be movable relative to each other,
The control unit touches the optical image based on the touch detection surface generated from relative movement information between the image display unit and the imaging unit and the distance information. The image display device according to claim 1, wherein the image display device is configured to determine whether or not an operation has been performed.
前記画像表示部は、前記結像部に対して所定の傾斜角を有するように配置されているとともに、前記所定の傾斜角を維持しながら、前記結像部に対して移動可能に構成されており、
前記制御部は、前記結像部に対して前記所定の傾斜角を維持しながら移動した前記画像表示部の移動情報から生成される前記タッチ検出面と、前記距離情報とに基づいて、前記指示体が前記光学像に対してタッチ操作したか否かを判断するように構成されている、請求項2に記載の画像表示装置。
The image display unit is arranged to have a predetermined inclination angle with respect to the imaging unit, and is configured to be movable with respect to the imaging unit while maintaining the predetermined inclination angle. And
The control unit performs the instruction based on the touch detection surface generated from movement information of the image display unit moved while maintaining the predetermined tilt angle with respect to the imaging unit, and the distance information. The image display device according to claim 2, wherein the image display device is configured to determine whether or not a body touches the optical image.
前記結像部は、前記結像部の同一平面上に沿った所定の回動軸を回動中心として、回動可能に構成されており、
前記制御部は、前記結像部の同一平面上に沿った所定の回動軸を回動中心として回動された前記結像部の回動情報から生成される前記タッチ検出面と、前記距離情報とに基づいて、前記指示体が前記光学像に対してタッチ操作したか否かを判断するように構成されている、請求項3に記載の画像表示装置。
The imaging unit is configured to be rotatable about a predetermined rotation axis along the same plane of the imaging unit as a rotation center,
The control unit includes the touch detection surface generated from rotation information of the imaging unit rotated about a predetermined rotation axis along the same plane of the imaging unit, and the distance. The image display device according to claim 3, wherein the image display device is configured to determine whether or not the indicator performs a touch operation on the optical image based on the information.
前記結像部は、水平面に対して平行になるように配置されているとともに、上下方向に移動可能に構成されており、
前記制御部は、上下方向に移動した前記結像部の移動情報から生成される前記タッチ検出面と、前記距離情報とに基づいて、前記指示体が前記光学像に対してタッチ操作したか否かを判断するように構成されている、請求項2に記載の画像表示装置。
The imaging unit is arranged so as to be parallel to the horizontal plane, and is configured to be movable in the vertical direction.
The control unit determines whether the indicator has touched the optical image based on the touch detection surface generated from movement information of the imaging unit moved in the vertical direction and the distance information. The image display device according to claim 2, configured to determine whether or not.
前記距離画像データ取得部と前記表示ユニットとは、一体的に移動可能に構成されている、請求項1〜5のいずれか1項に記載の画像表示装置。 The image display device according to claim 1, wherein the distance image data acquisition unit and the display unit are configured to be integrally movable. 前記検出部は、光を発する発光部と、前記発光部から発せられ前記指示体により反射された光を受光する受光部とを含み、
前記距離画像データ取得部は、前記発光部が光を発する時点から、前記受光部が前記発光部から発せられ前記指示体により反射された光を受光する時点までの経過時間に基づいて、前記検出部から前記指示体までの前記距離情報を取得するように構成されている、請求項1〜6のいずれか1項に記載の画像表示装置。
The detection unit includes a light emitting unit that emits light, and a light receiving unit that receives light emitted from the light emitting unit and reflected by the indicator,
The distance image data acquisition unit is configured to detect the detection based on an elapsed time from a time when the light emitting unit emits light to a time when the light receiving unit receives light emitted from the light emitting unit and reflected by the indicator. The image display device according to claim 1, configured to acquire the distance information from a part to the indicator.
JP2014126922A 2014-06-20 2014-06-20 Image display device Active JP6427981B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014126922A JP6427981B2 (en) 2014-06-20 2014-06-20 Image display device
US14/743,247 US9841844B2 (en) 2014-06-20 2015-06-18 Image display device
EP15172970.4A EP2957997B1 (en) 2014-06-20 2015-06-19 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014126922A JP6427981B2 (en) 2014-06-20 2014-06-20 Image display device

Publications (2)

Publication Number Publication Date
JP2016006564A JP2016006564A (en) 2016-01-14
JP6427981B2 true JP6427981B2 (en) 2018-11-28

Family

ID=55224981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014126922A Active JP6427981B2 (en) 2014-06-20 2014-06-20 Image display device

Country Status (1)

Country Link
JP (1) JP6427981B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017125984A1 (en) * 2016-01-21 2017-07-27 パナソニックIpマネジメント株式会社 Aerial display device
JP7172207B2 (en) * 2018-07-10 2022-11-16 オムロン株式会社 input device
JP2020064632A (en) * 2018-10-11 2020-04-23 オムロン株式会社 Input device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005023598A1 (en) * 2003-09-02 2005-03-17 Matsushita Electric Industrial Co., Ltd. Input device
US8985774B2 (en) * 2007-03-30 2015-03-24 National Institute Of Information And Communication Technology Floating image interaction device and its program
JP5148960B2 (en) * 2007-09-21 2013-02-20 独立行政法人情報通信研究機構 Volume scanning type 3D aerial image display
WO2012032842A1 (en) * 2010-09-06 2012-03-15 シャープ株式会社 Display system and detection method
WO2012073362A1 (en) * 2010-12-02 2012-06-07 パイオニア株式会社 Desktop display system
JP2013015994A (en) * 2011-07-04 2013-01-24 Panasonic Corp Operation device
JP6027764B2 (en) * 2012-04-25 2016-11-16 キヤノン株式会社 Mirror system and control method thereof
JP6042674B2 (en) * 2012-09-20 2016-12-14 スタンレー電気株式会社 Image projection device with 3D information acquisition function
JP5509391B1 (en) * 2013-06-07 2014-06-04 株式会社アスカネット Method and apparatus for detecting a designated position of a reproduced image in a non-contact manner

Also Published As

Publication number Publication date
JP2016006564A (en) 2016-01-14

Similar Documents

Publication Publication Date Title
US8730164B2 (en) Gesture recognition apparatus and method of gesture recognition
EP2957997B1 (en) Image display device
EP2973414B1 (en) Apparatus for generation of a room model
JP6405739B2 (en) Image display device
US9971455B2 (en) Spatial coordinate identification device
JP5974189B2 (en) Projection-type image display apparatus and projection-type image display method
AU2016216750A1 (en) Cleaning robot and controlling method thereof
JP2010277122A (en) Optical position detection apparatus
US10379680B2 (en) Displaying an object indicator
TWI545463B (en) Projection system and method of managing a projection system
JP2011054165A (en) Gesture recognition method for interactive system, and the interactive system
JP6427981B2 (en) Image display device
CN105320274B (en) Computing system for direct three-dimensional pointing and method for tracking pointing/input device
JP6394135B2 (en) Image display device
CN112449166B (en) Holographic projection device, projection control method, projection control apparatus, computer device, and medium
JP6693255B2 (en) Measuring instruments and measuring systems
JP6315127B2 (en) Input device, aerial image interaction system, and input method
TW201310305A (en) Display and method of determining a position of an object applied to a three-dimensional interactive display
JP7266151B2 (en) Pointed Position Detecting Device, Pointed Position Detecting Method, Pointed Position Detecting Program, and Projection System
TWI476664B (en) Multi-touch optical input device and method thereof
TWI459370B (en) Image display system and control method thereof
JP2016110535A (en) Position detector, image projection device, and image operation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181015

R150 Certificate of patent or registration of utility model

Ref document number: 6427981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150