JP2024029268A - Operation input device and calibration method - Google Patents

Operation input device and calibration method Download PDF

Info

Publication number
JP2024029268A
JP2024029268A JP2020212714A JP2020212714A JP2024029268A JP 2024029268 A JP2024029268 A JP 2024029268A JP 2020212714 A JP2020212714 A JP 2020212714A JP 2020212714 A JP2020212714 A JP 2020212714A JP 2024029268 A JP2024029268 A JP 2024029268A
Authority
JP
Japan
Prior art keywords
button
image
logical area
pressed
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020212714A
Other languages
Japanese (ja)
Inventor
巧 有江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murakami Corp
Original Assignee
Murakami Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murakami Corp filed Critical Murakami Corp
Priority to JP2020212714A priority Critical patent/JP2024029268A/en
Priority to PCT/JP2021/045113 priority patent/WO2022138165A1/en
Publication of JP2024029268A publication Critical patent/JP2024029268A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

【課題】複数の使用者のそれぞれの特性に合わせて高精度にキャリブレーションを行うことができる操作入力装置及びキャリブレーション方法を提供する。【解決手段】一実施形態に係る操作入力装置において、計算部は、第1ボタンが押されたときにおける第1論理エリアの所定位置に対する対象物の位置である第1位置、第2ボタンが押されたときにおける第2論理エリアの所定位置に対する対象物の位置である第2位置、及び、第3ボタンが押されたときにおける第3論理エリアの所定位置に対する対象物の位置である第3位置、から対象物の基準位置を計算する。【選択図】図4The present invention provides an operation input device and a calibration method that can perform highly accurate calibration according to the characteristics of each of a plurality of users. In an operation input device according to an embodiment, a calculation unit is configured to store a first position, which is a position of an object relative to a predetermined position in a first logical area when a first button is pressed, and a first position when a second button is pressed. a second position that is the position of the object relative to a predetermined position in the second logical area when the third button is pressed; and a third position that is the position of the object relative to the predetermined position in the third logical area when the third button is pressed. , calculate the reference position of the object from . [Selection diagram] Figure 4

Description

本開示は、操作入力装置及びキャリブレーション方法に関する。 The present disclosure relates to an operation input device and a calibration method.

特開2017-16516号公報には、キャリブレーション操作を行う入力装置が記載されている。入力装置は、表示部と、タッチパネルと、制御部と、処理部とを備える。処理部は、座標変換部と、判定部と、表示制御部と、キャリブレーション処理部と、設定部と、出力部とを備える。表示部は操作をタッチ入力するための操作画面であり、複数のボタン画像を含む。タッチパネルは、抵抗膜式とされており、表示部に重ねて配置される。タッチパネルは、表示部に対するユーザのタッチ位置を検出する。 Japanese Unexamined Patent Publication No. 2017-16516 describes an input device that performs a calibration operation. The input device includes a display section, a touch panel, a control section, and a processing section. The processing section includes a coordinate conversion section, a determination section, a display control section, a calibration processing section, a setting section, and an output section. The display unit is an operation screen for inputting operations by touch, and includes a plurality of button images. The touch panel is of a resistive type and is placed over the display section. The touch panel detects a user's touch position on the display unit.

キャリブレーション処理部は、表示部に対するユーザのタッチ入力に基づいて、タッチ位置と対応位置との間の位置ずれ量を検出する。そして、キャリブレーション処理部は、その検出した位置ずれ量を相殺するように、座標変換部が座標変換の際に参照する所定の変換規則を補正する。 The calibration processing unit detects a positional shift amount between a touch position and a corresponding position based on a user's touch input to the display unit. Then, the calibration processing section corrects a predetermined transformation rule that the coordinate transformation section refers to during coordinate transformation so as to offset the detected positional deviation amount.

表示画面は、複数のボタン画像を有する。複数のボタン画像のうちの特定のボタン画像は基準位置を含む。ユーザが特定のボタン画像をタッチすると、タッチパネルがそのタッチに対するタッチ位置として検出位置を定める。そして、座標変換部が所定の変換規則を参照して当該検出位置を対応位置に座標変換する。当該対応位置が特定のボタン画像に含まれると、判定部は当該特定のボタンに対してタッチ入力が行われたと判定する。 The display screen has multiple button images. A specific button image among the plurality of button images includes a reference position. When the user touches a specific button image, the touch panel determines the detection position as the touch position for that touch. Then, the coordinate transformation unit coordinates transforms the detected position into a corresponding position by referring to a predetermined transformation rule. If the corresponding position is included in a specific button image, the determination unit determines that a touch input has been performed on the specific button.

また、キャリブレーション処理部は、特定のボタン画像に対してタッチ入力が行われると、そのタッチ入力をキャリブレーション操作として利用して位置ずれ補正を行う。キャリブレーション処理部は、特定のボタン画像に対するタッチ位置に対する対応位置と基準位置との差分を求める。そして、キャリブレーション処理部は、求めた差分を相殺するように、座標変換部が座標変換で参照する所定の変換規則を補正する。従って、基準位置と対応位置との間の位置ずれが補正される。その結果、タッチ位置と対応位置との間の位置ずれが補正される。 Further, when a touch input is performed on a specific button image, the calibration processing section uses the touch input as a calibration operation to correct positional deviation. The calibration processing unit calculates a difference between a reference position and a corresponding position for a touch position on a specific button image. Then, the calibration processing section corrects a predetermined transformation rule that the coordinate transformation section refers to in coordinate transformation so as to cancel out the obtained difference. Therefore, the positional deviation between the reference position and the corresponding position is corrected. As a result, the positional deviation between the touch position and the corresponding position is corrected.

特開2017-16516号公報JP 2017-16516 Publication

ところで、指等の対象物で画像を押して操作を実行する操作入力装置の場合、画像に表示されたボタンの位置と、指等の対象物によって押される位置とを合わせる処理であるキャリブレーションが必要となりうる。また、操作入力装置は、複数の使用者によって使用されることがある。この場合、例えば、指の太さ又はボタンに対する指の角度等が使用者によって異なるので、使用者によってボタンの押される位置が変わりうる。 By the way, in the case of an operation input device that performs operations by pressing an image with an object such as a finger, calibration is required, which is a process of matching the position of the button displayed on the image with the position pressed by the object such as a finger. It can be. Further, the operation input device may be used by multiple users. In this case, for example, the thickness of the finger or the angle of the finger relative to the button differs depending on the user, so the position at which the button is pressed may vary depending on the user.

操作する使用者ごとにキャリブレーションを行えば、使用者によってボタンの押される位置が変わっても、複数の使用者に対して高精度な操作を実現できる。しかしながら、前述したように、求めた差分を相殺するように座標変換で参照する所定の変換規則を補正するだけでは、高精度なキャリブレーションを実現できない場合がある。従って、複数の使用者のそれぞれの特性に合わせて高精度にキャリブレーションを行うことが求められる。 If calibration is performed for each user, highly accurate operation can be achieved for multiple users, even if the button is pressed at a different position depending on the user. However, as described above, highly accurate calibration may not be achieved simply by correcting a predetermined transformation rule referred to in coordinate transformation so as to cancel out the determined difference. Therefore, it is required to perform highly accurate calibration in accordance with the characteristics of each of a plurality of users.

本開示は、複数の使用者のそれぞれの特性に合わせて高精度にキャリブレーションを行うことができる操作入力装置及びキャリブレーション方法を提供することを目的とする。 An object of the present disclosure is to provide an operation input device and a calibration method that can perform highly accurate calibration according to the characteristics of each of a plurality of users.

本開示に係る操作入力装置は、光を照射して情報を画像として表示する表示装置と、画像に接近する対象物の位置を検出するセンサと、センサによって検出された対象物の位置から対象物の基準位置を計算する計算部と、を備え、表示装置は、センサが画像における対象物の位置を検出するための第1論理エリアに含まれる第1ボタンを表示し、センサが画像における対象物の位置を検出するための第2論理エリアに含まれる第2ボタンを第1論理エリアとは異なる場所に表示し、センサが画像における対象物の位置を検出するための第3論理エリアに含まれる第3ボタンを第1論理エリア及び第2論理エリアとは異なる場所に表示し、計算部は、第1ボタンが押されたときにおける第1論理エリアの所定位置に対する対象物の位置である第1位置、第2ボタンが押されたときにおける第2論理エリアの所定位置に対する対象物の位置である第2位置、及び、第3ボタンが押されたときにおける第3論理エリアの所定位置に対する対象物の位置である第3位置、から対象物の基準位置を計算する。 An operation input device according to the present disclosure includes a display device that displays information as an image by irradiating light, a sensor that detects the position of an object approaching the image, and an object that is detected from the position of the object detected by the sensor. a calculation unit for calculating a reference position of the object in the image, the display device displays a first button included in the first logical area for the sensor to detect the position of the object in the image; A second button included in a second logical area for detecting the position of the object is displayed in a location different from the first logical area, and the sensor is included in the third logical area for detecting the position of the object in the image. The third button is displayed in a location different from the first logical area and the second logical area, and the calculation unit calculates the position of the object relative to the predetermined position of the first logical area when the first button is pressed. a second position, which is the position of the object relative to a predetermined position in the second logical area when the second button is pressed, and the object relative to a predetermined position in the third logical area when the third button is pressed; The reference position of the object is calculated from the third position, which is the position of .

この操作入力装置では、表示装置が光を照射して情報を画像として表示し、画像に接近する指等の対象物の位置をセンサが検出する。操作入力装置は計算部を備え、計算部はセンサによって検出された対象物の位置から対象物の基準位置を計算する。このように計算部が対象物の基準位置を計算することにより、画像に表示されたボタンに対する対象物の押下位置を基準位置としてキャリブレーションすることができる。従って、対象物で操作する使用者ごとにキャリブレーションを行うことができるので、複数の使用者に対して高精度な操作を実現できる。また、表示装置は、第1論理エリアに含まれる第1ボタンを表示し、第2論理エリアに含まれる第2ボタンを第1論理エリアとは異なる場所に表示し、第3論理エリアに含まれる第3ボタンを第1論理エリア及び第2論理エリアとは異なる場所に表示する。計算部は、第1論理エリアの所定位置に対する対象物の第1位置、第2論理エリアの所定位置に対する対象物の第2位置、及び、第3論理エリアの所定位置に対する対象物の第3位置、から対象物の基準位置を計算する。計算部は、対象物による画像の押下位置である第1位置、第2位置及び第3位置から基準位置を計算するので、3点の位置を基に高精度にキャリブレーションを行うことができる。従って、複数の使用者の特性に合わせて高精度にキャリブレーションを行うことができる。 In this operation input device, a display device emits light to display information as an image, and a sensor detects the position of an object such as a finger approaching the image. The operation input device includes a calculation section, and the calculation section calculates a reference position of the object from the position of the object detected by the sensor. By the calculation unit calculating the reference position of the object in this manner, calibration can be performed using the pressed position of the object relative to the button displayed in the image as the reference position. Therefore, since calibration can be performed for each user who operates the object, highly accurate operation can be achieved for a plurality of users. Further, the display device displays a first button included in the first logical area, displays a second button included in the second logical area in a location different from the first logical area, and displays a second button included in the third logical area. The third button is displayed in a location different from the first logical area and the second logical area. The calculation unit calculates a first position of the object relative to a predetermined position in the first logical area, a second position of the object relative to the predetermined position in the second logical area, and a third position of the object relative to the predetermined position in the third logical area. , calculate the reference position of the object from . Since the calculation unit calculates the reference position from the first position, second position, and third position, which are the positions where the image is pressed by the object, it is possible to perform highly accurate calibration based on the positions of the three points. Therefore, highly accurate calibration can be performed in accordance with the characteristics of a plurality of users.

前述した操作入力装置は、表示装置からの光を複数回反射させて画像を表示する空中結像デバイスを備え、空中結像デバイスは、空中に虚像として画像を表示してもよい。この場合、空中に虚像として表示される画像に対しても高精度にキャリブレーションを行うことができる。従って、虚像として浮き出たように表示される表示面に対する操作性を向上させることができる。 The aforementioned operation input device includes an aerial imaging device that displays an image by reflecting light from the display device multiple times, and the aerial imaging device may display the image as a virtual image in the air. In this case, highly accurate calibration can be performed even for images displayed as virtual images in the air. Therefore, it is possible to improve the operability of the display surface that is displayed as a virtual image.

表示装置によって表示される画像は、複数の領域に分割されていてもよく、第1ボタンが表示される領域、第2ボタンが表示される領域、及び、第3ボタンが表示される領域、が互いに異なってもよい。この場合、第1ボタンが表示される領域、第2ボタンが表示される領域、及び第3ボタンが表示される領域、を互いに離間させることができるので、3点の位置からより高精度にキャリブレーションを行うことができる。 The image displayed by the display device may be divided into a plurality of areas, including an area where the first button is displayed, an area where the second button is displayed, and an area where the third button is displayed. They may be different from each other. In this case, since the area where the first button is displayed, the area where the second button is displayed, and the area where the third button is displayed can be separated from each other, the calibration can be performed with higher accuracy from three positions. tion can be carried out.

前述した操作入力装置は、操作入力装置の外部の機器に制御信号を出力して機器の動作を制御する信号出力部を備えてもよく、信号出力部は、第1ボタンが押されたとき、第2ボタンが押されたとき、及び、第3ボタンが押されたとき、のそれぞれにおいて機器に制御信号を出力してもよい。この場合、第1ボタン、第2ボタン及び第3ボタンのそれぞれを押すたびに信号出力部が機器に制御信号を出力するので、使用者による機器の操作と同時にキャリブレーションを行うことができる。従って、更なる操作性の向上に寄与する。 The aforementioned operation input device may include a signal output section that outputs a control signal to a device external to the operation input device to control the operation of the device, and the signal output section outputs a control signal when the first button is pressed. A control signal may be output to the device each time the second button is pressed and when the third button is pressed. In this case, since the signal output section outputs a control signal to the device each time the first, second, and third buttons are pressed, calibration can be performed simultaneously with the user's operation of the device. Therefore, it contributes to further improvement in operability.

本開示に係るキャリブレーション方法は、表示装置によって表示された画像に接近する対象物の位置から対象物の基準位置を計算するキャリブレーション方法であって、表示装置が画像として第1論理エリアに含まれる第1ボタンを表示する工程と、対象物によって第1ボタンが押されたときにおける第1論理エリアの所定位置に対する対象物の位置である第1位置を計算する工程と、表示装置が画像として第2論理エリアに含まれる第2ボタンを第1論理エリアとは異なる場所に表示する工程と、対象物によって第2ボタンが押されたときにおける第2論理エリアの所定位置に対する対象物の位置である第2位置を計算する工程と、表示装置が画像として第3論理エリアに含まれる第3ボタンを第1論理エリア及び第2論理エリアとは異なる場所に表示する工程と、対象物によって第3ボタンが押されたときにおける第3論理エリアの所定位置に対する対象物の位置である第3位置を計算する工程と、第1位置、第2位置、及び第3位置から対象物の基準位置を計算する工程と、を備える。 A calibration method according to the present disclosure is a calibration method for calculating a reference position of an object from a position of the object approaching an image displayed by a display device, wherein the display device is included as an image in a first logical area. calculating a first position that is the position of the object relative to a predetermined position in the first logical area when the first button is pressed by the object; displaying a second button included in the second logical area in a location different from the first logical area; and determining the position of the object relative to a predetermined position in the second logical area when the second button is pressed by the object. a step of calculating a certain second position; a step of causing the display device to display a third button included in the third logical area as an image in a location different from the first logical area and the second logical area; Calculating a third position, which is the position of the object with respect to a predetermined position in the third logical area when the button is pressed, and calculating a reference position of the object from the first position, second position, and third position. and a step of doing so.

このキャリブレーション方法では、表示装置が第1論理エリアに含まれる第1ボタンを表示し、計算部が第1論理エリアの所定位置に対する対象物の第1位置を計算する。表示装置が第2論理エリアに含まれる第2ボタンを表示し、計算部が第2論理エリアの所定位置に対する対象物の第2位置を計算する。表示装置が第3論理エリアに含まれる第3ボタンを表示し、計算部が第3論理エリアの所定位置に対する対象物の第3位置を計算する。そして、計算部は、対象物の第1位置、第2位置及び第3位置から対象物の基準位置を計算する。従って、前述した操作入力装置と同様、計算部が、対象物による画像の押下位置である第1位置、第2位置及び第3位置から基準位置を計算するので、3点の位置を基に高精度にキャリブレーションを行うことができる。その結果、複数の使用者の特性に合わせて高精度にキャリブレーションを行うことができる。 In this calibration method, a display device displays a first button included in a first logical area, and a calculation unit calculates a first position of the object relative to a predetermined position in the first logical area. The display device displays a second button included in the second logical area, and the calculation unit calculates a second position of the object relative to a predetermined position in the second logical area. The display device displays a third button included in the third logical area, and the calculation unit calculates a third position of the object with respect to a predetermined position in the third logical area. Then, the calculation unit calculates a reference position of the object from the first position, second position, and third position of the object. Therefore, like the operation input device described above, the calculation unit calculates the reference position from the first position, second position, and third position, which are the positions where the image is pressed by the object, so the height is high based on the positions of the three points. Accuracy can be calibrated. As a result, highly accurate calibration can be performed in accordance with the characteristics of a plurality of users.

本開示によれば、複数の使用者のそれぞれの特性に合わせて高精度にキャリブレーションを行うことができる。 According to the present disclosure, highly accurate calibration can be performed in accordance with the characteristics of each of a plurality of users.

実施形態に係る操作入力装置を模式的に示す斜視図である。FIG. 1 is a perspective view schematically showing an operation input device according to an embodiment. 実施形態に係る操作入力装置の内部構造を模式的に示す断面図である。FIG. 2 is a cross-sectional view schematically showing the internal structure of the operation input device according to the embodiment. 実施形態に係る操作入力装置の機能を示すブロック図である。FIG. 2 is a block diagram showing the functions of the operation input device according to the embodiment. 実施形態に係るキャリブレーション方法の工程を示すフローチャートである。It is a flowchart which shows the process of the calibration method concerning an embodiment. 実施形態に係るキャリブレーション方法の一工程を示す図である。FIG. 3 is a diagram showing one step of the calibration method according to the embodiment. (a)、(b)及び(c)は、実施形態に係るキャリブレーション方法で用いられる論理エリア及びボタンを示す図である。(a), (b), and (c) are diagrams showing logical areas and buttons used in the calibration method according to the embodiment. 実施形態に係るキャリブレーション方法の一工程を示す図である。FIG. 3 is a diagram showing one step of the calibration method according to the embodiment. 実施形態に係るキャリブレーション方法の一工程を示す図である。It is a figure showing one process of the calibration method concerning an embodiment. 実施形態に係るキャリブレーション方法の一工程を示す図である。FIG. 3 is a diagram showing one step of the calibration method according to the embodiment. 実施形態に係るキャリブレーション方法の一工程を示す図である。FIG. 3 is a diagram showing one step of the calibration method according to the embodiment. 実施形態に係るキャリブレーション方法の一工程を示す図である。FIG. 3 is a diagram showing one step of the calibration method according to the embodiment.

以下では、本開示に係る操作入力装置の実施形態について図面を参照しながら説明する。図面の説明において同一又は相当する要素には同一の符号を付し、重複する説明を適宜省略する。また、図面は、理解の容易化のため、一部を簡略化又は誇張して描いている場合があり、寸法比率及び角度等は図面に記載のものに限定されない。 Hereinafter, embodiments of an operation input device according to the present disclosure will be described with reference to the drawings. In the description of the drawings, the same or corresponding elements are given the same reference numerals, and redundant description will be omitted as appropriate. In addition, some parts of the drawings may be simplified or exaggerated for ease of understanding, and the dimensional ratios, angles, etc. are not limited to those shown in the drawings.

図1は、実施形態に係る一例としての操作入力装置1を示す斜視図である。一例としての操作入力装置1は、現金自動預け払い機(ATM:Automated teller Machine)に付属して設けられる。操作入力装置1は、空中に表示される虚像の表示面である画像10を使用者に向けて表示する。画像10は操作入力装置1における機器の操作画面である。一例としての操作入力装置1は、柱状を呈する。操作入力装置1は、第1方向D1、第2方向D2及び第3方向D3に延在する。 FIG. 1 is a perspective view showing an example of an operation input device 1 according to an embodiment. The operation input device 1 as an example is provided attached to an automated teller machine (ATM). The operation input device 1 displays an image 10, which is a display surface of a virtual image displayed in the air, toward the user. An image 10 is a device operation screen on the operation input device 1. The operation input device 1 as an example has a columnar shape. The operation input device 1 extends in a first direction D1, a second direction D2, and a third direction D3.

第1方向D1は操作入力装置1の奥行方向(前後方向)に相当し、第2方向D2は操作入力装置1の幅方向に相当し、第3方向D3は操作入力装置1の高さ方向に相当する。一例として、操作入力装置1の第3方向D3の長さ(高さ)は、操作入力装置1の第1方向D1の長さ(奥行)、及び操作入力装置1の第2方向D2の長さ(幅)よりも長い。これにより使用者に対する画像10の視認性を一層高めることが可能となる。しかしながら、操作入力装置1の第1方向D1の長さ、操作入力装置1の第2方向D2の長さ、及び操作入力装置1の第3方向D3の長さ、の関係は上記の例に限られず特に限定されない。 The first direction D1 corresponds to the depth direction (back and forth direction) of the operation input device 1, the second direction D2 corresponds to the width direction of the operation input device 1, and the third direction D3 corresponds to the height direction of the operation input device 1. Equivalent to. As an example, the length (height) of the operation input device 1 in the third direction D3 is the length (depth) of the operation input device 1 in the first direction D1, and the length (depth) of the operation input device 1 in the second direction D2. longer than (width). This makes it possible to further improve the visibility of the image 10 for the user. However, the relationship between the length of the operation input device 1 in the first direction D1, the length of the operation input device 1 in the second direction D2, and the length of the operation input device 1 in the third direction D3 is limited to the above example. There are no particular limitations.

以降では、説明の便宜のため、操作入力装置1から見て使用者側に向けられる方向を前又は前側、操作入力装置1から見て使用者の反対側に向けられる方向を後又は後側と称することがある。しかしながら、これらの方向は、説明の便宜上のものであり、部品の配置等を限定するものではない。 Hereinafter, for convenience of explanation, the direction facing the user when viewed from the operation input device 1 will be referred to as the front or front, and the direction facing away from the user when viewed from the operation input device 1 will be referred to as the rear or rear side. It is sometimes called. However, these directions are for convenience of explanation and do not limit the arrangement of components.

図2は、操作入力装置1の内部構造の例を示す縦断面図である。図1及び図2に示されるように、操作入力装置1は、操作入力装置1の外面を構成する筐体2を備える。筐体2は、例えば、鉛直上方を向く上面2bと、第2方向D2に沿って並ぶ一対の側面2cと、第1方向D1の一方側を向く前面2dと、第1方向D1の他方側を向く背面2fと、鉛直下方を向く下面2gとを有する。更に、筐体2は、前面2dの上側に位置する傾斜面2hを有する。 FIG. 2 is a longitudinal sectional view showing an example of the internal structure of the operation input device 1. As shown in FIG. As shown in FIGS. 1 and 2, the operation input device 1 includes a housing 2 that forms the outer surface of the operation input device 1. The housing 2 has, for example, an upper surface 2b facing vertically upward, a pair of side surfaces 2c lined up along the second direction D2, a front surface 2d facing one side in the first direction D1, and a front surface 2d facing the other side in the first direction D1. It has a back surface 2f that faces toward the front, and a lower surface 2g that faces vertically downward. Furthermore, the housing 2 has an inclined surface 2h located above the front surface 2d.

傾斜面2hには、例えば、後に詳述する空中結像デバイス14が露出する矩形状の開口が形成されている。傾斜面2hは、例えば、斜め上方に向けられている。空中結像デバイス14によって結像される画像10は、傾斜面2hよりも使用者寄りの位置に表示されるので、画像10の視認性を高めることができる。 For example, a rectangular opening through which an aerial imaging device 14, which will be described in detail later, is exposed is formed in the inclined surface 2h. For example, the inclined surface 2h is directed diagonally upward. Since the image 10 formed by the aerial imaging device 14 is displayed at a position closer to the user than the inclined surface 2h, the visibility of the image 10 can be improved.

操作入力装置1は、空中にボタン11付きの画像10を表示する。例えば、画像10のボタン11は、現金自動預け払い機を操作するためのボタンである。ボタン11付きの画像10は、空中に浮き出るように表示される空中浮遊像である。すなわち、ボタン11付きの画像10は、空中に虚像として表示される。よって、操作入力装置1の使用者は、直接タッチパネル等に触れなくて済むため衛生的に現金自動預け払い機を操作することが可能である。 The operation input device 1 displays an image 10 with a button 11 in the air. For example, button 11 in image 10 is a button for operating an automated teller machine. The image 10 with the button 11 is a floating image displayed so as to stand out in the air. That is, the image 10 with the button 11 is displayed as a virtual image in the air. Therefore, the user of the operation input device 1 is able to operate the automatic teller machine hygienically since he or she does not have to directly touch the touch panel or the like.

例えば、画像10には複数回ボタン11が表示され、使用者がボタン11を複数回操作することによって現金自動預け払い機を操作することが可能である。具体例として、ボタン11を押すことによって、現金自動預け払い機に対して引き落としの金額、預け入れの金額、振込金額又は暗証番号を指定することが可能となる。筐体2には、例えば、ボタン11に接近する対象物Fを検出するセンサ3が埋め込まれている。本開示において、「対象物」とは、ボタン11を操作して現金自動預け払い機等の機器を動作させるものを示しており、例えば、使用者の指を示している。 For example, a button 11 is displayed multiple times in the image 10, and the user can operate the automatic teller machine by operating the button 11 multiple times. As a specific example, by pressing the button 11, it becomes possible to specify the amount to be debited, the amount to be deposited, the amount to be transferred, or a password to the automated teller machine. For example, a sensor 3 for detecting an object F approaching the button 11 is embedded in the housing 2 . In the present disclosure, the "object" refers to something that operates a device such as an automated teller machine by operating the button 11, and indicates, for example, a user's finger.

センサ3は、例えば、ボタン11に対応して設けられており、ボタン11はセンサ3の斜め上方に表示される。ボタン11及びセンサ3の数は、単数であってもよいし、複数のであってもよい。画像10は、空中結像デバイス14よりも使用者寄りの位置に表示され、且つ空中結像デバイス14の斜め上方に表示される。これにより、使用者にとって画像10を視認しやすく表示することができる。 The sensor 3 is provided corresponding to, for example, a button 11, and the button 11 is displayed diagonally above the sensor 3. The number of buttons 11 and sensors 3 may be singular or plural. The image 10 is displayed at a position closer to the user than the aerial imaging device 14, and is displayed diagonally above the aerial imaging device 14. Thereby, the image 10 can be displayed easily for the user to visually recognize.

例えば、画像10は光って表示されてもよく、この場合、周囲の明るさにかかわらず容易に画像10を視認することができる。画像10は、例えば、縦に長く延びる形状を呈する。一例として、画像10は矩形状に表示され、画像10の縦方向の長さは画像10の横方向の長さよりも長い。しかしながら、画像10の形状及び大きさは上記の例に限られず特に限定されない。画像10は、ボタン11以外のものを表示してもよい。例えば、画像10は、複数のボタン11と文字情報とを含んでもよい。文字情報は、一例として、ボタン11の操作に関する情報、日付情報及び時刻情報の少なくともいずれかを含んでもよい。ボタン11の形状は、例えば、四角形状である。しかしながら、ボタン11の形状は、円形状、長円形状、又は多角形状であってもよく、特に限定されない。 For example, the image 10 may be displayed as glowing, in which case the image 10 can be easily viewed regardless of the surrounding brightness. For example, the image 10 has a shape that extends vertically. As an example, the image 10 is displayed in a rectangular shape, and the length of the image 10 in the vertical direction is longer than the length of the image 10 in the horizontal direction. However, the shape and size of the image 10 are not limited to the above example and are not particularly limited. The image 10 may display items other than the button 11. For example, the image 10 may include a plurality of buttons 11 and text information. The text information may include, for example, at least one of information regarding the operation of the button 11, date information, and time information. The button 11 has a rectangular shape, for example. However, the shape of the button 11 may be circular, oval, or polygonal, and is not particularly limited.

操作入力装置1は、ボタン11付きの画像10を虚像として表示する空中結像デバイス14と、筐体2の内部に配置された表示装置15と、制御部20とを備える。空中結像デバイス14及び表示装置15は、画像10を虚像として空中に表示する虚像表示部に相当する。空中結像デバイス14は、例えば、筐体2の傾斜面2hに形成された開口に固定されている再帰反射部材(再帰反射鏡)である。 The operation input device 1 includes an aerial imaging device 14 that displays an image 10 with a button 11 as a virtual image, a display device 15 disposed inside a housing 2, and a control unit 20. The aerial imaging device 14 and the display device 15 correspond to a virtual image display unit that displays the image 10 as a virtual image in the air. The aerial imaging device 14 is, for example, a retroreflective member (retroreflector) fixed to an opening formed in the inclined surface 2h of the housing 2.

表示装置15は、空中結像デバイス14に対して斜めに配置されている。一例として、表示装置15は液晶ディスプレイ(LCD)である。表示装置15は、筐体2の内部における空中結像デバイス14の後方位置に配置されている。表示装置15は、画像を表示するスクリーンを有する。表示装置15のスクリーンは、例えば、空中結像デバイス14に向けて斜め下方に画像としての光Cを照射する。空中結像デバイス14は、表示装置15からの光Cを空中結像デバイス14の内部において複数回(例えば2回)反射し、使用者から見て空中結像デバイス14よりも手前側の空間に画像10を結像する。 The display device 15 is arranged obliquely to the aerial imaging device 14 . As an example, display device 15 is a liquid crystal display (LCD). The display device 15 is arranged inside the housing 2 at a position behind the aerial imaging device 14 . Display device 15 has a screen that displays images. The screen of the display device 15, for example, irradiates light C as an image diagonally downward toward the aerial imaging device 14. The aerial imaging device 14 reflects the light C from the display device 15 multiple times (for example, twice) inside the aerial imaging device 14, and reflects the light C from the aerial imaging device 14 into a space in front of the aerial imaging device 14 when viewed from the user. Image 10 is formed.

センサ3は、例えば、筐体2の傾斜面2hにおいて斜め上方を向くように露出していてもよい。一例として、センサ3は、深度センサである。例えば、センサ3は、ボタン11から延びる仮想直線上、すなわち、虚像であるボタン11に対して正面位置に設けられる。センサ3は、当該仮想直線に対して垂直な面における対象物Fの位置(2次元位置)の情報と、センサ3から対象物Fまでの距離Kの情報とを含む距離画像データを取得する。 For example, the sensor 3 may be exposed on the inclined surface 2h of the housing 2 so as to face obliquely upward. As an example, sensor 3 is a depth sensor. For example, the sensor 3 is provided on a virtual straight line extending from the button 11, that is, in a position in front of the button 11, which is a virtual image. The sensor 3 acquires distance image data including information on the position (two-dimensional position) of the object F in a plane perpendicular to the virtual straight line and information on the distance K from the sensor 3 to the object F.

センサ3は、例えば、取得した距離画像データを所定の周期(例えば1/30秒)で制御部20に出力する。具体例として、センサ3は、対象物Fを含む撮影領域内に存在する物体上の各点に光線(又は赤外線)を照射し、物体上の各点から反射した光線を受光する。そして、センサ3は、受光した光線に基づいてセンサ3と物体上の各点との距離を測定し、測定した距離を画素毎に出力する。センサ3と物体上の各点との距離は、例えばLight Coding方式によって測定されてもよい。 For example, the sensor 3 outputs the acquired distance image data to the control unit 20 at a predetermined period (for example, 1/30 seconds). As a specific example, the sensor 3 irradiates a light beam (or infrared rays) to each point on an object existing in the photographing region including the target object F, and receives the light beam reflected from each point on the object. Then, the sensor 3 measures the distance between the sensor 3 and each point on the object based on the received light beam, and outputs the measured distance for each pixel. The distance between the sensor 3 and each point on the object may be measured by, for example, a light coding method.

Light Coding方式では、センサ3は、対象物Fを含む撮影領域内に存在する物体上の各点にランダムドットパターンで光線を照射する。そして、センサ3は、物体上の各点から反射した光線を受光し、反射した光線のパターンの歪みを検出することによって、センサ3と物体上の各点との距離を測定する。センサ3は、物体上の各点の2次元位置の情報と、センサ3から物体上の各点までの距離の情報とを複数の画素として検出し、検出した複数の画素を制御部20に出力する。 In the Light Coding method, the sensor 3 irradiates each point on the object, including the object F, within the imaging area with a light beam in a random dot pattern. Then, the sensor 3 measures the distance between the sensor 3 and each point on the object by receiving the light beam reflected from each point on the object and detecting the distortion of the pattern of the reflected light beam. The sensor 3 detects information on the two-dimensional position of each point on the object and information on the distance from the sensor 3 to each point on the object as a plurality of pixels, and outputs the detected plurality of pixels to the control unit 20. do.

制御部20は、センサ3及び表示装置15のそれぞれと通信可能とされている。制御部20は、例えば、プログラムを実行するCPU(Central Processing Unit)と、ROM(Read OnlyMemory)及びRAM(Random Access Memory)を含む記憶部と、入出力部と、ドライバとを含む。制御部20の各機能は、CPUの制御の下で入出力部を動作させ、記憶部におけるデータの読み出し又は書き込みを行うことによって実現される。制御部20の形態及び配置場所については特に限定されない。 The control unit 20 is capable of communicating with each of the sensor 3 and the display device 15. The control unit 20 includes, for example, a CPU (Central Processing Unit) that executes a program, a storage unit including a ROM (Read Only Memory) and a RAM (Random Access Memory), an input/output unit, and a driver. Each function of the control unit 20 is realized by operating the input/output unit under the control of the CPU and reading or writing data in the storage unit. The form and location of the control unit 20 are not particularly limited.

図3は、制御部20の機能ブロック図である。図2及び図3に示されるように、制御部20は、機能的構成要素として、画像出力部21と、対象物検出部22と、認識部23と、信号出力部24と、通知部25と、計算部26とを有する。画像出力部21は、表示装置15に表示させる画像の画像データの制御信号を表示装置15に出力する。表示装置15は、画像出力部21からの画像データの制御信号に基づいて、様々な種類の画像を表示することが可能である。 FIG. 3 is a functional block diagram of the control unit 20. As shown in FIGS. 2 and 3, the control unit 20 includes an image output unit 21, an object detection unit 22, a recognition unit 23, a signal output unit 24, and a notification unit 25 as functional components. , and a calculating section 26. The image output unit 21 outputs to the display device 15 a control signal for image data of an image to be displayed on the display device 15. The display device 15 is capable of displaying various types of images based on image data control signals from the image output section 21.

対象物検出部22は、センサ3から出力される距離画像データに基づいて対象物Fを検出する。対象物検出部22は、対象物Fを検出すると、対象物Fの位置を示す位置データを認識部23に出力する。認識部23は、対象物検出部22から出力された位置データに基づいて、対象物Fによってボタン11が押されたことを認識する。 The target object detection unit 22 detects the target object F based on the distance image data output from the sensor 3. When the target object F is detected, the target object detection unit 22 outputs position data indicating the position of the target object F to the recognition unit 23. The recognition unit 23 recognizes that the button 11 has been pressed by the object F based on the position data output from the object detection unit 22.

認識部23は、対象物検出部22によって検出された対象物Fの位置に基づいて、対象物Fによってボタン11が押されたかどうかを判定する。具体的には、認識部23は、センサ3と対象物Fとの距離Kが閾値Y以下であるか否かを判定する。そして、認識部23は、距離Kが閾値Y以下であると判定したときに、対象物Fが仮想の押下判定面Zに到達し、ボタン11が押されたと判定する。 The recognition unit 23 determines whether the button 11 has been pressed by the object F, based on the position of the object F detected by the object detection unit 22. Specifically, the recognition unit 23 determines whether the distance K between the sensor 3 and the object F is less than or equal to the threshold value Y. When the recognition unit 23 determines that the distance K is less than or equal to the threshold value Y, the recognition unit 23 determines that the object F has reached the virtual press determination surface Z and the button 11 has been pressed.

押下判定面Zは、センサ3からの距離が一定である部位に形成された仮想の面である。例えば、押下判定面Zは、ボタン11の近接位置に設けられる。押下判定面Zの位置は、ボタン11の位置と一致していてもよいし、ボタン11から所定距離だけ離間した位置であってもよい。 The press determination surface Z is a virtual surface formed at a constant distance from the sensor 3. For example, the press determination surface Z is provided at a position close to the button 11 . The position of the press determination surface Z may coincide with the position of the button 11, or may be a position separated from the button 11 by a predetermined distance.

通知部25は、ボタン11が押されたと認識部23が認識したときに認識部23から操作信号を受信する。通知部25は、ボタン11が操作されたと認識部23が認識したときに、ボタン11が操作されたことを操作入力装置1の使用者に通知する通知手段である。通知部25は、例えば、音声出力部25bと、色彩変更部25cとを有する。 The notification unit 25 receives an operation signal from the recognition unit 23 when the recognition unit 23 recognizes that the button 11 has been pressed. The notification unit 25 is a notification unit that notifies the user of the operation input device 1 that the button 11 has been operated when the recognition unit 23 recognizes that the button 11 has been operated. The notification section 25 includes, for example, an audio output section 25b and a color change section 25c.

一例として、音声出力部25bは、スピーカであり、認識部23から操作信号を受信したときに音声を出力する。音声出力部25bからの音声を使用者が聞くことにより、使用者はボタン11が操作された旨を把握可能となる。色彩変更部25cは、例えば、認識部23から操作信号を受信したときに色彩変更信号を生成し、色彩変更信号を表示装置15に出力する。 As an example, the audio output unit 25b is a speaker, and outputs audio when receiving an operation signal from the recognition unit 23. By hearing the audio from the audio output section 25b, the user can recognize that the button 11 has been operated. For example, the color change unit 25c generates a color change signal when receiving the operation signal from the recognition unit 23, and outputs the color change signal to the display device 15.

表示装置15は、色彩変更部25cから色彩変更信号を受信すると、例えば、使用者が押下したボタン11の色彩を変更する。ボタン11の色彩が変更されたことを使用者が視認することにより、使用者はボタン11が操作された旨を把握可能となる。なお、表示装置15は、色彩変更部25cから色彩変更信号を受信したときに、ボタン11以外の箇所の色彩を変更してもよい。 When the display device 15 receives the color change signal from the color change section 25c, it changes the color of the button 11 pressed by the user, for example. By visually recognizing that the color of the button 11 has been changed, the user can recognize that the button 11 has been operated. Note that the display device 15 may change the color of a portion other than the button 11 when receiving a color change signal from the color change section 25c.

以上の通知部25を備えることにより、使用者はボタン11が操作された旨を把握できる。しかしながら、通知部25では、音声出力部25b及び色彩変更部25cの少なくともいずれかが省略されてもよい。また、通知部25は、音声出力部25bによる音声出力、又は色彩変更部25cによる色彩変更、とは異なる態様でボタン11が操作された旨を使用者に通知してもよい。 By providing the above notification section 25, the user can know that the button 11 has been operated. However, in the notification section 25, at least one of the audio output section 25b and the color change section 25c may be omitted. Further, the notification unit 25 may notify the user that the button 11 has been operated in a manner different from the audio output by the audio output unit 25b or the color change by the color change unit 25c.

信号出力部24は、ボタン11が押されたと認識部23が認識したときに、ボタン11の押下操作に基づく制御信号を生成する。信号出力部24は、生成した制御信号を操作入力装置1の外部の機器(例えば前述した現金自動預け払い機)に送信し、制御信号を機器に送信することによって機器を動作させる。機器が現金自動預け払い機である場合には、現金の引き落とし、現金の預け入れ、振り込み、又は暗証番号の指定操作が実行される。 The signal output unit 24 generates a control signal based on the pressing operation of the button 11 when the recognition unit 23 recognizes that the button 11 has been pressed. The signal output unit 24 transmits the generated control signal to a device external to the operation input device 1 (for example, the above-mentioned automatic teller machine), and operates the device by transmitting the control signal to the device. If the device is an automated teller machine, the operation of withdrawing cash, depositing cash, transferring money, or specifying a password is performed.

計算部26は、対象物Fの基準位置を計算する。本開示において、「対象物の基準位置」とは、操作入力装置の使用者ごとに定められる対象物の押下傾向位置(ボタンのどの部分を押す傾向があるか)を示している。計算部26が対象物Fの基準位置を計算することにより、複数の使用者におけるボタン11が押される位置の個人差を補正することが可能となる。すなわち、ボタン11の押下位置のキャリブレーションを使用者ごとに行うことが可能となる。 The calculation unit 26 calculates the reference position of the object F. In the present disclosure, the "reference position of the target object" indicates the position of the target object at which the user tends to press (which part of the button the user tends to press), which is determined for each user of the operation input device. By the calculation unit 26 calculating the reference position of the object F, it becomes possible to correct individual differences in the position at which the button 11 is pressed among a plurality of users. That is, it becomes possible to calibrate the pressing position of the button 11 for each user.

以下では、本実施形態に係るキャリブレーション方法の例について図4を参照しながら説明する。図4は、計算部26の計算によって対象物Fの基準位置を計算する方法の各工程の例を示すフローチャートである。初期動作として、まず図5に示されるように、制御部20は表示装置15に領域A1,A2,A3,A4,A5,A6,A7、A8,A9に分割された画像10を表示させる。このように、表示装置15は画像10を9つの領域に分けて表示する。なお、分割された領域A1,A2,A3,A4,A5,A6,A7、A8,A9は使用者には視認されない。 An example of the calibration method according to this embodiment will be described below with reference to FIG. 4. FIG. 4 is a flowchart illustrating an example of each step of a method for calculating the reference position of the object F by calculation by the calculation unit 26. As an initial operation, first, as shown in FIG. 5, the control unit 20 causes the display device 15 to display the image 10 divided into areas A1, A2, A3, A4, A5, A6, A7, A8, and A9. In this way, the display device 15 divides the image 10 into nine areas and displays them. Note that the divided areas A1, A2, A3, A4, A5, A6, A7, A8, and A9 are not visible to the user.

また、操作入力装置1では、計算部26による対象物Fの基準位置の計算にあたり、図6(a)に示されるように、論理エリア12に含まれたボタン11がGUIパーツとして用いられる。論理エリア12は、画像10における対象物Fの位置を検出するための領域であり、例えば、ボタン11を囲むように形成されている。 Further, in the operation input device 1, when the calculation unit 26 calculates the reference position of the object F, the button 11 included in the logical area 12 is used as a GUI part, as shown in FIG. 6(a). The logical area 12 is an area for detecting the position of the object F in the image 10, and is formed to surround the button 11, for example.

図6(b)に示されるように、例えば、論理エリア12は、四角形状とされており、2本の対角線Lが交わる点である所定位置11b(後述する所定位置PX1、所定位置PX2、所定位置PX3に相当)を備える。所定位置11bは、例えば、ボタン11の中心位置を示している。また、図6(c)に示されるように、論理エリア12は、操作入力装置の使用者には視認されない。 As shown in FIG. 6B, for example, the logical area 12 has a rectangular shape, and a predetermined position 11b (a predetermined position PX1, a predetermined position PX2, a predetermined position PX2, and a predetermined position PX1, PX2, and (corresponding to position PX3). The predetermined position 11b indicates, for example, the center position of the button 11. Further, as shown in FIG. 6(c), the logical area 12 is not visible to the user of the operation input device.

以上のボタン11及び論理エリア12を用いて、制御部20は、図7及び図8に示されるように、表示装置15に第1論理エリア12Aに含まれる第1ボタン11Aを表示させる(第1ボタンを表示する工程、ステップS1)。例えば、表示装置15は、文字情報13と共に、領域A8に第1論理エリア12Aに含まれる第1ボタン11Aを表示する。このとき、第1論理エリア12Aも領域A8の内部に配置される。また、第1ボタン11Aは、例えば、操作開始ボタンである。 Using the button 11 and logical area 12 described above, the control unit 20 causes the display device 15 to display the first button 11A included in the first logical area 12A (first Displaying a button, step S1). For example, the display device 15 displays the first button 11A included in the first logical area 12A in the area A8 along with the text information 13. At this time, the first logical area 12A is also arranged inside the area A8. Further, the first button 11A is, for example, an operation start button.

続いて、図9に示されるように、対象物Fによって第1ボタン11Aが押されたときに、第1論理エリア12Aの所定位置PX1に対する対象物Fの位置である第1位置P1を計算部26が計算する(第1位置を計算する工程、ステップS2)。なお、対象物Fによって第1ボタン11Aが押されなくても第1論理エリア12Aの範囲内の領域が押された場合には、計算部26が計算を行うが、第1論理エリア12Aよりも外側が押された場合には、この押下操作は無効な操作として扱われる。一例として、計算部26は、所定位置PX1よりも右下の位置を対象物Fによって押された第1位置P1として計算し、制御部20の記憶部が第1位置P1を記憶する。 Subsequently, as shown in FIG. 9, when the first button 11A is pressed by the object F, the calculation unit calculates a first position P1 that is the position of the object F with respect to a predetermined position PX1 of the first logical area 12A. 26 calculates (step of calculating the first position, step S2). Note that even if the first button 11A is not pressed by the object F, if an area within the first logical area 12A is pressed, the calculation unit 26 performs calculation; If the outside is pressed, this pressing operation is treated as an invalid operation. As an example, the calculation unit 26 calculates a position lower right than the predetermined position PX1 as the first position P1 pressed by the object F, and the storage unit of the control unit 20 stores the first position P1.

次に、図10に示されるように、制御部20は、表示装置15に第2論理エリア12Bに含まれる第2ボタン11B1,11B2を表示させる(第2ボタンを表示する工程、ステップS3)。図10の例のように、表示装置15は複数の第2ボタンを表示してもよい。例えば、表示装置15は、文字情報17と共に、領域A6に第2論理エリア12Bに含まれる第2ボタン11B1,11B2を表示する。なお、表示装置15が第2ボタン11B1,11B2を表示する領域は、前述した領域A8以外の領域であればよいが、領域A8と同一の行又は同一の列でない領域(例えば領域A1、領域A4、領域A3又は領域A6)であることがより好ましい。 Next, as shown in FIG. 10, the control unit 20 causes the display device 15 to display the second buttons 11B1 and 11B2 included in the second logical area 12B (a step of displaying the second buttons, step S3). As in the example of FIG. 10, the display device 15 may display a plurality of second buttons. For example, the display device 15 displays the second buttons 11B1 and 11B2 included in the second logical area 12B in the area A6 together with the text information 17. Note that the area in which the display device 15 displays the second buttons 11B1 and 11B2 may be any area other than the area A8 described above, but may be an area other than the area A8 (for example, area A1, area A4) that is not in the same row or column as area A8. , area A3 or area A6).

例えば、第2ボタン11B1が押されたときに、信号出力部24が操作入力装置1の外部の機器に第2ボタン11B1に応じた制御信号を出力し、操作入力装置1の外部の機器が操作される。また、第2ボタン11B1が押されたときに、第2論理エリア12Bの所定位置PX2に対する対象物Fの位置である第2位置P2を計算部26が計算する(第2位置を計算する工程、ステップS4)。 For example, when the second button 11B1 is pressed, the signal output unit 24 outputs a control signal corresponding to the second button 11B1 to a device external to the operation input device 1, and the device external to the operation input device 1 operates. be done. Further, when the second button 11B1 is pressed, the calculation unit 26 calculates a second position P2 that is the position of the object F with respect to the predetermined position PX2 of the second logical area 12B (step of calculating the second position, Step S4).

例えば、計算部26は、所定位置PX2よりも右上の位置を対象物Fによって押された第2位置P2として計算し、制御部20の記憶部が第2位置P2を記憶する。また、対象物Fによって第2ボタン11B1,11B2が押されなくても第2論理エリア12Bの範囲内の領域が押された場合には、計算部26が計算を行うが、第2論理エリア12Bよりも外側が押された場合には、この押下操作は無効な操作として扱われる。 For example, the calculation unit 26 calculates the upper right position of the predetermined position PX2 as the second position P2 pressed by the object F, and the storage unit of the control unit 20 stores the second position P2. Further, even if the second buttons 11B1 and 11B2 are not pressed by the object F, if an area within the second logical area 12B is pressed, the calculation unit 26 performs calculation, but the second logical area 12B If the outside of the button is pressed, this pressing operation is treated as an invalid operation.

続いて、図11に示されるように、制御部20は、表示装置15に第3論理エリア12Cに含まれる第3ボタン11C1,11C2を表示させる(第3ボタンを表示する工程、ステップS5)。例えば、表示装置15は、文字情報16と共に、領域A1に第3論理エリア12Cに含まれる第3ボタン11C1,11C2を表示する。表示装置15が第3ボタン11C1,11C2を表示する領域は、前述した領域A8又は領域A6以外の領域であればよいが、領域A8又は領域A6と同一の行又は同一の列でない領域であることがより好ましい。 Subsequently, as shown in FIG. 11, the control unit 20 causes the display device 15 to display the third buttons 11C1 and 11C2 included in the third logical area 12C (a step of displaying the third button, step S5). For example, the display device 15 displays the third buttons 11C1 and 11C2 included in the third logical area 12C in the area A1 along with the text information 16. The area where the display device 15 displays the third buttons 11C1 and 11C2 may be any area other than the above-mentioned area A8 or area A6, but it must be an area that is not in the same row or column as area A8 or area A6. is more preferable.

例えば、第3ボタン11C2が押されたときに、信号出力部24が操作入力装置1の外部の機器に第3ボタン11C2に応じた制御信号を出力し、操作入力装置1の外部の機器が操作される。信号出力部24が操作入力装置1の外部の機器に第3ボタン11C2に応じた制御信号が出力され、操作入力装置1の外部の機器が操作される。 For example, when the third button 11C2 is pressed, the signal output unit 24 outputs a control signal corresponding to the third button 11C2 to a device external to the operation input device 1, and the device external to the operation input device 1 operates. be done. The signal output unit 24 outputs a control signal corresponding to the third button 11C2 to a device external to the operation input device 1, and the device external to the operation input device 1 is operated.

また、第3ボタン11C2が押されたときに、第3論理エリア12Cの所定位置PX3に対する対象物Fの位置である第3位置P3を計算部26が計算する(第3位置を計算する工程、ステップS6)。例えば、計算部26は、所定位置PX3よりも右下の位置を対象物Fによって押された第3位置P3として計算し、制御部20の記憶部が第3位置P3を記憶する。なお、対象物Fによって第3ボタン11C1,11C2が押されなくても第3論理エリア12Cの範囲内の領域が押された場合には、計算部26が計算を行うが、第3論理エリア12Cよりも外側が押された場合には、この押下操作は無効な操作として扱われる。 Further, when the third button 11C2 is pressed, the calculation unit 26 calculates a third position P3 that is the position of the object F with respect to the predetermined position PX3 of the third logical area 12C (step of calculating the third position, Step S6). For example, the calculation unit 26 calculates the lower right position of the predetermined position PX3 as the third position P3 pressed by the object F, and the storage unit of the control unit 20 stores the third position P3. Note that even if the third buttons 11C1 and 11C2 are not pressed by the object F, if an area within the third logical area 12C is pressed, the calculation unit 26 performs calculation; If the outside of the button is pressed, this pressing operation is treated as an invalid operation.

その後、計算部26は、制御部20の記憶部に記憶されている第1位置P1、第2位置P2及び第3位置P3から対象物Fの基準位置を計算する。一例として、計算部26は、所定位置PX1よりも右下の第1位置P1、所定位置PX2よりも右上の第2位置P2、及び所定位置PX3よりも右下の第3位置P3から、論理エリア12の所定位置11bの右側部分を基準位置として計算する。その後、一連の工程が完了し、例えば、所定位置11bの右側部分を基準位置としてその後の対象物Fによるボタン11の押下操作が実行される。 Thereafter, the calculation unit 26 calculates the reference position of the object F from the first position P1, second position P2, and third position P3 stored in the storage unit of the control unit 20. As an example, the calculation unit 26 calculates the logical area from a first position P1 to the lower right of the predetermined position PX1, a second position P2 to the upper right of the predetermined position PX2, and a third position P3 to the lower right of the predetermined position PX3. The calculation is performed using the right side of the 12 predetermined position 11b as the reference position. Thereafter, a series of steps is completed, and, for example, the subsequent pressing operation of the button 11 by the object F is performed using the right side of the predetermined position 11b as a reference position.

次に、本実施形態に係る操作入力装置1及びキャリブレーション方法から得られる作用効果について説明する。本実施形態に係る操作入力装置1及びキャリブレーション方法では、表示装置15が光Cを照射して情報を画像10として表示し、画像10に接近する指等の対象物Fの位置をセンサ3が検出する。操作入力装置1は計算部26を備え、計算部26はセンサ3によって検出された対象物Fの位置から対象物Fの基準位置を計算する。このように計算部26が対象物Fの基準位置を計算することにより、画像10に表示されたボタン11に対する対象物Fの押下位置を基準位置としてキャリブレーションすることができる。 Next, the effects obtained from the operation input device 1 and the calibration method according to this embodiment will be explained. In the operation input device 1 and the calibration method according to the present embodiment, the display device 15 emits light C to display information as an image 10, and the sensor 3 detects the position of an object F such as a finger approaching the image 10. To detect. The operation input device 1 includes a calculation section 26 , and the calculation section 26 calculates the reference position of the object F from the position of the object F detected by the sensor 3 . By the calculation unit 26 calculating the reference position of the object F in this manner, calibration can be performed using the pressed position of the object F with respect to the button 11 displayed on the image 10 as the reference position.

従って、対象物Fで操作する使用者ごとにキャリブレーションを行うことができるので、複数の使用者に対して高精度な操作を実現できる。また、表示装置15は、第1論理エリア12Aに含まれる第1ボタン11Aを表示し、第2論理エリア12Bに含まれる第2ボタン11B1,11B2を第1論理エリア12Aとは異なる場所に表示し、第3論理エリア12Cに含まれる第3ボタン11C1,11C2を第1論理エリア12A及び第2論理エリア12Bとは異なる場所に表示する。 Therefore, since calibration can be performed for each user who operates the object F, highly accurate operations can be achieved for a plurality of users. Furthermore, the display device 15 displays the first button 11A included in the first logical area 12A, and displays the second buttons 11B1 and 11B2 included in the second logical area 12B in a location different from the first logical area 12A. , the third buttons 11C1 and 11C2 included in the third logical area 12C are displayed in a different location from the first logical area 12A and the second logical area 12B.

計算部26は、第1論理エリア12Aの所定位置PX1に対する対象物Fの第1位置P1、第2論理エリア12Bの所定位置PX2に対する対象物Fの第2位置P2、及び、第3論理エリア12Cの所定位置PX3に対する対象物Fの第3位置P3、から対象物Fの基準位置を計算する。計算部26は、対象物Fによる画像10の実際の押下位置である第1位置P1、第2位置P2及び第3位置P3から基準位置を計算するので、3点の位置を基に高精度にキャリブレーションを行うことができる。従って、複数の使用者の特性に合わせて高精度にキャリブレーションを行うことができる。 The calculation unit 26 calculates a first position P1 of the object F with respect to a predetermined position PX1 of the first logical area 12A, a second position P2 of the object F with respect to a predetermined position PX2 of the second logical area 12B, and a third logical area 12C. The reference position of the object F is calculated from the third position P3 of the object F with respect to the predetermined position PX3. The calculation unit 26 calculates the reference position from the first position P1, the second position P2, and the third position P3, which are the actual pressed positions of the image 10 by the object F, so it can be calculated with high precision based on the positions of the three points. Calibration can be performed. Therefore, highly accurate calibration can be performed in accordance with the characteristics of a plurality of users.

本実施形態に係る操作入力装置1は、表示装置15からの光Cを複数回反射させて画像10を表示する空中結像デバイス14を備え、空中結像デバイス14は、空中に虚像として画像10を表示してもよい。よって、空中に虚像として表示される画像10に対しても高精度にキャリブレーションを行うことができる。従って、虚像として浮き出たように表示される表示面である画像10に対する操作性を向上させることができる。 The operation input device 1 according to the present embodiment includes an aerial imaging device 14 that displays an image 10 by reflecting light C from a display device 15 multiple times, and the aerial imaging device 14 displays the image 10 as a virtual image in the air. may be displayed. Therefore, even the image 10 displayed as a virtual image in the air can be calibrated with high precision. Therefore, it is possible to improve the operability of the image 10, which is the display surface that is displayed as a virtual image to stand out.

表示装置15によって表示される画像10は、領域A1~A9に分割されており、第1ボタン11Aが表示される領域A8、第2ボタン11B1,11B2が表示される領域A6、及び、第3ボタン11C1,11C2が表示される領域A1、が互いに異なる。よって、第1ボタン11Aが表示される領域A8、第2ボタン11B1,11B2が表示される領域A6、及び第3ボタン11C1,11C2が表示される領域A1、を互いに離間させることができるので、3点の位置からより高精度にキャリブレーションを行うことができる。 The image 10 displayed by the display device 15 is divided into areas A1 to A9, which include an area A8 where the first button 11A is displayed, an area A6 where the second buttons 11B1 and 11B2 are displayed, and a third button. The areas A1 where 11C1 and 11C2 are displayed are different from each other. Therefore, the area A8 where the first button 11A is displayed, the area A6 where the second buttons 11B1 and 11B2 are displayed, and the area A1 where the third buttons 11C1 and 11C2 are displayed can be spaced apart from each other. Calibration can be performed with higher accuracy from the position of the point.

本実施形態に係る操作入力装置1は、操作入力装置1の外部の機器に制御信号を出力して機器の動作を制御する信号出力部24を備えてもよく、信号出力部24は、第1ボタン11Aが押されたとき、第2ボタン11B1,11B2が押されたとき、及び、第3ボタン11C1,11C2が押されたとき、のそれぞれにおいて機器に制御信号を出力する。よって、第1ボタン11A、第2ボタン11B1,11B2及び第3ボタン11C1,11C2のそれぞれを押すたびに信号出力部24が機器に制御信号を出力するので、使用者による機器の操作と同時にキャリブレーションを行うことができる。従って、更なる操作性の向上に寄与する。 The operation input device 1 according to the present embodiment may include a signal output section 24 that outputs a control signal to a device external to the operation input device 1 to control the operation of the device. A control signal is output to the device when the button 11A is pressed, when the second buttons 11B1 and 11B2 are pressed, and when the third buttons 11C1 and 11C2 are pressed. Therefore, each time the first button 11A, the second buttons 11B1, 11B2, and the third buttons 11C1, 11C2 are pressed, the signal output unit 24 outputs a control signal to the device, so that the calibration can be performed simultaneously with the user's operation of the device. It can be performed. Therefore, it contributes to further improvement in operability.

以上、本開示に係る操作入力装置の実施形態について説明した。しかしながら、本開示に係る操作入力装置は、前述した実施形態に限定されるものではなく、各請求項に記載した要旨を変更しない範囲において変形し、又は他のものに適用したものであってもよい。すなわち、操作入力装置の各部の構成、形状、大きさ、数、材料及び配置態様は、前述した要旨を変更しない範囲において適宜変更可能である。 The embodiments of the operation input device according to the present disclosure have been described above. However, the operation input device according to the present disclosure is not limited to the above-described embodiments, and may be modified or applied to other things without changing the gist of each claim. good. That is, the configuration, shape, size, number, material, and arrangement of each part of the operation input device can be changed as appropriate without changing the gist described above.

例えば、前述の実施形態では、センサ3は、センサ3と物体上の各点との距離をLight Coding方式によって測定する例について説明したが、この方式に限定されない。例えば、センサ3は、センサ3と物体上の各点との距離を、TOF(Time Of Flight)方式によって測定してもよい。TOF方式では、センサ3は、光線が物体上の各点で反射してセンサ3に到達するまでの光線の飛行時間(遅れ時間)を算出し、算出した飛行時間と光の速度とから、センサ3と物体上の各点との距離を測定する。このような形態であっても、前述した実施形態と同様の効果を奏する。更に、センサの種類は深度センサに限定されない。すなわち、深度センサであるセンサ3に代えて、赤外線センサ又は超音波センサ等を備えていてもよく、センサの種類は適宜変更可能である。 For example, in the above-described embodiment, an example was described in which the sensor 3 measures the distance between the sensor 3 and each point on the object using the Light Coding method, but the method is not limited to this method. For example, the sensor 3 may measure the distance between the sensor 3 and each point on the object using a TOF (Time Of Flight) method. In the TOF method, the sensor 3 calculates the flight time (delay time) of the light ray until it reaches the sensor 3 after being reflected at each point on the object, and from the calculated flight time and the speed of light, the sensor 3 Measure the distance between 3 and each point on the object. Even with such a configuration, the same effects as those of the embodiment described above can be achieved. Furthermore, the type of sensor is not limited to a depth sensor. That is, instead of the sensor 3, which is a depth sensor, an infrared sensor, an ultrasonic sensor, or the like may be provided, and the type of sensor can be changed as appropriate.

また、前述の実施形態では、現金自動預け払い機に設けられる操作入力装置1について例示した。しかしながら、本開示に係る空中操作装置は、キッチン、トイレ、水回り、病院、公共機関、駅又は空港等に設けられていてもよい。例えば、キッチンに設けられる空中操作装置では、ボタン付きの表示面が空中に虚像として表示されることにより、食材が付着した指等でディスプレイに直接触れなくても、料理アプリを操作可能となる。すなわち、従来は携帯端末等のディスプレイを触るために、わざわざ手を洗ってからディスプレイに表示される料理アプリを操作していたが、本開示に係る空中操作装置では、ボタン付きの表示面が空中に虚像として表示されるので、空中のボタンを操作することによって料理アプリを操作できる。従って、わざわざ手を洗わなくても料理アプリを操作できるので、操作性が高い空中操作装置とすることができる。 Moreover, in the above-mentioned embodiment, the operation input device 1 provided in an automated teller machine was illustrated. However, the aerial operating device according to the present disclosure may be installed in a kitchen, a toilet, a water area, a hospital, a public institution, a station, an airport, etc. For example, in an aerial operation device installed in a kitchen, a display screen with buttons is displayed as a virtual image in the air, making it possible to operate a cooking app without directly touching the display with a finger or the like covered with food. That is, in the past, in order to touch the display of a mobile terminal, etc., one had to wash one's hands before operating a cooking app displayed on the display, but with the aerial operation device according to the present disclosure, the display surface with buttons is It is displayed as a virtual image, so you can operate the cooking app by operating the buttons in the air. Therefore, since the cooking application can be operated without taking the trouble of washing hands, it is possible to provide an aerial operating device with high operability.

例えば、ATM、病院、公共機関、駅又は空港に設けられる空中操作装置では、ボタン付きの表示面が空中に虚像として表示されることにより、共用のディスプレイを直接触らなくても、ATM、又は、病院若しくは空港の受付機等の操作を行うことが可能である。従って、共用のディスプレイへの指の接触を不要とすることができるので、衛生的に操作を行うことができる。 For example, in aerial operating devices installed at ATMs, hospitals, public institutions, stations, or airports, a display screen with buttons is displayed as a virtual image in the air, allowing users to operate ATMs or It is possible to operate reception machines at hospitals or airports. Therefore, since it is not necessary to touch the shared display with a finger, the operation can be performed hygienically.

また、前述の実施形態では、領域を9分割(領域A1,A2,A3,A4,A5,A6,A7,A8,A9に分割)して表示する表示装置15について説明した。しかしながら、本開示に係る表示装置は、領域を2分割以上且つ8分割以下、又は10分割以上に分けて画像を表示してもよい。更に、表示装置が4回以上ボタンを表示し、計算部が4回以上所定位置に対する対象物の位置を計算してもよい。この場合、キャリブレーションの精度を更に高めることができる。また、前述の実施形態では、虚像を表示する空中結像デバイス14及び表示装置15が空中に画像10を表示する例について説明した。しかしながら、本開示に係る操作入力装置は、空中結像デバイス14及び表示装置15に代えて、ディスプレイ上に画像を表示する表示装置を備えていてもよい。そして、ディスプレイの表示画面上の操作において前述したキャリブレーションが実行されてもよい。 Further, in the above-described embodiment, the display device 15 that divides the area into nine areas (divided into areas A1, A2, A3, A4, A5, A6, A7, A8, and A9) and displays the display device 15 has been described. However, the display device according to the present disclosure may display an image by dividing the area into two or more and eight or less, or ten or more. Furthermore, the display device may display the button four or more times, and the calculation unit may calculate the position of the object relative to the predetermined position four or more times. In this case, the precision of calibration can be further improved. Furthermore, in the embodiment described above, an example was described in which the aerial imaging device 14 and the display device 15 that display a virtual image display the image 10 in the air. However, the operation input device according to the present disclosure may include a display device that displays an image on a display instead of the aerial imaging device 14 and the display device 15. Then, the above-described calibration may be performed in an operation on the display screen of the display.

1…操作入力装置、2…筐体、2b…上面、2c…側面、2d…前面、2f…背面、2g…下面、2h…傾斜面、3…センサ、10…画像、11…ボタン、11A…第1ボタン、11b…所定位置、11B1,11B2…第2ボタン、11C1,11C2…第3ボタン、12…論理エリア、12A…第1論理エリア、12B…第2論理エリア、12C…第3論理エリア、13,16,17…文字情報、14…空中結像デバイス、15…表示装置、20…制御部、21…画像出力部、22…対象物検出部、23…認識部、24…信号出力部、25…通知部、25b…音声出力部、25c…色彩変更部、26…計算部、A1,A2,A3,A4,A5,A6,A7,A8,A9…領域、C…光、D1…第1方向、D2…第2方向、D3…第3方向、F…対象物、K…距離、L…対角線、P1…第1位置、P2…第2位置、P3…第3位置、PX1,PX2,PX3…所定位置、Y…閾値、Z…押下判定面。

1... Operation input device, 2... Housing, 2b... Top surface, 2c... Side surface, 2d... Front surface, 2f... Back surface, 2g... Bottom surface, 2h... Inclined surface, 3... Sensor, 10... Image, 11... Button, 11A... First button, 11b...predetermined position, 11B1, 11B2...second button, 11C1, 11C2...third button, 12...logical area, 12A...first logical area, 12B...second logical area, 12C...third logical area , 13, 16, 17... Character information, 14... Aerial imaging device, 15... Display device, 20... Control section, 21... Image output section, 22... Target detection section, 23... Recognition section, 24... Signal output section , 25...Notification section, 25b...Audio output section, 25c...Color change section, 26...Calculation section, A1, A2, A3, A4, A5, A6, A7, A8, A9...Area, C...Light, D1...th 1 direction, D2...second direction, D3...third direction, F...object, K...distance, L...diagonal line, P1...first position, P2...second position, P3...third position, PX1, PX2, PX3...Predetermined position, Y...Threshold value, Z...Press determination surface.

Claims (5)

光を照射して情報を画像として表示する表示装置と、
前記画像に接近する対象物の位置を検出するセンサと、
前記センサによって検出された対象物の位置から前記対象物の基準位置を計算する計算部と、
を備え、
前記表示装置は、
前記センサが前記画像における前記対象物の位置を検出するための第1論理エリアに含まれる第1ボタンを表示し、
前記センサが前記画像における前記対象物の位置を検出するための第2論理エリアに含まれる第2ボタンを前記第1論理エリアとは異なる場所に表示し、
前記センサが前記画像における前記対象物の位置を検出するための第3論理エリアに含まれる第3ボタンを前記第1論理エリア及び前記第2論理エリアとは異なる場所に表示し、
前記計算部は、
前記第1ボタンが押されたときにおける前記第1論理エリアの所定位置に対する前記対象物の位置である第1位置、前記第2ボタンが押されたときにおける前記第2論理エリアの所定位置に対する前記対象物の位置である第2位置、及び、前記第3ボタンが押されたときにおける前記第3論理エリアの所定位置に対する前記対象物の位置である第3位置、から前記対象物の基準位置を計算する、
操作入力装置。
a display device that displays information as an image by irradiating light;
a sensor that detects the position of an object approaching the image;
a calculation unit that calculates a reference position of the object from the position of the object detected by the sensor;
Equipped with
The display device includes:
displaying a first button included in a first logical area for the sensor to detect the position of the object in the image;
displaying a second button included in a second logical area for the sensor to detect the position of the object in the image in a location different from the first logical area;
displaying a third button included in a third logical area for the sensor to detect the position of the object in the image in a location different from the first logical area and the second logical area;
The calculation unit includes:
a first position, which is the position of the object relative to a predetermined position in the first logical area when the first button is pressed, and a first position relative to a predetermined position in the second logical area when the second button is pressed; A reference position of the object is determined from a second position, which is the position of the object, and a third position, which is the position of the object with respect to a predetermined position of the third logical area when the third button is pressed. calculate,
Operation input device.
前記表示装置からの光を複数回反射させて前記画像を表示する空中結像デバイスを備え、
前記空中結像デバイスは、空中に虚像として前記画像を表示する、
請求項1に記載の操作入力装置。
an aerial imaging device that displays the image by reflecting light from the display device multiple times;
the aerial imaging device displays the image as a virtual image in the air;
The operation input device according to claim 1.
前記表示装置によって表示される前記画像は、複数の領域に分割されており、
前記第1ボタンが表示される前記領域、前記第2ボタンが表示される前記領域、及び、前記第3ボタンが表示される前記領域、が互いに異なる、
請求項1又は2に記載の操作入力装置。
The image displayed by the display device is divided into a plurality of regions,
the area where the first button is displayed, the area where the second button is displayed, and the area where the third button is displayed are different from each other;
The operation input device according to claim 1 or 2.
前記操作入力装置の外部の機器に制御信号を出力して前記機器の動作を制御する信号出力部を備え、
前記信号出力部は、前記第1ボタンが押されたとき、前記第2ボタンが押されたとき、及び、前記第3ボタンが押されたとき、のそれぞれにおいて前記機器に制御信号を出力する、
請求項1~3のいずれか一項に記載の操作入力装置。
comprising a signal output unit that outputs a control signal to a device external to the operation input device to control the operation of the device,
The signal output unit outputs a control signal to the device each time the first button is pressed, the second button is pressed, and the third button is pressed.
The operation input device according to any one of claims 1 to 3.
表示装置によって表示された画像に接近する対象物の位置から前記対象物の基準位置を計算するキャリブレーション方法であって、
前記表示装置が前記画像として第1論理エリアに含まれる第1ボタンを表示する工程と、
前記対象物によって前記第1ボタンが押されたときにおける前記第1論理エリアの所定位置に対する前記対象物の位置である第1位置を計算する工程と、
前記表示装置が前記画像として第2論理エリアに含まれる第2ボタンを前記第1論理エリアとは異なる場所に表示する工程と、
前記対象物によって前記第2ボタンが押されたときにおける前記第2論理エリアの所定位置に対する前記対象物の位置である第2位置を計算する工程と、
前記表示装置が前記画像として第3論理エリアに含まれる第3ボタンを前記第1論理エリア及び前記第2論理エリアとは異なる場所に表示する工程と、
前記対象物によって前記第3ボタンが押されたときにおける前記第3論理エリアの所定位置に対する前記対象物の位置である第3位置を計算する工程と、
前記第1位置、前記第2位置、及び前記第3位置から前記対象物の基準位置を計算する工程と、を備える、
キャリブレーション方法。

A calibration method for calculating a reference position of an object from a position of the object approaching an image displayed by a display device, the method comprising:
a step in which the display device displays a first button included in the first logical area as the image;
calculating a first position that is the position of the object relative to a predetermined position of the first logical area when the first button is pressed by the object;
a step in which the display device displays a second button included in the second logical area as the image in a location different from the first logical area;
calculating a second position that is the position of the object relative to a predetermined position of the second logical area when the second button is pressed by the object;
a step in which the display device displays a third button included in the third logical area as the image in a location different from the first logical area and the second logical area;
calculating a third position that is the position of the object relative to a predetermined position of the third logical area when the third button is pressed by the object;
calculating a reference position of the object from the first position, the second position, and the third position;
Calibration method.

JP2020212714A 2020-12-22 2020-12-22 Operation input device and calibration method Pending JP2024029268A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020212714A JP2024029268A (en) 2020-12-22 2020-12-22 Operation input device and calibration method
PCT/JP2021/045113 WO2022138165A1 (en) 2020-12-22 2021-12-08 Operation input device and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020212714A JP2024029268A (en) 2020-12-22 2020-12-22 Operation input device and calibration method

Publications (1)

Publication Number Publication Date
JP2024029268A true JP2024029268A (en) 2024-03-06

Family

ID=82157723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020212714A Pending JP2024029268A (en) 2020-12-22 2020-12-22 Operation input device and calibration method

Country Status (2)

Country Link
JP (1) JP2024029268A (en)
WO (1) WO2022138165A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4763541B2 (en) * 2006-07-31 2011-08-31 クラリオン株式会社 Display device with touch panel and navigation device
WO2018003862A1 (en) * 2016-06-28 2018-01-04 株式会社ニコン Control device, display device, program, and detection method
DE112019002604T5 (en) * 2018-05-22 2021-03-25 Murakami Corporation Virtual image display device

Also Published As

Publication number Publication date
WO2022138165A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
US11379048B2 (en) Contactless control panel
US7492357B2 (en) Apparatus and method for detecting a pointer relative to a touch surface
KR101879586B1 (en) Method and system for managing implementation of augmented reality
US10091489B2 (en) Image capturing device, image processing method, and recording medium
US8730164B2 (en) Gesture recognition apparatus and method of gesture recognition
KR970006397B1 (en) Dynamic touchscreen button adjustment mechanism
US9086742B2 (en) Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
US20110141108A1 (en) Device and method for setting instructed position during three-dimensional display, as well as program
JP2013065061A (en) Projector
JP5693708B2 (en) Stereoscopic display device, instruction receiving method and program, and recording medium therefor
JP7361251B2 (en) Measuring device and method
US20120194511A1 (en) Apparatus and method for providing 3d input interface
US10573083B2 (en) Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system
KR101330531B1 (en) Method of virtual touch using 3D camera and apparatus thereof
JP2022007868A (en) Aerial image display input device and aerial image display input method
JP2024029268A (en) Operation input device and calibration method
US20150253932A1 (en) Information processing apparatus, information processing system and information processing method
JP2006302029A (en) Display device control program, display device control method and display device
JP2012103980A5 (en)
WO2021260989A1 (en) Aerial image display input device and aerial mage display input method
WO2022113687A1 (en) Aerial operation apparatus
US20210035311A1 (en) Operation detection device and operation detection method
JP2024004509A (en) Aerial operation apparatus
JP2023168064A (en) Aerial operation device
WO2021220623A1 (en) Operation input device