JP2024005440A - Input output device, input output method, and program - Google Patents

Input output device, input output method, and program Download PDF

Info

Publication number
JP2024005440A
JP2024005440A JP2022105618A JP2022105618A JP2024005440A JP 2024005440 A JP2024005440 A JP 2024005440A JP 2022105618 A JP2022105618 A JP 2022105618A JP 2022105618 A JP2022105618 A JP 2022105618A JP 2024005440 A JP2024005440 A JP 2024005440A
Authority
JP
Japan
Prior art keywords
user
unit
detection
display surface
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022105618A
Other languages
Japanese (ja)
Inventor
翔吾 宮野
Shogo Miyano
惇彦 前川
Atsuhiko Maekawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2022105618A priority Critical patent/JP2024005440A/en
Publication of JP2024005440A publication Critical patent/JP2024005440A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide an input output device which corrects misalignment between an operation position on an aerial operation surface and a response position of a display.SOLUTION: An input output device 1 includes: a display surface for displaying content; a detection unit 7 which detects motion of a user on the content displayed, in a position not on the display surface; an imaging unit (camera 5) which images the user; a correction unit which corrects the detection position detected by the detection unit 7 or the position of the content displayed on the display surface, on the basis of an image of the user captured by the imaging unit (camera 5); and an eye specifying unit which specifies the eyes of the user from the image captured by the imaging unit (camera 5). The correction unit corrects the detection position detected by the detection unit 7 on the basis of positions of the eyes of the user in the captured image specified by the eye specifying unit or a distance to the eyes of the user.SELECTED DRAWING: Figure 2

Description

本発明は、入出力装置、入出力方法、及びプログラムに関する。 The present invention relates to an input/output device, an input/output method, and a program.

例えば、特許文献1には、液晶表示パネルの表示面に透明なタッチセンサパネルを積層した、液晶表示パネルの表示手段及び透明なタッチセンサパネルの入力手段と、ペン等による位置情報の指示手段とを具備し、表示された図形をペン等で指し示して入力する情報処理装置において、上記タッチセンサパネルの近傍に所要の間隔で配設された複数のマイクにより入力される音声入力手段と、各々のマイクから入力された音声波形の位相のずれにより音源の位置を特定する音源位置特定回路と、補正量設定回路とを有し、音源からの音声によってタッチセンサパネルに対する操作者の方向を検出し、視差の補正を行うことを特徴とする情報処理装置における入力機能付き表示装置が開示されている。 For example, Patent Document 1 discloses a display means of a liquid crystal display panel, an input means of a transparent touch sensor panel, and a position information indicating means using a pen or the like, in which a transparent touch sensor panel is laminated on the display surface of the liquid crystal display panel. The information processing device inputs information by pointing at a displayed figure with a pen or the like, the information processing device comprising a plurality of microphones disposed near the touch sensor panel at predetermined intervals, and voice input means for receiving input from each microphone. It has a sound source position identifying circuit that identifies the position of the sound source based on the phase shift of the audio waveform input from the microphone, and a correction amount setting circuit, and detects the direction of the operator with respect to the touch sensor panel based on the audio from the sound source. A display device with an input function for an information processing device is disclosed, which is characterized by correcting parallax.

特開平8-101746JP 8-101746

空中操作面への操作位置とディスプレイの反応位置との位置ズレを補正する入出力装置を提供することを目的とする。 It is an object of the present invention to provide an input/output device that corrects a positional deviation between an operation position on an aerial operation surface and a reaction position of a display.

本発明に係る入出力装置1は、コンテンツを表示する表示面と、前記表示面とは異なる位置で、表示された前記コンテンツに対するユーザの動作を検知する検知部と、前記ユーザを撮影する撮影部と、前記撮影部により撮影されたユーザの画像に基づいて、前記検知部により検知された検知位置、又は、前記表示面に表示されるコンテンツの位置を補正する補正部とを有する。 The input/output device 1 according to the present invention includes a display surface that displays content, a detection unit that detects a user's action on the displayed content at a position different from the display surface, and a photography unit that photographs the user. and a correction section that corrects the detection position detected by the detection section or the position of the content displayed on the display surface based on the image of the user photographed by the photographing section.

好適には、前記撮影部により撮影された撮影画像からユーザの目を特定する目特定部をさらに有し、前記補正部は、前記目特定部により特定された撮影画像におけるユーザの目の位置、又はユーザの目までの距離に基づいて、前記検知部により検知された検知位置を補正する。 Preferably, the camera further includes an eye identifying section that identifies the user's eyes from the photographed image photographed by the photographing section, and the correction section determines the position of the user's eyes in the photographed image identified by the eye identifying section; Alternatively, the detection position detected by the detection unit is corrected based on the distance to the user's eyes.

好適には、前記補正部は、前記目特定部により特定されたユーザの目の位置、目までの距離、及び、前記検知部による前記表示面における検知位置の領域に基づいて、補正量を決定する。 Preferably, the correction unit determines the correction amount based on the position of the user's eye specified by the eye identification unit, the distance to the eye, and the area of the detection position on the display surface by the detection unit. do.

好適には、前記検知部は、前記表示面から1cm以上5cm以下手前でユーザの動作を検知し、前記補正部は、前記表示面の上部、中央部及び下部で、補正量を決定する。 Preferably, the detection section detects a user's motion at a distance of 1 cm or more and 5 cm or less from the display surface, and the correction section determines the amount of correction at an upper, central, and lower portion of the display surface.

好適には、前記目特定部により特定された目の間隔に基づいて、前記表示面から目までの距離を算出する相対位置算出部をさらに有し、前記補正部は、前記相対位置算出部により算出された前記表示面から目までの距離に基づいて、補正量を決定する。 Preferably, the correction unit further includes a relative position calculation unit that calculates a distance from the display surface to the eyes based on the distance between the eyes specified by the eye identification unit, and the correction unit A correction amount is determined based on the calculated distance from the display surface to the eyes.

好適には、前記撮影部は、操作時にユーザを撮影し、前記補正部は、前記撮影部により撮影された画像に基づいて操作位置を補正する。 Preferably, the photographing section photographs the user during the operation, and the correction section corrects the operating position based on the image photographed by the photographing section.

本発明に係る入出力方法は、コンテンツを表示する表示面とは異なる位置で、表示された前記コンテンツに対するユーザの動作を検知する検知ステップと、前記ユーザを撮影する撮影ステップと、前記撮影ステップにより撮影されたユーザの画像に基づいて、前記検知ステップにより検知された検知位置、又は、前記表示面に表示されるコンテンツの位置を補正する補正ステップとを有する。 The input/output method according to the present invention includes a detection step of detecting a user's action on the displayed content at a position different from a display surface on which the content is displayed, a photographing step of photographing the user, and the photographing step. and a correction step of correcting the detection position detected by the detection step or the position of the content displayed on the display surface based on the photographed image of the user.

本発明に係るプログラムは、コンテンツを表示する表示面とは異なる位置で、表示された前記コンテンツに対するユーザの動作を検知する検知ステップと、前記ユーザを撮影する撮影ステップと、前記撮影ステップにより撮影されたユーザの画像に基づいて、前記検知ステップにより検知された検知位置、又は、前記表示面に表示されるコンテンツの位置を補正する補正ステップとをコンピュータに実行させる。 The program according to the present invention includes a detection step of detecting a user's motion with respect to the displayed content at a position different from a display surface where the content is displayed, a photographing step of photographing the user, and a photographing step of the photographing step. The computer is caused to execute a correction step of correcting the detection position detected in the detection step or the position of the content displayed on the display surface based on the image of the user.

空中操作面への操作位置とディスプレイの反応位置との位置ズレを補正する入出力装置を提供する。 To provide an input/output device that corrects a positional deviation between an operation position on an aerial operation surface and a reaction position of a display.

各身長のユーザにおける、視線と空中操作面13の反応位置とのズレを説明するイメージ図である。FIG. 6 is an image diagram illustrating the deviation between the line of sight and the reaction position of the aerial operation surface 13 for users of various heights. (a)は、入力装置1を横から見た場合の構成を例示する図であり、(b)は、入出力装置1をユーザ側から見た構成を例示する図である。(a) is a diagram illustrating the configuration of the input device 1 when viewed from the side, and (b) is a diagram illustrating the configuration of the input/output device 1 viewed from the user side. 入出力装置1のハードウェア構成を例示する図である。1 is a diagram illustrating a hardware configuration of an input/output device 1. FIG. 制御部11の機能構成を例示する図である。3 is a diagram illustrating a functional configuration of a control unit 11. FIG. 空中操作面13とディスプレイ3の4隅との視差のズレ量を例示する図である。3 is a diagram illustrating the amount of parallax shift between the aerial operation surface 13 and the four corners of the display 3. FIG. 入出力装置1による位置ズレ補正処理(S10)を説明する図である。FIG. 3 is a diagram illustrating positional deviation correction processing (S10) by the input/output device 1. FIG.

[背景]
本発明がなされた背景を説明する。
KIOSK端末などを非接触化する目的として、空中で指先検知を行うことで画面にタッチすることなくパネル操作を行う機器が増えている。この指先が所定の位置にあるかどうかを検知するために赤外線センサや、静電容量式センサ、カメラによる3次元座標で検知する方式がある。既存のタッチパネル製品に対して空中で非接触操作を行うためのセンサを後付けする場合には、表示面に対して平行に操作面が空中にできる形となる。
コンビニのKIOSK端末などのディスプレイは正面から見て斜めとなって設置されている。通常のタッチパネル操作では画面を真正面から見ない場合でも、空中操作面の反応する位置は視線上同じ位置であるため、問題は生じない。
一方、空中に非接触入力のために操作面を浮かび上がらせた場合、どんな人でも、ディスプレイに対して操作しようとした場合、ディスプレイと反応部において視差が発生する。そのため、選択ボタンをタッチしようとした場合、空中操作の高さとの視線位置ズレによって、狙った場所に対してズレが発生する。
[background]
The background on which the present invention was made will be explained.
In order to make KIOSK terminals and other devices contactless, an increasing number of devices are using fingertip detection in the air to operate panels without touching the screen. In order to detect whether or not the fingertip is in a predetermined position, there are methods of detecting with three-dimensional coordinates using an infrared sensor, a capacitive sensor, or a camera. When a sensor for non-contact operation in the air is retrofitted to an existing touch panel product, the operation surface is formed in the air parallel to the display surface.
Displays such as KIOSK terminals at convenience stores are installed diagonally when viewed from the front. In normal touch panel operation, even if you do not look directly at the screen, no problem occurs because the aerial operation surface responds at the same position in your line of sight.
On the other hand, if an operation surface is raised in the air for non-contact input, if any person attempts to operate the display, parallax will occur between the display and the reaction section. Therefore, when attempting to touch the selection button, the position of the line of sight differs from the height of the aerial operation, causing a deviation from the desired location.

そこで、入出力装置1は、図2に例示するように、ディスプレイ3に設置したカメラ5を用いて、ユーザの目の位置及びディスプレイ3からの距離を推測し、推測した距離に基づいて、ユーザの目線位置から見たディスプレイ3と空中操作面13との位置ズレを補正し、身長の違いなどによる使用し辛さを解消する。 Therefore, as illustrated in FIG. 2, the input/output device 1 uses a camera 5 installed on the display 3 to estimate the position of the user's eyes and the distance from the display 3, and based on the estimated distance, The positional deviation between the display 3 and the aerial operation surface 13 as seen from the line of sight is corrected, and the difficulty of use due to differences in height etc. is eliminated.

本発明の実施形態を、図面を参照して説明する。
図1は、低身長から高身長までの人がKIOSK端末を操作する場合、ディスプレイ3に表示されるコンテンツをタッチしようとした際に、空中操作面13のどの部分を選択してしまうかを例示するイメージ図である。
図1に例示するように、低身長の人は、ディスプレイ3上部のコンテンツに対し、大きく下を選択し、ディスプレイ3中央部のコンテンツに対し、やや下を選択し、ディスプレイ3下部のコンテンツに対し、やや上を選択してしまう。
また、中くらいの身長の人は、ディスプレイ3上部のコンテンツに対し、やや下を選択し、ディスプレイ3中央部のコンテンツに対してはズレることなく選択し、ディスプレイ3下部のコンテンツに対し、やや上を選択してしまう。
さらに、高身長の人は、ディスプレイ3上部のコンテンツに対してはズレることなく選択し、ディスプレイ3中央部のコンテンツに対してはやや上を選択し、ディスプレイ3下部のコンテンツに対し、大きく上を選択してしまう。
したがって、視差のズレ量は、ユーザの目の位置と、ディスプレイ3の上部、中央部、及び下部それぞれの位置とで変わる。すなわち、入出力装置1が、ユーザの目の中間点と、ディスプレイ3との相対位置を算出し、算出した相対位置に基づいて、ユーザの視線と空中操作面13との反応位置の誤差をリアルタイムに補正することで、ユーザは、違和感なく操作が可能となる。
Embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows an example of which part of the aerial operation surface 13 is selected when a person from short to tall tries to touch the content displayed on the display 3 when operating a KIOSK terminal. This is an image diagram.
As illustrated in Figure 1, a short person selects the content at the top of the display 3 to be much lower, the content at the center of the display 3 to be slightly lower, and the content at the bottom of the display 3 to the lower part. , I end up choosing a little higher.
In addition, a person of medium height will select the content at the top of the display 3 slightly below, select the content at the center of the display 3 without shifting, and select the content at the bottom of the display 3 slightly above. I end up choosing.
Furthermore, tall people select content at the top of the display 3 without shifting, select content at the center of the display 3 slightly above, and select content at the bottom of the display 3 significantly above. I end up choosing.
Therefore, the amount of parallax shift changes depending on the position of the user's eyes and the positions of the top, center, and bottom of the display 3. That is, the input/output device 1 calculates the relative position between the midpoint of the user's eyes and the display 3, and calculates the error in the reaction position between the user's line of sight and the aerial operation surface 13 in real time based on the calculated relative position. By correcting this, the user can operate without feeling uncomfortable.

図2は、入出力装置1の構成を例示する図である。
図2(a)及び(b)に例示するように、入出力装置1は、KIOSK端末であり、ディスプレイ3と、カメラ5と、検知部7と、筐体9と、筐体9内に収納される制御部11と、空中操作面13とを有する。
ディスプレイ3は、筐体9の上側(表側)の開口部分に蓋をするように、取り付けられて固定され、コンテンツを表示する。ディスプレイ3は、本発明に係る表示面の一例である。
検知部7は、ディスプレイ3とは異なる位置で、ディスプレイ3に表示されたコンテンツに対するユーザの動作を検知する。具体的には、検知部7は、ディスプレイ3から1cm以上5cm以下手前でユーザの動作を検知する、より具体的には、検知部7は、センサであり、ディスプレイ3の1cm以上3cm以下手前で指先操作を検知する。
カメラ5は、ユーザを撮影する撮影装置であり、筐体9内に配置され、入出力装置1のユーザの顔を撮影する。カメラ5は、本発明に係る撮影部の一例である。
筐体9は、制御部11を収納する。
制御部11は、ソフトウェアが内蔵され、カメラ5、ディスプレイ3、及び検知部7と有線又は無線で接続され、カメラ5により撮影されたユーザの目の位置に応じて、ディスプレイ3と、空中操作面13との位置ズレを補正する。
空中操作面13は、検知部7による、ディスプレイ3に表示されたコンテンツに対するユーザの動作を検知可能な範囲である。
FIG. 2 is a diagram illustrating the configuration of the input/output device 1. As shown in FIG.
As illustrated in FIGS. 2(a) and 2(b), the input/output device 1 is a KIOSK terminal, and includes a display 3, a camera 5, a detection unit 7, a housing 9, and a housing 9. It has a control section 11 and an aerial operation surface 13.
The display 3 is attached and fixed so as to cover the opening on the upper side (front side) of the housing 9, and displays content. The display 3 is an example of a display surface according to the present invention.
The detection unit 7 detects a user's action on the content displayed on the display 3 at a position different from the display 3. Specifically, the detection unit 7 detects the user's motion at a distance of 1 cm or more and 5 cm or less from the display 3. More specifically, the detection unit 7 is a sensor and detects the user's motion at a distance of 1 cm or more and 3 cm or less in front of the display 3. Detects fingertip operations.
The camera 5 is a photographing device that photographs the user, and is disposed within the housing 9 to photograph the face of the user of the input/output device 1 . The camera 5 is an example of a photographing unit according to the present invention.
The housing 9 houses the control unit 11.
The control unit 11 has built-in software and is connected to the camera 5, the display 3, and the detection unit 7 by wire or wirelessly. 13 is corrected.
The aerial operation surface 13 is a range in which the detection unit 7 can detect the user's actions regarding the content displayed on the display 3.

図3は、入出力装置1のハードウェア構成を例示する図である。
図3に例示するように、入出力装置1は、CPU100、メモリ102、不揮発性のメモリ104、ネットワークインタフェース106(ネットワークIF106)、ディスプレイ3、カメラ5、及び検知部7を有し、これらの構成はバス108を介して互いに接続している。
CPU100は、例えば、中央演算装置である。
メモリ102は、例えば、揮発性メモリであり、主記憶装置として機能する。
不揮発性メモリ104は、例えば、不揮発性の記憶装置としてコンピュータプログラム(例えば、図4の位置ズレ補正プログラム12)を格納する。
ネットワークIF106は、有線又は無線で通信するためのインタフェースである。
ディスプレイ3は、表示面の一例であり、例えば、液晶タッチパネルである。
カメラ5は、ユーザを撮影する撮影装置である。
検知部7は、例えば、静電容量式タッチパネルである。
FIG. 3 is a diagram illustrating the hardware configuration of the input/output device 1. As shown in FIG.
As illustrated in FIG. 3, the input/output device 1 includes a CPU 100, a memory 102, a nonvolatile memory 104, a network interface 106 (network IF 106), a display 3, a camera 5, and a detection unit 7, and these configurations are connected to each other via a bus 108.
CPU 100 is, for example, a central processing unit.
The memory 102 is, for example, a volatile memory and functions as a main storage device.
The nonvolatile memory 104 stores a computer program (for example, the positional deviation correction program 12 in FIG. 4) as a nonvolatile storage device, for example.
The network IF 106 is an interface for wired or wireless communication.
The display 3 is an example of a display surface, and is, for example, a liquid crystal touch panel.
The camera 5 is a photographing device that photographs the user.
The detection unit 7 is, for example, a capacitive touch panel.

図4は、制御部11の機能構成を例示する図である。
図4に例示するように、制御部11には、位置ズレ補正プログラム12がインストールされる。位置ズレ補正プログラム12は、顔検出部120、目特定部122、マップ作成部124、相対位置算出部126、マップ切替え部128、及び補正部130を有し、補正部130には、補正量決定部132、及びズレ補正部134が含まれる。
顔検出部120は、カメラ5による撮影範囲内にユーザの顔が納まっているか否かを判定し、収まっている場合に、カメラ5によりユーザの顔を撮影する。
FIG. 4 is a diagram illustrating the functional configuration of the control section 11. As shown in FIG.
As illustrated in FIG. 4, a positional deviation correction program 12 is installed in the control unit 11. The positional deviation correction program 12 includes a face detection section 120, an eye identification section 122, a map creation section 124, a relative position calculation section 126, a map switching section 128, and a correction section 130. 132 and a deviation correction section 134.
The face detection unit 120 determines whether the user's face is within the photographing range of the camera 5, and if the user's face is within the photographing range, the camera 5 photographs the user's face.

目特定部122は、顔検出部120により撮影された顔画像に基づいて、ユーザの目を特定する。具体的には、目特定部122は、ユーザの右目及び左目を特定する。より具体的には、目特定部122は、右目と左目の中間位置を特定する。
マップ作成部124は、あるユーザの目の中間位置である基準位置に対して、ディスプレイ3内の位置(例:100×100ならば1000カ所)のズレ量のマップを作成する。 具体的には、マップ作成部124は、基準位置とディスプレイ3の4隅と空中操作面13の視差のズレ量を計算する。図5に例示するように、ディスプレイ3の4隅のズレ量は、空中操作面13と交わる点で定まり、ディスプレイ3の4隅がそれぞれの方向で最大のズレとなる。より具体的には、マップ作成部124は、基準位置との距離や位置関係を変えることで、ディスプレイ3内のそれぞれの位置でのズレ量のマップを作成する。
The eye identification unit 122 identifies the user's eyes based on the face image photographed by the face detection unit 120. Specifically, the eye identification unit 122 identifies the user's right eye and left eye. More specifically, the eye identifying unit 122 identifies an intermediate position between the right eye and the left eye.
The map creation unit 124 creates a map of the amount of deviation of positions within the display 3 (for example, 1000 positions for 100×100) with respect to a reference position that is an intermediate position of a certain user's eyes. Specifically, the map creation unit 124 calculates the amount of parallax shift between the reference position, the four corners of the display 3, and the aerial operation surface 13. As illustrated in FIG. 5, the amount of deviation of the four corners of the display 3 is determined by the point where it intersects with the aerial operation surface 13, and the four corners of the display 3 have the largest deviation in each direction. More specifically, the map creation unit 124 creates a map of the amount of deviation at each position within the display 3 by changing the distance and positional relationship with the reference position.

相対位置算出部126は、目の間隔に基づいて、ディスプレイ3からユーザの目までの距離を算出する。
マップ切替え部128は、目の基準位置(目の中間位置)とディスプレイ3との相対位置に基づいて、ズレ量のマップを切り替える。
補正部130は、カメラ5により撮影されたユーザの画像に基づいて、検知部7により検知された検知位置、又は、ディスプレイ3に表示されるコンテンツの位置を補正する。具体的には、補正部130は、カメラ5がユーザの操作時に撮影した画像に基づいて、操作位置を補正する。
補正量決定部132は、ユーザの目の位置、ユーザの目までの距離、及びディスプレイ3における検知位置の領域に基づいて、補正量を決定する。具体的には、補正量決定部132は、ユーザ目の位置と、ディスプレイ3の上部、中央部、及び下部との相対位置に基づいて、補正量を決定する。より具体的には、補正量決定部132は、マップ切替え部128により切り替えられたズレ量のマップに基づいて、補正量を決定する。
ズレ補正部134は、補正量決定部132により決定された補正量に基づいて、指の検知位置に対してズレ補正を行う。
なお、位置ズレ補正プログラム12の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。
The relative position calculation unit 126 calculates the distance from the display 3 to the user's eyes based on the distance between the eyes.
The map switching unit 128 switches the map of the amount of deviation based on the relative position between the reference position of the eye (intermediate position of the eye) and the display 3.
The correction unit 130 corrects the detection position detected by the detection unit 7 or the position of the content displayed on the display 3 based on the image of the user captured by the camera 5. Specifically, the correction unit 130 corrects the operation position based on an image taken by the camera 5 during the user's operation.
The correction amount determining unit 132 determines the correction amount based on the position of the user's eyes, the distance to the user's eyes, and the area of the detected position on the display 3. Specifically, the correction amount determining unit 132 determines the correction amount based on the relative positions of the user's eyes and the top, center, and bottom of the display 3. More specifically, the correction amount determining unit 132 determines the correction amount based on the map of the amount of deviation switched by the map switching unit 128.
The deviation correction unit 134 performs deviation correction on the detected position of the finger based on the correction amount determined by the correction amount determination unit 132.
Note that part or all of the positional deviation correction program 12 may be realized by hardware such as an ASIC, or may be realized by borrowing some functions of an OS (Operating System).

図6は、入出力装置1による位置ズレ補正処理(S10)を説明するフローチャートである。
図6に例示するように、ステップ100(S100)において、マップ作成部124は、あるユーザの目の基準位置に対して、ディスプレイ3内の各位置のズレ量のマップを作成する。
ステップ105(S105)において、顔検出部120は、ユーザの顔がカメラ5の撮影範囲内に収まっているか否かを判定する。撮影範囲内に収まっている場合に、S110へ移行し(S105:Yes)、撮影範囲内に収まっていない場合に、ユーザの顔が撮影範囲内に収まるまで待機する(S105:No)。
ステップ110(S110)において、顔検出部120は、カメラ5によりユーザの顔を撮影し、目特定部122は、撮影画像におけるユーザの右目と左目の中間位置を基準位置として特定する。
FIG. 6 is a flowchart illustrating the positional deviation correction process (S10) by the input/output device 1.
As illustrated in FIG. 6, in step 100 (S100), the map creation unit 124 creates a map of the amount of deviation of each position in the display 3 with respect to the reference position of a certain user's eyes.
In step 105 (S105), the face detection unit 120 determines whether the user's face is within the shooting range of the camera 5. If it is within the photographing range, the process moves to S110 (S105: Yes), and if it is not within the photographing range, the process waits until the user's face falls within the photographing range (S105: No).
In step 110 (S110), the face detection section 120 photographs the user's face with the camera 5, and the eye identification section 122 identifies the intermediate position of the user's right eye and left eye in the photographed image as a reference position.

ステップ115(S115)において、相対位置算出部126は、目特定部122により特定された基準位置とディスプレイ3との相対距離を算出する。
ステップ120(S120)において、マップ切替え部128は、相対位置算出部126により算出された相対距離に応じたズレ量のマップに切り替える。
ステップ125(S125)において、位置ズレ補正処理(S10)は、検知部7により空中操作面13へのユーザの操作を検知した場合に、S130へ移行し(S125:Yes)、検知していない場合に待機する(S125:No)。
ステップ130(S130)において、補正量決定部132は、切替えられたズレ量のマップに基づいて補正量を決定し、ズレ補正部134は、補正量決定部132により決定された補正量で、検知部7により検知された位置を補正する。
ステップ135(S135)において、入力装置1は、補正した位置をディスプレイ3側の表示位置に合わせて、ディスプレイ3のタッチ操作と同様の処理を実施する。
In step 115 (S115), the relative position calculation unit 126 calculates the relative distance between the reference position specified by the eye identification unit 122 and the display 3.
In step 120 (S120), the map switching unit 128 switches to a map with a shift amount according to the relative distance calculated by the relative position calculation unit 126.
In step 125 (S125), the positional deviation correction process (S10) moves to S130 when the detection unit 7 detects the user's operation on the aerial operation surface 13 (S125: Yes), and when it is not detected. (S125: No).
In step 130 (S130), the correction amount determination unit 132 determines the correction amount based on the switched map of the amount of deviation, and the deviation correction unit 134 uses the correction amount determined by the correction amount determination unit 132 to detect The position detected by the unit 7 is corrected.
In step 135 (S135), the input device 1 adjusts the corrected position to the display position on the display 3 side, and performs the same process as the touch operation on the display 3.

以上説明したように、本実施形態の入出力装置1は、ユーザの目の位置とディスプレイ3との距離に基づいて、空中操作面13とディスプレイ3との視差のズレ量を補正することができる。これにより、身長の異なるユーザが使用したとしても、空中操作面13への操作位置とディスプレイ3の反応部との視差を解消し、違和感のない操作が可能である。
また、ズレの補正は、ユーザの操作時に撮影された画像に基づいて、リアルタイムで行われるため、入力装置1を操作しているユーザに応じたズレの補正が可能である。
As explained above, the input/output device 1 of the present embodiment can correct the amount of parallax shift between the aerial operation surface 13 and the display 3 based on the distance between the user's eye position and the display 3. . As a result, even if users of different heights use the device, the parallax between the operating position on the aerial operating surface 13 and the reaction section of the display 3 is eliminated, and the operation can be performed without any discomfort.
Further, since the correction of the deviation is performed in real time based on the image photographed during the user's operation, it is possible to correct the deviation according to the user who is operating the input device 1.

1…入出力装置
3…ディスプレイ
5…カメラ
7…検知部
9…筐体
11…制御部
12…位置ズレ補正プログラム
13…空中操作面
120…顔検出部
122…目特定部
124…マップ作成部
126…相対位置算出部
128…マップ切替え部
130…補正部
132…補正量決定部
134…ズレ補正部
1... Input/output device 3... Display 5... Camera 7... Detection unit 9... Housing 11... Control unit 12... Position shift correction program 13... Aerial operation surface 120... Face detection unit 122... Eye identification unit 124... Map creation unit 126 ...Relative position calculation section 128...Map switching section 130...Correction section 132...Correction amount determination section 134...Difference correction section

Claims (8)

コンテンツを表示する表示面と、
前記表示面とは異なる位置で、表示された前記コンテンツに対するユーザの動作を検知する検知部と、
前記ユーザを撮影する撮影部と、
前記撮影部により撮影されたユーザの画像に基づいて、前記検知部により検知された検知位置、又は、前記表示面に表示されるコンテンツの位置を補正する補正部と
を有する入出力装置。
a display surface for displaying content;
a detection unit that detects a user's action on the displayed content at a position different from the display surface;
a photography unit that photographs the user;
An input/output device comprising: a correction section that corrects a detection position detected by the detection section or a position of content displayed on the display surface based on an image of a user photographed by the photographing section.
前記撮影部により撮影された撮影画像からユーザの目を特定する目特定部
をさらに有し、
前記補正部は、前記目特定部により特定された撮影画像におけるユーザの目の位置、又はユーザの目までの距離に基づいて、前記検知部により検知された検知位置を補正する
請求項1に記載の入出力装置。
further comprising an eye identification unit that identifies the user's eyes from the captured image captured by the imaging unit;
The correction unit corrects the detection position detected by the detection unit based on the position of the user's eye in the captured image specified by the eye identification unit or the distance to the user's eye. input/output device.
前記補正部は、前記目特定部により特定されたユーザの目の位置、目までの距離、及び、前記検知部による前記表示面における検知位置の領域に基づいて、補正量を決定する
請求項2に記載の入出力装置。
The correction unit determines the correction amount based on the position of the user's eye specified by the eye identification unit, the distance to the eye, and the area of the detection position on the display surface by the detection unit. Input/output devices described in .
前記検知部は、前記表示面から1cm以上5cm以下手前でユーザの動作を検知し、
前記補正部は、前記表示面の上部、中央部及び下部で、補正量を決定する
請求項1に記載の入出力装置。
The detection unit detects a user's motion at a distance of 1 cm or more and 5 cm or less from the display surface,
The input/output device according to claim 1, wherein the correction unit determines the amount of correction at an upper portion, a center portion, and a lower portion of the display surface.
前記目特定部により特定された目の間隔に基づいて、前記表示面から目までの距離を算出する相対位置算出部
をさらに有し、
前記補正部は、前記相対位置算出部により算出された前記表示面から目までの距離に基づいて、補正量を決定する
請求項3に記載の入出力装置。
further comprising: a relative position calculation unit that calculates a distance from the display surface to the eyes based on the distance between the eyes specified by the eye identification unit;
The input/output device according to claim 3, wherein the correction unit determines the correction amount based on the distance from the display surface to the eye calculated by the relative position calculation unit.
前記撮影部は、操作時にユーザを撮影し、
前記補正部は、前記撮影部により撮影された画像に基づいて操作位置を補正する
請求項1に記載の入出力装置。
The photographing unit photographs the user during operation;
The input/output device according to claim 1, wherein the correction section corrects the operation position based on an image photographed by the photographing section.
コンテンツを表示する表示面とは異なる位置で、表示された前記コンテンツに対するユーザの動作を検知する検知ステップと、
前記ユーザを撮影する撮影ステップと、
前記撮影ステップにより撮影されたユーザの画像に基づいて、前記検知ステップにより検知された検知位置、又は、前記表示面に表示されるコンテンツの位置を補正する補正ステップと
を有する入出力方法。
a detection step of detecting a user's action on the displayed content at a position different from the display surface on which the content is displayed;
a photographing step of photographing the user;
An input/output method comprising: a correction step of correcting the detection position detected in the detection step or the position of the content displayed on the display surface based on the image of the user photographed in the photographing step.
コンテンツを表示する表示面とは異なる位置で、表示された前記コンテンツに対するユーザの動作を検知する検知ステップと、
前記ユーザを撮影する撮影ステップと、
前記撮影ステップにより撮影されたユーザの画像に基づいて、前記検知ステップにより検知された検知位置、又は、前記表示面に表示されるコンテンツの位置を補正する補正ステップと
をコンピュータに実行させるプログラム。
a detection step of detecting a user's action on the displayed content at a position different from the display surface on which the content is displayed;
a photographing step of photographing the user;
A program that causes a computer to execute a correction step of correcting the detection position detected in the detection step or the position of the content displayed on the display surface based on the image of the user photographed in the photographing step.
JP2022105618A 2022-06-30 2022-06-30 Input output device, input output method, and program Pending JP2024005440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022105618A JP2024005440A (en) 2022-06-30 2022-06-30 Input output device, input output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022105618A JP2024005440A (en) 2022-06-30 2022-06-30 Input output device, input output method, and program

Publications (1)

Publication Number Publication Date
JP2024005440A true JP2024005440A (en) 2024-01-17

Family

ID=89539776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022105618A Pending JP2024005440A (en) 2022-06-30 2022-06-30 Input output device, input output method, and program

Country Status (1)

Country Link
JP (1) JP2024005440A (en)

Similar Documents

Publication Publication Date Title
CN110199251B (en) Display device and remote operation control device
EP2950180B1 (en) Method for determining screen display mode and terminal device
US20160299604A1 (en) Method and apparatus for controlling a mobile device based on touch operations
JP6131540B2 (en) Tablet terminal, operation reception method and operation reception program
JP5263355B2 (en) Image display device and imaging device
WO2015115527A1 (en) Portable device and touch position correction method
EP3062286B1 (en) Optical distortion compensation
JP2009140368A (en) Input device, display device, input method, display method, and program
WO2013046596A1 (en) Mobile information processing terminal
JP2018180051A (en) Electronic device and control method thereof
CN110933452A (en) Method and device for displaying lovely face gift and storage medium
CN113994659B (en) Electronic device, control method therefor, program, and storage medium
CN109964202B (en) Display control apparatus, display control method, and computer-readable storage medium
CN108111750B (en) Zoom adjustment method, mobile terminal and computer readable storage medium
CN105045395A (en) Display device and image display method
US11265460B2 (en) Electronic device, control device, and control method
JP2024005440A (en) Input output device, input output method, and program
JPH11353118A (en) Information input device
JP7055111B2 (en) Mobile devices, programs and methods that can estimate the user's neck bending state
JPH11296304A (en) Screen display inputting device and parallax correcting method
CN109407831A (en) A kind of exchange method and terminal
US10503278B2 (en) Information processing apparatus and information processing method that controls position of displayed object corresponding to a pointing object based on positional relationship between a user and a display region
CN115904079A (en) Display equipment adjusting method, device, terminal and storage medium
WO2018186004A1 (en) Electronic device and method for controlling same
CN113126796B (en) Touch sensitivity control method and device and storage medium

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20221118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227