WO2022019279A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2022019279A1
WO2022019279A1 PCT/JP2021/027020 JP2021027020W WO2022019279A1 WO 2022019279 A1 WO2022019279 A1 WO 2022019279A1 JP 2021027020 W JP2021027020 W JP 2021027020W WO 2022019279 A1 WO2022019279 A1 WO 2022019279A1
Authority
WO
WIPO (PCT)
Prior art keywords
aerial image
image display
displayed
display area
beam splitter
Prior art date
Application number
PCT/JP2021/027020
Other languages
English (en)
French (fr)
Inventor
伸也 宮澤
淳朗 竹内
将也 藤本
洋介 小口
Original Assignee
日本電産サンキョー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電産サンキョー株式会社 filed Critical 日本電産サンキョー株式会社
Priority to JP2022538006A priority Critical patent/JPWO2022019279A1/ja
Priority to US18/016,785 priority patent/US20230288723A1/en
Publication of WO2022019279A1 publication Critical patent/WO2022019279A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/83Protecting input, output or interconnection devices input devices, e.g. keyboards, mice or controllers thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Definitions

  • the present invention relates to an input device for a user to input information such as a personal identification number using a fingertip.
  • the aerial image display device includes an aerial imaging mechanism and a display unit.
  • the personal identification number display input unit includes a personal identification number display unit and a personal identification number input unit.
  • a keypad for inputting a personal identification number is displayed on the display unit.
  • the aerial imaging mechanism projects a keypad displayed on the display unit into space to form an image as an aerial image and displays it on the personal identification number display unit.
  • the personal identification number input unit is provided with a detection mechanism for detecting an operation performed by a user on an aerial image of a keypad displayed on the personal identification number display unit.
  • the detection mechanism is, for example, an infrared sensor, a camera, or the like, and detects the position of the user's fingertip on a plane including an aerial image of the keypad displayed on the personal identification number display unit.
  • the user sequentially moves the fingertip to a predetermined position of the aerial image of the keypad displayed on the password display unit, and the password is input based on the detection result of the detection mechanism. Will be done.
  • the inventor of the present application has developed an input device for a user to input information such as a personal identification number using an aerial image displayed in space, such as the automatic teller machine described in Patent Document 1. Further, the inventor of the present application is considering adding an information reading function for optically reading predetermined information such as a bar code or a two-dimensional code to this input device. In this input device, it is preferable that predetermined information can be easily optically read with a simple configuration.
  • an object of the present invention is to easily optically read predetermined information with a simple configuration in an input device for a user to input a personal identification number or the like using an aerial image displayed in an aerial image display area. Is to provide an input device capable of.
  • the input device of the present invention is an input device for inputting information using a user's fingertip, and is displayed on the display surface and a display mechanism having a display surface for displaying an image.
  • An aerial imaging mechanism that forms an image as an aerial image by projecting the image into space, a detection mechanism for detecting the user's fingertip in the aerial image display area, which is the area where the aerial image is displayed, and an aerial image display. It is equipped with a camera module that is arranged at a position where the area can be photographed, the aerial image display area is an input unit for the user to input information, and the aerial imaging mechanism is the light emitted from the display surface.
  • the beam splitter that reflects a part of the beam splitter and a retroreflective material that reflects the incident light toward the beam splitter in the same direction as the incident direction as well as the incident light reflected by the beam splitter. After reflection, the light transmitted through the beam splitter forms an aerial image in the aerial image display area, and the camera module is located on the side where the beam splitter is arranged with respect to the aerial image display area. do.
  • the camera module is arranged on the side where the beam splitter is arranged with respect to the aerial image display area, and is arranged at a position where the aerial image display area can be photographed. Therefore, in the present invention, when the user holds a medium or device on which predetermined information is recorded or displayed over an aerial image displayed in the aerial image display area, the predetermined information can be captured by the camera module. It will be possible. That is, in the present invention, when the user holds a medium or device on which the predetermined information is recorded or displayed over the aerial image displayed in the aerial image display area, the predetermined information is optically read by the camera module. Will be possible. Therefore, in the present invention, predetermined information can be easily read optically.
  • predetermined information can be optically read by the camera module. Therefore, in the present invention, predetermined information can be optically read with a simple configuration. Further, in the present invention, since the camera module is arranged on the side where the beam splitter is arranged with respect to the aerial image display area, the beam splitter and the aerial image display area are arranged in order to form the aerial image in the aerial image display area. The space formed between and the camera module can be effectively used as a space for optically reading predetermined information by the camera module.
  • the display mechanism displays a frame on the display surface for showing the area over which the imaged portion on which the information captured by the camera module is recorded or displayed is held, and the aerial imaging mechanism displays the display surface.
  • the frame displayed in is displayed in the aerial image display area as an aerial image. In this case, the user can recognize which part of the aerial image display area the imaged portion should be held over.
  • the display mechanism displays on the display surface a guide for encouraging the user to hold the imaged portion on which the information captured by the camera module is recorded or displayed over the aerial image display area, and is connected in the air.
  • the image mechanism displays the guidance displayed on the display surface as an aerial image in the aerial image display area. In this case, the user can hold the imaged portion according to the guidance displayed in the aerial image display area.
  • predetermined information can be easily optically read with a simple configuration. Will be possible.
  • FIG. 1 It is a schematic diagram for demonstrating the structure of the input device which concerns on embodiment of this invention. It is a schematic diagram for demonstrating the configuration of the input device shown in FIG. It is a figure which shows an example of the aerial image displayed in the aerial image display area shown in FIG.
  • FIG. 1 is a schematic diagram for explaining the configuration of the input device 1 according to the embodiment of the present invention.
  • FIG. 2 is a schematic diagram for explaining the configuration of the input device 1 shown in FIG.
  • FIG. 3 is a diagram showing an example of an aerial image displayed in the aerial image display area R shown in FIG.
  • the input device 1 of the present embodiment is a device for inputting information using a user's fingertip, for example, an ATM, an authentication device at the time of payment of a credit card, an automatic ticket issuing machine, a vending machine, or an entry / exit. It is used by being mounted on a higher-level device such as a management device. In the input device 1 of this embodiment, for example, a personal identification number is input. Further, in the input device 1 of the present embodiment, it is possible to optically read predetermined information.
  • the input device 1 includes an aerial image display device 2 that displays an aerial image in a three-dimensional space, and a detection mechanism 3 for detecting the position of a user's fingertip in the aerial image display area R, which is an area where the aerial image is displayed.
  • a camera module 4 for optically reading predetermined information, and a housing 5 in which these configurations are housed are provided.
  • the aerial image display device 2 includes a display mechanism 6 having a display surface 6a for displaying an image, and an aerial imaging mechanism 7 for forming an image as an aerial image by projecting an image displayed on the display surface 6a into space. ing.
  • the aerial imaging mechanism 7 includes a beam splitter 8 and a retroreflective material 9.
  • the Y direction in FIG. 1 which is orthogonal to the vertical direction (vertical direction), is the left-right direction
  • the direction orthogonal to the up-down direction and the left-right direction is the front-back direction.
  • the X1 direction side of FIG. 1, which is one side in the front-rear direction is referred to as the "front" side
  • the X2 direction side of FIG. 1, which is the opposite side is referred to as the "rear" side.
  • a user standing on the front side of the input device 1 inputs predetermined information on the front side of the input device 1.
  • the display mechanism 6 is, for example, a liquid crystal display or an organic EL display, and the display surface 6a is a screen of the display.
  • the display surface 6a faces diagonally backward and upward.
  • the beam splitter 8 is formed in a flat plate shape.
  • the beam splitter 8 is arranged behind the display mechanism 6.
  • the beam splitter 8 reflects a part of the light emitted from the display surface 6a. That is, one surface of the beam splitter 8 is a reflecting surface 8a that reflects a part of the light emitted from the display surface 6a.
  • the reflective surface 8a faces diagonally forward and downward.
  • the retroreflective material 9 is formed in a flat plate shape.
  • the retroreflective material 9 is arranged behind the display mechanism 6 and below the beam splitter 8.
  • the light reflected by the beam splitter 8 is incident on the retroreflective material 9.
  • the retroreflective material 9 reflects the incident light toward the beam splitter 8 in the same direction as the incident direction. That is, one surface of the retroreflective material 9 is a retroreflective surface 9a on which the light reflected by the beam splitter 8 is incident and the incident light is reflected toward the beam splitter 8 in the same direction as the incident direction. ..
  • a 1/4 wave plate is attached to the retroreflective surface 9a.
  • the retroreflective surface 9a faces diagonally forward and upward.
  • a part of the light emitted from the display surface 6a of the display mechanism 6 is reflected by the reflection surface 8a of the beam splitter 8 and is incident on the retroreflective surface 9a of the retroreflective material 9.
  • the light reflected by the reflecting surface 8a heads diagonally backward and downward.
  • the light incident on the retroreflective surface 9a is reflected in the same direction as the light incident on the retroreflective surface 9a.
  • the light reflected by the retroreflective surface 9a goes diagonally to the front upper side and passes through the beam splitter 8.
  • the light transmitted through the beam splitter 8 forms an aerial image in the aerial image display region R.
  • the aerial image display region R is formed on the upper side of the beam splitter 8.
  • the aerial image formed in the aerial image display area R is recognized by the user standing in front of the input device 1 as an image that is slightly tilted toward the front side and thus toward the lower side.
  • the housing 5 includes a frame 11 that surrounds the aerial image display area R.
  • the inner peripheral side of the frame 11 is an opening 11a leading to the inside of the housing 5.
  • the opening 11a is formed in a rectangular shape or a square shape.
  • the aerial image display area R is formed in the opening 11a.
  • the aerial image display area R is an input unit 12 for inputting information using the fingertips of the user. A user standing in front of the input device 1 inputs a personal identification number or the like from above the input unit 12 in the input unit 12.
  • the detection mechanism 3 detects the position of the user's fingertip in the aerial image display area R. That is, the input unit 12 is included in the detection range of the detection mechanism 3.
  • the detection mechanism 3 is an optical sensor. Specifically, the detection mechanism 3 is an infrared sensor. Further, the detection mechanism 3 is a line sensor.
  • the detection mechanism 3 is a reflection type optical sensor including a light emitting unit that emits infrared light and a light receiving unit that emits infrared light emitted from the light emitting unit and reflected by the user's fingertip.
  • the detection mechanism 3 is arranged on the side of the opening 11a.
  • the detection mechanism 3 detects the position of the user's fingertip in the plane including the aerial image display area R (that is, in the plane including the input unit 12).
  • the detection mechanism 3 may be a transmissive optical sensor.
  • the camera module 4 is fixed inside the housing 5.
  • the camera module 4 is arranged at a position where the aerial image display area R can be photographed. Further, the camera module 4 is arranged below the aerial image display area R. That is, the camera module 4 is arranged at a position where the aerial image display area R can be photographed from below. Further, as described above, the aerial image display area R is formed above the beam splitter 8, and the beam splitter 8 is arranged below the aerial image display area R. That is, the camera module 4 is arranged on the side where the beam splitter 8 is arranged with respect to the aerial image display area R.
  • the camera module 4 is arranged behind the beam splitter 8 and behind the aerial image display area R. That is, the camera module 4 is arranged at a position that does not block the light transmitted through the beam splitter 8 after being reflected by the retroreflective material 9, and the aerial image display area R is arranged at a position where shooting can be performed from diagonally behind and below. Has been done. When viewed from the left-right direction, the optical axis of the camera module 4 is inclined toward the upper side toward the front side.
  • a predetermined object 15 such as a medium or a device on which predetermined information is recorded or displayed is held over an aerial image displayed in the aerial image display area R from above.
  • Information can be captured by the camera module 4. That is, in the present embodiment, the predetermined information is optically transferred by the camera module 4 by holding the photographing object 15 on which the predetermined information is recorded or displayed from above with respect to the aerial image displayed in the aerial image display area R. It is possible to read to.
  • a mobile device such as a smartphone on which a two-dimensional code is displayed on the screen is the object to be photographed 15, and the mobile device is held over the aerial image displayed in the aerial image display area R from above.
  • the two-dimensional code displayed on the screen of the camera module 4 can be optically read by the camera module 4.
  • the medium such as a card on which the barcode is recorded is the object to be photographed 15, and the barcode recorded on the medium is recorded by holding the medium over the aerial image displayed in the aerial image display area R from above.
  • the password can be input.
  • the display mechanism 6 displays the keypad for inputting the personal identification number on the display surface 6a, and the aerial imaging mechanism 7 is displayed on the display surface 6a.
  • the keypad is displayed as an aerial image in the aerial image display area R (see FIG. 3A).
  • the user inputs a personal identification number using the keypad displayed in the aerial image display area R.
  • the user inputs the password by sequentially moving the fingertip to the position of a predetermined key (number) in the keypad displayed in the aerial image display area R. That is, the user sequentially moves the fingertip on the input unit 12 to input the personal identification number.
  • the personal identification number input by the input unit 12 is recognized based on the detection result of the detection mechanism 3 (that is, the detection result of the position of the fingertip of the user).
  • the camera module 4 can optically read information such as a two-dimensional code.
  • the display mechanism 6 may record or display the information captured by the camera module 4 (for example, a two-dimensional code in the screen of a mobile device).
  • Frame F for showing the area where the image is displayed or the area where the bar code is recorded in the medium) and the user to urge the user to hold the imaged portion 15a over the aerial image display area R.
  • the guide G is displayed on the display surface 6a, and the aerial imaging mechanism 7 displays the frame F and the guide G displayed on the display surface 6a as an aerial image in the aerial image display area R (see FIG. 3B). .
  • the frame F is, for example, a rectangular frame.
  • the guidance G is, for example, a guidance message, an operation instruction, an arrow pointing to the frame F, or the like.
  • the information recorded or displayed on the imaged unit 15a is read by the camera module 4.
  • the part of the aerial image displayed in the aerial image display area R that does not interfere with the reading of the information by the camera module 4 illuminates. That is, when the information is read by the camera module 4, the aerial image displayed in the aerial image display area R serves as an illumination that illuminates the imaged portion 15a.
  • the camera module 4 is arranged on the side where the beam splitter 8 is arranged with respect to the aerial image display area R, and is arranged at a position where the aerial image display area R can be photographed.
  • the predetermined information is transferred by the camera module 4. It can be read optically. Therefore, in this embodiment, predetermined information can be easily read optically.
  • the aerial image displayed in the aerial image display area R serves as an illumination that illuminates the imaged portion 15a. Therefore, in the present embodiment, predetermined information can be optically read by the camera module 4 even if the input device 1 does not separately provide the illumination that illuminates the imaged portion 15a. Therefore, in the present embodiment, it is possible to optically read predetermined information with a simple configuration. Further, in the present embodiment, since the camera module 4 is arranged on the side where the beam splitter 8 is arranged with respect to the aerial image display area R, the beam splitter 8 is arranged to form an aerial image in the aerial image display area R. The space formed between the aerial image display area R and the aerial image display area R can be effectively used as a space for optically reading information by the camera module 4.
  • the frame F for showing the area over which the imaged portion 15a is held is displayed in the aerial image display area R as an aerial image. Therefore, in the present embodiment, the user can recognize which part of the aerial image display area R the imaged portion 15a should be held over. Further, in the present embodiment, when the camera module 4 optically reads information, the guide G for urging the user to hold the imaged portion 15a over the aerial image display area R is displayed in the aerial image display area R as an aerial image. Since it is displayed, the user can hold the imaged portion 15a according to the guidance G displayed in the aerial image display area R.
  • information other than the personal identification number may be input by the input device 1.
  • the user's signature may be input by the input device 1.
  • the frame in which the signature is input is displayed as an aerial image in the aerial image display area R.
  • the detection mechanism 3 may be a capacitance sensor or a motion sensor. Further, the detection mechanism 3 may be composed of two cameras. Further, in the above-described embodiment, the user standing behind the input device 1 may input predetermined information on the rear surface side of the input device 1.
  • Input device 3 Detection mechanism 4
  • Camera module 6 Display mechanism 6a Display surface 7
  • Aerial imaging mechanism 8 Beam splitter 9

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Bioethics (AREA)
  • Computer Security & Cryptography (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Image Input (AREA)

Abstract

空中像表示領域に表示される空中像を用いてユーザが暗証番号等を入力するための入力装置において、簡易な構成で容易に所定の情報を光学的に読み取ることが可能な入力装置を提供する。入力装置1は、表示機構6の表示面6aから射出された光の一部を反射するビームスプリッタ8と、ビームスプリッタ8で反射した光が入射するとともに入射した光をビームスプリッタ8に向かって反射する再帰性反射材9と、空中像が表示される空中像表示領域Rにおいてユーザの指先を検知するための検知機構と、空中像表示領域Rを撮影可能な位置に配置されるカメラモジュール4とを備えている。入力装置1では、再帰性反射材9で反射した後、ビームスプリッタ8を透過した光によって、空中像表示領域Rに空中像が形成される。カメラモジュール4は、空中像表示領域Rに対してビームスプリッタ8が配置される側に配置されている。

Description

入力装置
 本発明は、ユーザが指先を用いて暗証番号等の情報を入力するための入力装置に関する。
 従来、ATM(Automated Teller Machine)等の自動取引装置として、空中像表示装置と暗証番号表示入力部とを備える自動取引装置が知られている(たとえば、特許文献1参照)。特許文献1に記載の自動取引装置では、空中像表示装置は、空中結像機構と表示部とを備えている。暗証番号表示入力部は、暗証番号表示部と暗証番号入力部とを備えている。表示部には、暗証番号を入力するためのキーパッドが表示される。空中結像機構は、表示部に表示されるキーパッドを空間に投射することで空中像として結像させて、暗証番号表示部に表示する。
 特許文献1の自動取引装置では、暗証番号入力部は、暗証番号表示部に表示されたキーパッドの空中像に対してユーザが行った操作を検知するための検知機構を備えている。検知機構は、たとえば、赤外線センサやカメラ等であり、暗証番号表示部に表示されたキーパッドの空中像を含む平面におけるユーザの指先の位置を検知する。特許文献1の自動取引装置では、暗証番号表示部に表示されたキーパッドの空中像の所定の位置に、ユーザが指先を順次移動させることで、検知機構の検知結果に基づいて暗証番号が入力される。
特開2020-134843号公報
 本願発明者は、特許文献1に記載の自動取引装置のように、空間に表示される空中像を用いてユーザが暗証番号等の情報を入力するための入力装置を開発している。また、本願発明者は、この入力装置に、バーコードや二次元コード等の所定の情報を光学的に読み取るための情報読取機能を付加することを検討している。この入力装置では、簡易な構成で容易に所定の情報を光学的に読み取ることが可能であることが好ましい。
 そこで、本発明の課題は、空中像表示領域に表示される空中像を用いてユーザが暗証番号等を入力するための入力装置において、簡易な構成で容易に所定の情報を光学的に読み取ることが可能な入力装置を提供することにある。
 上記の課題を解決するため、本発明の入力装置は、ユーザの指先を用いて情報を入力するための入力装置であって、画像を表示する表示面を有する表示機構と、表示面に表示される画像を空間に投射することで空中像として結像させる空中結像機構と、空中像が表示される領域である空中像表示領域においてユーザの指先を検知するための検知機構と、空中像表示領域を撮影可能な位置に配置されるカメラモジュールとを備え、空中像表示領域は、ユーザが情報を入力するための入力部となっており、空中結像機構は、表示面から射出された光の一部を反射するビームスプリッタと、ビームスプリッタで反射した光が入射するとともに入射した光をビームスプリッタに向かって入射方向と同じ方向へ反射する再帰性反射材とを備え、再帰性反射材で反射した後、ビームスプリッタを透過した光によって、空中像表示領域に空中像が形成され、カメラモジュールは、空中像表示領域に対してビームスプリッタが配置される側に配置されていることを特徴とする。
 本発明の入力装置では、カメラモジュールは、空中像表示領域に対してビームスプリッタが配置される側に配置されるとともに、空中像表示領域を撮影可能な位置に配置されている。そのため、本発明では、ユーザが、所定の情報が記録または表示される媒体や機器等を空中像表示領域に表示される空中像に対してかざせば、所定の情報をカメラモジュールで撮影することが可能になる。すなわち、本発明では、ユーザが、所定の情報が記録または表示される媒体や機器等を空中像表示領域に表示される空中像に対してかざせば、所定の情報をカメラモジュールによって光学的に読み取ることが可能になる。したがって、本発明では、容易に所定の情報を光学的に読み取ることが可能になる。
 また、本発明では、空中像表示領域に表示される空中像を明るくすることで、所定の情報が記録または表示される媒体や機器等に光を当てる照明を入力装置が備えていなくても、所定の情報をカメラモジュールによって光学的に読み取ることが可能になる。したがって、本発明では、簡易な構成で所定の情報を光学的に読み取ることが可能になる。また、本発明では、カメラモジュールが、空中像表示領域に対してビームスプリッタが配置される側に配置されているため、空中像表示領域に空中像を形成するためにビームスプリッタと空中像表示領域との間に形成される空間を、カメラモジュールで所定の情報を光学的に読み取るための空間として有効利用することが可能になる。
 本発明において、たとえば、表示機構は、カメラモジュールに撮影される情報が記録または表示された被撮影部がかざされる領域を示すための枠を表示面に表示し、空中結像機構は、表示面に表示された枠を空中像として空中像表示領域に表示する。この場合には、ユーザは、空中像表示領域のどの部分に被撮影部をかざせば良いのかを認識することが可能になる。
 本発明において、たとえば、表示機構は、カメラモジュールに撮影される情報が記録または表示された被撮影部をユーザが空中像表示領域にかざすように促すための案内を表示面に表示し、空中結像機構は、表示面に表示された案内を空中像として空中像表示領域に表示する。この場合には、ユーザは、空中像表示領域に表示される案内にしたがって被撮影部をかざすことが可能になる。
 以上のように、本発明では、空中像表示領域に表示される空中像を用いてユーザが暗証番号等を入力するための入力装置において、簡易な構成で容易に所定の情報を光学的に読み取ることが可能になる。
本発明の実施の形態にかかる入力装置の構成を説明するための概略図である。 図1に示す入力装置の構成を説明するための概略図である。 図1に示す空中像表示領域に表示される空中像の一例を示す図である。
 以下、図面を参照しながら、本発明の実施の形態を説明する。
 (入力装置の構成)
 図1は、本発明の実施の形態にかかる入力装置1の構成を説明するための概略図である。図2は、図1に示す入力装置1の構成を説明するための概略図である。図3は、図1に示す空中像表示領域Rに表示される空中像の一例を示す図である。
 本形態の入力装置1は、ユーザの指先を用いて情報を入力するための装置であり、たとえば、ATM、クレジットカード等の決済時の認証装置、自動発券機、自動販売機、あるいは、入退出管理装置等の上位装置に搭載されて使用される。本形態の入力装置1では、たとえば、暗証番号が入力される。また、本形態の入力装置1では、所定の情報を光学的に読み取ることが可能になっている。入力装置1は、三次元空間に空中像を表示する空中像表示装置2と、空中像が表示される領域である空中像表示領域Rにおいてユーザの指先の位置を検知するための検知機構3と、所定の情報を光学的に読み取るためのカメラモジュール4と、これらの構成が収容される筐体5とを備えている。
 空中像表示装置2は、画像を表示する表示面6aを有する表示機構6と、表示面6aに表示される画像を空間に投射することで空中像として結像させる空中結像機構7とを備えている。空中結像機構7は、ビームスプリッタ8と再帰性反射材9とを備えている。以下の説明では、上下方向(鉛直方向)に直交する図1のY方向を左右方向とし、上下方向と左右方向とに直交する方向を前後方向とする。また、前後方向の一方側である図1のX1方向側を「前」側とし、その反対側である図1のX2方向側を「後ろ」側とする。本形態では、入力装置1の前側に立つユーザが入力装置1の前面側で所定の情報を入力する。
 表示機構6は、たとえば、液晶ディスプレイまたは有機ELディスプレイであり、表示面6aは、ディスプレイの画面である。表示面6aは、斜め後ろ上側を向いている。ビームスプリッタ8は、平板状に形成されている。ビームスプリッタ8は、表示機構6の後ろ側に配置されている。ビームスプリッタ8は、表示面6aから射出された光の一部を反射する。すなわち、ビームスプリッタ8の一方の面は、表示面6aから射出された光の一部を反射する反射面8aとなっている。反射面8aは、斜め前下側を向いている。
 再帰性反射材9は、平板状に形成されている。再帰性反射材9は、表示機構6の後ろ側に配置されるとともにビームスプリッタ8の下側に配置されている。再帰性反射材9には、ビームスプリッタ8で反射した光が入射する。再帰性反射材9は、入射した光をビームスプリッタ8に向かって入射方向と同じ方向へ反射する。すなわち、再帰性反射材9の一方の面は、ビームスプリッタ8で反射した光が入射するとともに入射した光をビームスプリッタ8に向かって入射方向と同じ方向へ反射する再帰反射面9aとなっている。再帰反射面9aには、1/4波長板が取り付けられている。再帰反射面9aは、斜め前上側を向いている。
 表示機構6の表示面6aから射出された光の一部は、ビームスプリッタ8の反射面8aで反射して、再帰性反射材9の再帰反射面9aに入射する。反射面8aで反射した光は、斜め後ろ下側に向かう。再帰反射面9aに入射した光は、再帰反射面9aへの光の入射方向と同じ方向に反射する。再帰反射面9aで反射した光は、斜め前上側に向かい、ビームスプリッタ8を透過する。ビームスプリッタ8を透過した光によって、空中像表示領域Rに空中像が形成される。空中像表示領域Rは、ビームスプリッタ8の上側に形成される。空中像表示領域Rに形成される空中像は、入力装置1の前側に立つユーザに、前側に向かうしたがって下側に向かうようにわずかに傾斜している画像として認識される。
 筐体5は、空中像表示領域Rを囲む枠体11を備えている。枠体11の内周側は、筐体5の内部に通じる開口部11aとなっている。開口部11aは、長方形状または正方形状に形成されている。空中像表示領域Rは、開口部11aの中に形成される。空中像表示領域Rは、ユーザの指先を用いて情報を入力するための入力部12となっている。入力装置1の前側に立つユーザは、入力部12において入力部12の上側から暗証番号等を入力する。
 検知機構3は、上述のように、空中像表示領域Rにおいてユーザの指先の位置を検知する。すなわち、入力部12は、検知機構3の検知範囲に含まれている。検知機構3は、光学式のセンサである。具体的には、検知機構3は、赤外線センサである。また、検知機構3は、ラインセンサである。検知機構3は、赤外光を射出する発光部と、発光部から射出されてユーザの指先で反射した赤外光が入射する受光部とを備える反射型の光学式センサである。検知機構3は、開口部11aの側方に配置されている。検知機構3は、空中像表示領域Rを含む平面内(すなわち、入力部12を含む平面内)においてユーザの指先の位置を検知する。なお、検知機構3は、透過型の光学式センサであっても良い。
 カメラモジュール4は、筐体5の内部に固定されている。カメラモジュール4は、空中像表示領域Rを撮影可能な位置に配置されている。また、カメラモジュール4は、空中像表示領域Rよりも下側に配置されている。すなわち、カメラモジュール4は、空中像表示領域Rを下側から撮影可能な位置に配置されている。また、上述のように、空中像表示領域Rは、ビームスプリッタ8の上側に形成されており、ビームスプリッタ8は、空中像表示領域Rの下側に配置されている。すなわち、カメラモジュール4は、空中像表示領域Rに対してビームスプリッタ8が配置される側に配置されている。
 また、カメラモジュール4は、ビームスプリッタ8の後ろ側に配置されるとともに、空中像表示領域Rよりも後ろ側に配置されている。すなわち、カメラモジュール4は、再帰性反射材9で反射した後ビームスプリッタ8を透過した光を遮らない位置に配置されるとともに、空中像表示領域Rを斜め後ろ下側から撮影可能な位置に配置されている。左右方向から見たときに、カメラモジュール4の光軸は、前側に向かうにしたがって上側に向かうように傾斜している。
 本形態では、所定の情報が記録または表示される媒体や機器等の撮影対象物15(図1参照)を空中像表示領域Rに表示される空中像に対して上側からかざすことで、所定の情報をカメラモジュール4で撮影することが可能になっている。すなわち、本形態では、所定の情報が記録または表示される撮影対象物15を空中像表示領域Rに表示される空中像に対して上側からかざすことで、所定の情報をカメラモジュール4によって光学的に読み取ることが可能になっている。
 たとえば、二次元コードが画面に表示されるスマートフォン等の携帯機器が撮影対象物15であり、この携帯機器を空中像表示領域Rに表示される空中像に対して上側からかざすことで、携帯機器の画面に表示された二次元コードをカメラモジュール4によって光学的に読み取ることが可能になっている。あるいは、バーコードが記録されたカード等の媒体が撮影対象物15であり、この媒体を空中像表示領域Rに表示される空中像に対して上側からかざすことで、媒体に記録されたバーコードをカメラモジュール4によって光学的に読み取ることが可能になっている。すなわち、入力装置1は、二次元コードやバーコードを読み取るコードリーダになる。
 入力装置1では、上述のように、暗証番号の入力が可能になっている。入力装置1において暗証番号が入力される場合には、表示機構6は、暗証番号を入力するためのキーパッドを表示面6aに表示し、空中結像機構7は、表示面6aに表示されたキーパッドを空中像として空中像表示領域Rに表示する(図3(A)参照)。ユーザは、空中像表示領域Rに表示されるキーパッドを利用して暗証番号を入力する。具体的には、ユーザは、空中像表示領域Rに表示されたキーパッドの中の所定のキー(数字)の位置に指先を順次移動させることで、暗証番号を入力する。すなわち、ユーザは、入力部12で指先を順次移動させて、暗証番号を入力する。入力部12で入力された暗証番号は、検知機構3の検知結果(すなわち、ユーザの指先の位置の検知結果)に基づいて認識される。
 また、入力装置1では、上述のように、カメラモジュール4によって二次元コード等の情報を光学的に読み取ることが可能になっている。カメラモジュール4で情報を光学的に読み取るときには、たとえば、表示機構6は、カメラモジュール4に撮影される情報が記録または表示された被撮影部15a(たとえば、携帯機器の画面の中の二次元コードが表示された部分や、媒体の中のバーコードが記録された部分)がかざされる領域を示すための枠Fと、ユーザが被撮影部15aを空中像表示領域Rにかざすように促すための案内Gとを表示面6aに表示し、空中結像機構7は、表示面6aに表示された枠Fおよび案内Gを空中像として空中像表示領域Rに表示する(図3(B)参照)。枠Fは、たとえば、長方形の枠である。案内Gは、たとえば、案内メッセージ、操作指示または枠Fを指し示す矢印等である。
 空中像表示領域Rに表示される枠Fに対してユーザが被撮影部15aをかざすと、被撮影部15aに記録または表示された情報がカメラモジュール4によって読み取られる。カメラモジュール4で情報を読み取るときには、空中像表示領域Rに表示される空中像の中の、カメラモジュール4による情報の読み取りに支障が生じない箇所が光る。すなわち、カメラモジュール4で情報を読み取るときには、空中像表示領域Rに表示される空中像は、被撮影部15aに光を当てる照明の役割を果たしている。
 (本形態の主な効果)
 以上説明したように、本形態では、カメラモジュール4は、空中像表示領域Rに対してビームスプリッタ8が配置される側に配置されるとともに、空中像表示領域Rを撮影可能な位置に配置されており、所定の情報が記録または表示される撮影対象物15を空中像表示領域Rに表示される空中像に対してビームスプリッタ8の反対側からかざすことで、所定の情報をカメラモジュール4によって光学的に読み取ることが可能になっている。したがって、本形態では、容易に所定の情報を光学的に読み取ることが可能になる。
 本形態では、カメラモジュール4で光学的に情報を読み取るときに、空中像表示領域Rに表示される空中像は、被撮影部15aに光を当てる照明の役割を果たしている。そのため、本形態では、被撮影部15aに光を当てる照明を入力装置1が別途備えていなくても、所定の情報をカメラモジュール4によって光学的に読み取ることが可能になる。したがって、本形態では、簡易な構成で所定の情報を光学的に読み取ることが可能になる。また、本形態では、カメラモジュール4が、空中像表示領域Rに対してビームスプリッタ8が配置される側に配置されているため、空中像表示領域Rに空中像を形成するためにビームスプリッタ8と空中像表示領域Rとの間に形成される空間を、カメラモジュール4で光学的に情報を読み取るための空間として有効利用することが可能になる。
 本形態では、カメラモジュール4で光学的に情報を読み取るときに、被撮影部15aがかざされる領域を示すための枠Fが空中像として空中像表示領域Rに表示されている。そのため、本形態では、ユーザは、空中像表示領域Rのどの部分に被撮影部15aをかざせば良いのかを認識することが可能になる。また、本形態では、カメラモジュール4で光学的に情報を読み取るときに、ユーザが被撮影部15aを空中像表示領域Rにかざすように促すための案内Gが空中像として空中像表示領域Rに表示されているため、ユーザは、空中像表示領域Rに表示される案内Gにしたがって被撮影部15aをかざすことが可能になる。
 (他の実施の形態)
 上述した形態は、本発明の好適な形態の一例ではあるが、これに限定されるものではなく本発明の要旨を変更しない範囲において種々変形実施が可能である。
 上述した形態において、入力装置1で暗証番号以外の情報が入力されても良い。たとえば、ユーザの署名(サイン)が入力装置1で入力されても良い。この場合には、たとえば、署名が入力される枠が空中像として空中像表示領域Rに表示される。また、上述した形態において、カメラモジュール4で光学的に情報を読み取るときに、空中像表示領域Rに枠Fおよび案内Gの少なくともいずれか一方が表示されなくても良い。さらに、上述した形態において、検知機構3は、静電容量センサであっても良いし、モーションセンサであっても良い。また、検知機構3は、2台のカメラによって構成されていても良い。また、上述した形態において、入力装置1の後ろ側に立つユーザが入力装置1の後面側で所定の情報を入力しても良い。
 1 入力装置
 3 検知機構
 4 カメラモジュール
 6 表示機構
 6a 表示面
 7 空中結像機構
 8 ビームスプリッタ
 9 再帰性反射材
 12 入力部
 15a 被撮影部
 F 枠
 G 案内
 R 空中像表示領域

Claims (3)

  1.  ユーザの指先を用いて情報を入力するための入力装置であって、
     画像を表示する表示面を有する表示機構と、前記表示面に表示される画像を空間に投射することで空中像として結像させる空中結像機構と、前記空中像が表示される領域である空中像表示領域において前記ユーザの前記指先を検知するための検知機構と、前記空中像表示領域を撮影可能な位置に配置されるカメラモジュールとを備え、
     前記空中像表示領域は、前記ユーザが情報を入力するための入力部となっており、
     前記空中結像機構は、前記表示面から射出された光の一部を反射するビームスプリッタと、前記ビームスプリッタで反射した光が入射するとともに入射した光を前記ビームスプリッタに向かって入射方向と同じ方向へ反射する再帰性反射材とを備え、
     前記再帰性反射材で反射した後、前記ビームスプリッタを透過した光によって、前記空中像表示領域に前記空中像が形成され、
     前記カメラモジュールは、前記空中像表示領域に対して前記ビームスプリッタが配置される側に配置されていることを特徴とする入力装置。
  2.  前記表示機構は、前記カメラモジュールに撮影される情報が記録または表示された被撮影部がかざされる領域を示すための枠を前記表示面に表示し、
     前記空中結像機構は、前記表示面に表示された前記枠を前記空中像として前記空中像表示領域に表示することを特徴とする請求項1記載の入力装置。
  3.  前記表示機構は、前記カメラモジュールに撮影される情報が記録または表示された被撮影部を前記ユーザが前記空中像表示領域にかざすように促すための案内を前記表示面に表示し、
     前記空中結像機構は、前記表示面に表示された前記案内を前記空中像として前記空中像表示領域に表示することを特徴とする請求項1または2記載の入力装置。
PCT/JP2021/027020 2020-07-22 2021-07-19 入力装置 WO2022019279A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022538006A JPWO2022019279A1 (ja) 2020-07-22 2021-07-19
US18/016,785 US20230288723A1 (en) 2020-07-22 2021-07-19 Input device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202063054799P 2020-07-22 2020-07-22
US63/054,799 2020-07-22
JPPCT/JP2021/020744 2021-05-31
PCT/JP2021/020744 WO2022018973A1 (ja) 2020-07-22 2021-05-31 入力装置および情報処理装置

Publications (1)

Publication Number Publication Date
WO2022019279A1 true WO2022019279A1 (ja) 2022-01-27

Family

ID=79728618

Family Applications (4)

Application Number Title Priority Date Filing Date
PCT/JP2021/020743 WO2022018972A1 (ja) 2020-07-22 2021-05-31 入力装置および入力装置の制御方法
PCT/JP2021/020744 WO2022018973A1 (ja) 2020-07-22 2021-05-31 入力装置および情報処理装置
PCT/JP2021/020742 WO2022018971A1 (ja) 2020-07-22 2021-05-31 入力装置および入力装置の制御方法
PCT/JP2021/027020 WO2022019279A1 (ja) 2020-07-22 2021-07-19 入力装置

Family Applications Before (3)

Application Number Title Priority Date Filing Date
PCT/JP2021/020743 WO2022018972A1 (ja) 2020-07-22 2021-05-31 入力装置および入力装置の制御方法
PCT/JP2021/020744 WO2022018973A1 (ja) 2020-07-22 2021-05-31 入力装置および情報処理装置
PCT/JP2021/020742 WO2022018971A1 (ja) 2020-07-22 2021-05-31 入力装置および入力装置の制御方法

Country Status (3)

Country Link
US (3) US20240036678A1 (ja)
JP (4) JPWO2022018973A1 (ja)
WO (4) WO2022018972A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7402265B2 (ja) 2021-06-28 2023-12-20 日立チャネルソリューションズ株式会社 情報処理システム
JP2023131250A (ja) * 2022-03-09 2023-09-22 アルプスアルパイン株式会社 光学素子の製造方法、光学素子、空中映像表示装置および空間入力装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133284A (ja) * 2018-01-30 2019-08-08 コニカミノルタ株式会社 非接触式入力装置
JP2020077209A (ja) * 2018-11-07 2020-05-21 日立オムロンターミナルソリューションズ株式会社 画像読取り装置及び方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5949348A (en) * 1992-08-17 1999-09-07 Ncr Corporation Method and apparatus for variable keyboard display
JPH07210299A (ja) * 1994-01-20 1995-08-11 Sumitomo Wiring Syst Ltd 光学式入力装置の入力位置検出方法
JP2000181632A (ja) * 1998-12-17 2000-06-30 Funai Electric Co Ltd 映像機器のタッチ入力装置
JP2002236944A (ja) * 2001-02-08 2002-08-23 Hitachi Ltd 情報提供端末
JP4064647B2 (ja) 2001-08-24 2008-03-19 富士通株式会社 情報処理装置及び入力操作装置
JP2004178584A (ja) * 2002-11-26 2004-06-24 Asulab Sa 機能、装置、又は所定の場所にアクセスするためのタッチスクリーンによるセキュリティコードの入力方法、及びその方法を実行するためのデバイス
WO2012032842A1 (ja) * 2010-09-06 2012-03-15 シャープ株式会社 表示システム、および検出方法
JP5602668B2 (ja) * 2011-03-24 2014-10-08 日本電産サンキョー株式会社 媒体処理装置およびフレキシブルケーブル
US8978975B2 (en) * 2011-07-18 2015-03-17 Accullink, Inc. Systems and methods for authenticating near field communcation financial transactions
US20130301830A1 (en) * 2012-05-08 2013-11-14 Hagai Bar-El Device, system, and method of secure entry and handling of passwords
JP2015060296A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 空間座標特定装置
JP6364994B2 (ja) * 2014-06-20 2018-08-01 船井電機株式会社 入力装置
US9531689B1 (en) * 2014-11-10 2016-12-27 The United States Of America As Represented By The Secretary Of The Navy System and method for encryption of network data
JP6927554B2 (ja) * 2015-12-07 2021-09-01 国立大学法人宇都宮大学 表示装置
WO2018003862A1 (ja) * 2016-06-28 2018-01-04 株式会社ニコン 制御装置、表示装置、プログラムおよび検出方法
WO2018003860A1 (ja) * 2016-06-28 2018-01-04 株式会社ニコン 表示装置、プログラム、表示方法および制御装置
JP6725371B2 (ja) * 2016-09-07 2020-07-15 シャープ株式会社 表示装置、表示システム、および表示方法
EP3319069B1 (en) * 2016-11-02 2019-05-01 Skeyecode Method for authenticating a user by means of a non-secure terminal
JP6913494B2 (ja) * 2017-03-30 2021-08-04 日本電産サンキョー株式会社 フレキシブルプリント基板およびカードリーダ
JP6974032B2 (ja) * 2017-05-24 2021-12-01 シャープ株式会社 画像表示装置、画像形成装置、制御プログラムおよび制御方法
JP2019109636A (ja) * 2017-12-18 2019-07-04 コニカミノルタ株式会社 非接触入力装置
JP7128720B2 (ja) * 2018-10-25 2022-08-31 日立チャネルソリューションズ株式会社 入出力装置及び自動取引装置
JP7173895B2 (ja) 2019-02-22 2022-11-16 日立チャネルソリューションズ株式会社 空中像表示装置、取引装置、および空中像表示装置における空中像結像制御方法
JP7251301B2 (ja) * 2019-05-10 2023-04-04 京セラドキュメントソリューションズ株式会社 画像処理システム、画像処理方法、及び画像形成装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133284A (ja) * 2018-01-30 2019-08-08 コニカミノルタ株式会社 非接触式入力装置
JP2020077209A (ja) * 2018-11-07 2020-05-21 日立オムロンターミナルソリューションズ株式会社 画像読取り装置及び方法

Also Published As

Publication number Publication date
WO2022018971A1 (ja) 2022-01-27
JPWO2022018973A1 (ja) 2022-01-27
US20230288723A1 (en) 2023-09-14
WO2022018973A1 (ja) 2022-01-27
US20230351804A1 (en) 2023-11-02
US12001031B2 (en) 2024-06-04
JPWO2022018971A1 (ja) 2022-01-27
JPWO2022018972A1 (ja) 2022-01-27
JPWO2022019279A1 (ja) 2022-01-27
WO2022018972A1 (ja) 2022-01-27
US20240036678A1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
WO2022019279A1 (ja) 入力装置
US8191787B2 (en) Image capturing apparatus, method for capturing an image shown in a display and arrangement of an image capturing unit and of a display as well as use of the image capturing apparatus and use of the arrangement
JP5053396B2 (ja) コードシンボル読取装置及びその制御プログラム
US8079523B2 (en) Imaging of non-barcoded documents
US10582081B2 (en) Information reading device and method of adjusting information reading device
US20060153558A1 (en) Method and apparatus for capturing images using a color laser projection display
CN102197403A (zh) 带有分离视场的条形码阅读器
WO2022018927A1 (ja) 空中像表示装置および入力装置
US10055627B2 (en) Mobile imaging barcode scanner
US11373051B2 (en) Indicia reader acoustic for multiple mounting positions
JP2012073822A (ja) 帳票読取装置
US10803267B2 (en) Illuminator for a barcode scanner
CN103578202B (zh) 扫描光码
JP5113885B2 (ja) スキャナおよびチェックアウトシステム
US8366006B2 (en) Combined laser and imaging scanner
JP6650374B2 (ja) 読取装置
US9509958B2 (en) Image pick-up device and POS system including the same
JP2023079463A (ja) 非接触式情報処理装置
JPH10173875A (ja) 画像読取り装置
JP5010928B2 (ja) 2次元コード読取装置
JP3683991B2 (ja) シンボル読み取り装置
WO2009058573A1 (en) Sealed housing with integral window and integral pressure indicator in electro-optical reader
JPH0944588A (ja) 光学的情報読取装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21846385

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022538006

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21846385

Country of ref document: EP

Kind code of ref document: A1