WO2024043765A1 - Method and device for displaying virtual keyboard on head mounted display (hmd) device - Google Patents

Method and device for displaying virtual keyboard on head mounted display (hmd) device Download PDF

Info

Publication number
WO2024043765A1
WO2024043765A1 PCT/KR2023/012684 KR2023012684W WO2024043765A1 WO 2024043765 A1 WO2024043765 A1 WO 2024043765A1 KR 2023012684 W KR2023012684 W KR 2023012684W WO 2024043765 A1 WO2024043765 A1 WO 2024043765A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
virtual keyboard
hand
virtual
user
Prior art date
Application number
PCT/KR2023/012684
Other languages
French (fr)
Korean (ko)
Inventor
배종혁
고태헌
문춘경
엄홍열
이승준
한훈
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220132436A external-priority patent/KR20240028897A/en
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2024043765A1 publication Critical patent/WO2024043765A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Definitions

  • HMD devices are widely used as a tool to provide augmented reality or virtual reality experiences. Due to the limited space of HMD devices, various user interfaces that can replace the physical user interface are applied, a representative example being a virtual keyboard.
  • a virtual keyboard is a concept distinct from a physical keyboard and refers to a virtual keyboard implemented through software. In cases where it is difficult to connect and use a physical keyboard, such as an HMD device, a virtual keyboard can be a useful user input method.
  • a method of displaying a virtual keyboard by a head mounted display (HMD) device may include identifying a keyboard input area selection.
  • a method of displaying a virtual keyboard by a head mounted display (HMD) device may include identifying a hand in the field of view (FOV) of the display based on at least one sensor. there is.
  • a method of displaying a virtual keyboard by a head mounted display (HMD) device may include displaying a virtual keyboard on a display based on identification.
  • a method for a head mounted display (HMD) device to display a virtual keyboard according to an embodiment of the present disclosure may display a virtual keyboard based on the position of the identified hand when a hand is identified in the FOV of the display.
  • a method for an HMD (head mounted display) device to display a virtual keyboard according to an embodiment of the present disclosure may display a virtual keyboard based on the location of the selected keyboard input area when a hand is not identified in the FOV of the display. there is.
  • a head mounted display (HMD) device that displays a virtual keyboard according to an embodiment of the present disclosure includes a display; Ministry of Communications; a storage unit that stores a program including at least one instruction; and at least one processor executing at least one instruction stored in the storage unit. At least one processor may identify the keyboard input area selection by executing at least one instruction. At least one processor may identify a hand in a field of view (FOV) of a display based on at least one sensor by executing at least one instruction. At least one processor may display a virtual keyboard on the display based on the identification by executing at least one instruction. When a hand is identified in the FOV of the display by executing at least one instruction, the at least one processor may display a virtual keyboard based on the location of the identified hand. At least one processor may display a virtual keyboard based on the location of the selected keyboard input area when a hand is not identified in the FOV of the display by executing at least one instruction.
  • FOV field of view
  • a computer-readable recording medium on which a program for executing the above-described method is recorded is provided.
  • FIGS. 1A and 1B are diagrams illustrating examples of electronic devices according to an embodiment of the present disclosure.
  • Figure 2 shows a block diagram of an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating a method by which an electronic device identifies a plane and determines a virtual input area according to an embodiment of the present disclosure.
  • FIGS. 4A and 4B are diagrams for explaining a method of displaying a virtual keyboard on the display of an electronic device and interacting with a user, according to an embodiment of the present disclosure.
  • FIGS. 5A and 5B are diagrams for explaining a method of displaying a virtual keyboard on the display of an electronic device and interacting with a user, according to an embodiment of the present disclosure.
  • FIGS. 6A and 6B are diagrams illustrating a method by which an electronic device displays a virtual keyboard and interacts with a user according to an embodiment of the present disclosure.
  • Figure 7 is a flowchart of a method for an electronic device to display a virtual keyboard according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram illustrating a method by which an electronic device provides a virtual keyboard based on the position and angle of the hand, according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram illustrating a method by which an electronic device provides a virtual keyboard based on the position and angle of the hand, according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating a method for an electronic device to determine a virtual input area according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating a method by which an electronic device displays a virtual keyboard based on the surrounding environment according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a method for an electronic device to display feedback about typing according to an embodiment of the present disclosure.
  • FIG. 13 is a diagram illustrating a method by which an electronic device determines an input method based on the position of a hand, according to an embodiment of the present disclosure.
  • each block of the processing flow diagram diagrams and combinations of the flow diagram diagrams can be performed by computer program instructions.
  • These computer program instructions can be mounted on a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, so that the instructions performed through the processor of the computer or other programmable data processing equipment are described in the flow chart block(s). It creates the means to perform functions.
  • These computer program instructions may also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular manner, so that the computer-usable or computer-readable memory It is also possible to produce manufactured items containing instruction means that perform the functions described in the flowchart block(s).
  • Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer, thereby generating a process that is executed by the computer or other programmable data processing equipment. Instructions that perform processing equipment may also provide steps for executing the functions described in the flow diagram block(s).
  • each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s).
  • each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s).
  • the term ' ⁇ unit' used in this embodiment refers to software or hardware components such as FPGA or ASIC, and the ' ⁇ unit' performs certain roles.
  • ' ⁇ part' is not limited to software or hardware.
  • the ' ⁇ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, ' ⁇ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.
  • components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card. Also, in the embodiment, ‘ ⁇ part’ may include one or more processors.
  • augmented reality or AR means showing a virtual image together in a physical environment space of the real world or showing a real object and a virtual object image together.
  • AR-dedicated electronic devices such as AR glasses
  • real objects shown through a see-through display and virtual object images displayed on the device's display are shown together.
  • mobile devices real objects and virtual objects captured by a camera are displayed together on the display.
  • VR virtual reality
  • images, backgrounds, surroundings, and objects are all virtual images
  • the background, surroundings, and objects are real objects, and only the added information is virtual.
  • Augmented reality can provide additional information while further increasing the effect of reality, so it can be applied in various industrial fields.
  • VR Virtual Reality
  • 'Virtual Reality Device or VR device' refers to a device that can express 'virtual reality', and is not only a virtual reality device in the form of glasses that the user generally wears on the face, It includes Head Mounted Display Apparatus (HMD) and Virtual Reality Helmet worn on the head.
  • HMD Head Mounted Display Apparatus
  • VR Helmet worn on the head.
  • a virtual keyboard is a concept distinct from a physical keyboard and refers to a virtual keyboard implemented through software. In cases where it is difficult to connect and use a physical keyboard, such as an HMD device, a virtual keyboard can be a useful user input method.
  • FIGS. 1A and 1B are diagrams illustrating examples of electronic devices according to an embodiment of the present disclosure.
  • the electronic device 1000 may be an augmented reality device or a virtual reality device, but is not limited thereto, and is a head mounted display (HMD) device that provides a virtual keyboard and allows text input using the virtual keyboard. It can include any device that performs the acquisition function.
  • HMD head mounted display
  • the electronic device 1000 is a glasses-type display device and may include a glasses-type body configured to be worn by a user.
  • the eyeglass-shaped body may include a frame (or rim) 110 and a support portion 190, and the support portion 190 extends from the frame 110 and may be used to seat the augmented reality device on the user's head.
  • the support portion 190 may include temples 190L and 190R and a nose support portion (not shown).
  • the temples 190L and 190R extend from the frame 110 and may be used to secure the electronic device 1000 to the user's head at the side portion of the glasses-shaped body.
  • the nose support unit (not shown) extends from the frame 110 and may be used to seat the electronic device 1000 on the user's nose, and may include, for example, the bridge of the nose and the nose of glasses, but is not limited thereto. No.
  • a lens unit 1350 and a wave guide 1320 may be located in the frame 110.
  • the lens unit 1350 may include a lens unit 1350L for the left eye and a lens unit 1350R for the right eye.
  • the wave guide 1320 may be configured to receive projected light from an input area and output at least a portion of the input light from an output area.
  • This wave guide 1320 may include a wave guide 1320L for the left eye and a wave guide 1320R for the right eye.
  • the left eye lens unit (1350L) and the left eye wave guide (1320L) can be placed in a position corresponding to the user's left eye, and the right eye lens unit (1350R) and the right eye wave guide (1320R) can be placed in a position corresponding to the user's right eye. It can be placed in any location.
  • the left eye lens unit 1350L and the left eye wave guide 1320L may be attached to each other, or the right eye lens unit 1350R and the right eye wave guide 1320R may be attached to each other, but are not limited thereto. .
  • the optical engine 1310 of the projector that projects display light containing an image may include an optical engine 1310L for the left eye and an optical engine 1310R for the right eye.
  • the left eye optical engine 1310L and the right eye optical engine 1310R may be located on both sides of the electronic device 1000.
  • one optical engine 1310 may be included in the central portion around the nose support 192 of the electronic device 1000. Light emitted from the optical engine 120 may be displayed through the wave guide 1320.
  • a user interface (UI) for interaction between the HMD display device and the user may include the user's gaze or the user's motion (gesture) information. Such information may be obtained based on sensing results obtained by sensors included in the electronic device 1000.
  • a sensor unit 1100 capable of sensing the external environment or the user's movement may be disposed on the front of the electronic device 1000.
  • the sensor unit 1100 may include a distance sensor 1110, an image sensor 1120, a gyro sensor 1130, and an acceleration sensor 1140.
  • the distance sensor 1110 may include at least one of an ultrasonic sensor, an infrared sensor, a LIDAR (LIght Detection And Ranging) sensor, or a RADAR (Radio Detection And Ranging) sensor.
  • an ultrasonic sensor an infrared sensor
  • a LIDAR LIght Detection And Ranging
  • RADAR Radio Detection And Ranging
  • the ultrasonic sensor measures the distance based on the time taken from transmitting ultrasonic waves to receiving reflected waves or the wavelength of the received reflected waves.
  • Infrared sensors use electromagnetic waves with longer wavelengths than visible light, and infrared rays are safe because they have long wavelengths and low energy.
  • a short-distance measurement sensor using infrared rays can measure distance according to the intensity of the reflected infrared rays by radiating infrared rays from the sensor.
  • Infrared sensors are also called ToF (time of flight) sensors because they calculate distance by measuring the time it takes for light to reflect and return to the subject. The light emitted from the sensor reflects and returns at different times depending on the curvature of the subject, and this time difference can be used to measure the distance to the subject, 3D scan, or height measurement.
  • ToF time of flight
  • the LiDAR sensor has a narrow detection range, but uses a laser with strong straight-line motion, so there is a low probability of distortion occurring, so it has higher precision than cameras or radars, and the error range is only in the mm unit.
  • LIDAR has a higher horizontal azimuth than cameras or radars, so it can accurately measure altitude and direction, has an excellent ability to detect small objects, and can detect temperature or material distribution.
  • a radar sensor can determine the existence, direction, distance, and speed of an object by measuring the reflected wave that returns after the irradiated electromagnetic waves hit the object. Since it uses radio waves, it has low sensitivity to the surrounding environment, enabling stable measurements.
  • the image sensor 1120 typically has a camera and can photograph an object to identify its presence, location, and size.
  • the image sensor 1120 can obtain an image frame, such as a still image or video, when an application requiring a shooting function is executed.
  • the image captured through the image sensor 1120 may be processed through the processor 1800 or a separate image processor (not shown).
  • the image sensor 1120 may include, for example, at least one of a rotatable RGB camera module or a plurality of depth camera modules, but is not limited thereto.
  • the electronic device 1000 may implement a VST (video see-through) function by displaying (playing) an external image captured using the image sensor 1120 on an internal display in real time.
  • VST video see-through
  • OST optical see-through
  • VST displays images captured through a camera (or vision sensor).
  • a display method that displays images overlapping virtual content may also be referred to as pass through.
  • the VST function can be an effective means of recognizing the external environment in a blackout HMD device where the external view is blocked.
  • the image sensor 1120 may be composed of a plurality of image sensors.
  • the gyro sensor 1130 is a sensor that measures angular velocity and refers to a gyroscope implemented in chip form by applying MEMS technology.
  • the gyro sensor 1130 can detect the rotation and rotation speed of the electronic device 1000.
  • the acceleration sensor 1140 is a sensor that measures dynamic force, such as a change in speed (acceleration) or a change in momentum (impact), and can detect the motion state of the electronic device 1000 in detail.
  • the gyro sensor 1130 and the acceleration sensor 1140 may detect movement of the electronic device 1000 or movement of the user.
  • Figure 2 shows a block diagram of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 1000 includes a sensor unit 1100, an input unit 1200, a display unit 1300, an output unit 1400, a communication interface 1600, and a storage unit. It may include a unit 1700 and a processor 1800.
  • the sensor unit 1100 can sense the environment around the electronic device 1000.
  • the sensor unit 1100 includes a distance sensor 1110, an image sensor 1120, a gyro sensor 1130, an acceleration sensor 1140, and an eye tracking sensor 1150, as well as a temperature sensor, a gyro sensor, and a distance sensor (LADAR, LIDAR). ), an infrared sensor, and a UWB sensor. Since the distance sensor 1110, the image sensor 1120, the gyro sensor 1130, and the acceleration sensor 1140 have been described above with reference to FIG. 1B, detailed descriptions will be omitted.
  • the gaze tracking sensor 1150 can detect and track the gaze of the user wearing the electronic device 1000.
  • the gaze tracking sensor 1150 may be installed in a direction toward the user's eyes and can detect the gaze direction of the user's left eye and the gaze direction of the user's right eye. Detecting the user's gaze direction may include obtaining gaze information related to the user's gaze.
  • the input unit 1200 refers to a means for a user to input data to control the electronic device 1000, and may include a microphone 1210 and a button unit 1220.
  • the microphone 1210 receives external acoustic signals and processes them into electrical voice data.
  • the microphone 1210 may receive an acoustic signal from an external device or a speaker.
  • Various noise removal algorithms can be used to remove noise generated in the process of receiving an external acoustic signal through the microphone 1210.
  • the microphone 1210 may receive a user's voice input for controlling the electronic device 1000.
  • the button unit 1220 includes a key pad, a dome switch, and a touch pad (contact capacitance type, pressure resistance membrane type, infrared detection type, surface ultrasonic conduction type, integral tension measurement type, It may include, but is not limited to, at least one of a piezo effect type, etc.), a jog wheel, or a jog switch.
  • the display unit 1300 displays and outputs information processed by the electronic device 1000.
  • the display unit 1300 may display a user interface for photographing the surroundings of the electronic device 1000 and information related to services provided based on the captured images of the surroundings of the electronic device 1000.
  • the display unit 1300 can also be used as an input device.
  • the display unit 1300 includes a liquid crystal display unit, a thin film transistor-liquid crystal display unit, an organic light-emitting diode, a flexible display unit, 3 It may include at least one of a 3D display unit and an electrophoretic display unit.
  • the display unit 1300 may provide AR images and VR images. As shown in FIG. 1A, the display unit 1300 may include an optical engine 1380. When the electronic device 1000 is a glasses-type device, the display unit 1300 may include a left display unit and a right display unit.
  • the output unit 1400 is for outputting audio signals or haptic signals.
  • the speaker 1410 may output audio data received from the communication interface 1600 or stored in the storage unit 1700.
  • a plurality of speakers may output three-dimensional sound signals.
  • the plurality of speakers may be implemented as at least one of a right channel speaker, a left channel speaker, and a mono channel speaker. Additionally, the plurality of speakers may output sound signals related to functions performed by the electronic device 1000 (eg, notification sound, guidance voice, guide voice).
  • the haptic module 1420 may output haptic signals related to functions performed in the electronic device 1000. Haptic signals can be distinguished based on intensity or pattern.
  • the communication interface 1600 can transmit and receive data for providing services related to the electronic device 1000 with an external device (not shown) and a server (not shown).
  • the communication interface 1600 may include one or more components that enable communication between the electronic device 1000 and a server device (not shown), and between the electronic device 1000 and an external device (not shown).
  • the communication interface 1600 may include a short-range communication unit and a broadcast reception unit.
  • the short-range wireless communication unit includes a Bluetooth communication unit, BLE (Bluetooth Low Energy) communication unit, Near Field Communication unit, WLAN (Wi-Fi) communication unit, Zigbee communication unit, and infrared (IrDA) communication unit. Data Association) communication department, WFD (Wi-Fi Direct) communication department, UWB (ultra wideband) communication department, Ant+ communication department, etc., but is not limited thereto.
  • the broadcast receiver receives broadcast signals and/or broadcast-related information from the outside through a broadcast channel.
  • Broadcast channels may include satellite channels and terrestrial channels.
  • the electronic device 1000 may not include a broadcast reception unit.
  • the communication interface 1600 can obtain content from an external device (not shown).
  • the communication interface 1600 can acquire content from an external device (not shown) through wired or wireless communication.
  • external devices include server devices, mobile terminals, wearable devices (e.g., watches, bands, glasses, masks, etc.), home appliances (e.g., TVs, desktop PCs, laptops, DVD devices, washing machines, refrigerators, etc.) ), etc., but is not limited thereto.
  • Content may include multimedia files, video files, and audio files.
  • the storage unit 1700 can store programs to be executed by the processor 1800, which will be described later, and can store data input to or output from the electronic device 1000.
  • the storage unit 1700 may include at least one of internal memory (not shown) and external memory (not shown).
  • Built-in memory includes, for example, volatile memory (e.g., DRAM (Dynamic RAM), SRAM (Static RAM), SDRAM (Synchronous Dynamic RAM), etc.), non-volatile memory (e.g., OTPROM (One Time Programmable ROM), etc. ), PROM (Programmable ROM), EPROM (Erasable and Programmable ROM), EEPROM (Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM, etc.), hard disk drive (HDD), or solid state drive (SSD). It can be included.
  • volatile memory e.g., DRAM (Dynamic RAM), SRAM (Static RAM), SDRAM (Synchronous Dynamic RAM), etc.
  • non-volatile memory e.g., OTPROM (One Time Programmable ROM), etc.
  • PROM Programmable ROM
  • the processor 1800 may load commands or data received from at least one of the non-volatile memory or other components into the volatile memory and process them. Additionally, the processor 1800 may store data received or generated from other components in non-volatile memory.
  • External memory includes, for example, at least one of CF (Compact Flash), SD (Secure Digital), Micro-SD (Micro Secure Digital), Mini-SD (Mini Secure Digital), xD (extreme Digital), and Memory Stick. It can be included.
  • Programs stored in the storage unit 1700 may be classified into a plurality of modules according to their functions, and may include, for example, an identification module 1710 and an image processing module 1720.
  • the processor 1800 controls the overall operation of the electronic device 1000.
  • the processor 1800 executes programs stored in the storage unit 1700, thereby controlling the sensor unit 1100, the input unit 1200, the display unit 1300, the output unit 1400, and the communication interface 1600. and the storage unit 1700, etc. can be controlled overall.
  • the processor 1800 can display a virtual keyboard and obtain virtual keyboard input by executing the identification module 1710 and the image processing module 1720 stored in the storage unit 1700.
  • the electronic device 1000 may include a plurality of processors 1800, and the identification module 1710 and the image processing module 1720 may be executed by the plurality of processors 1800.
  • the processor 1800 can identify the front plane of the electronic device 1000, identify the hand within the FOV of the display, and determine the virtual input area by executing the identification module 1710 stored in the storage unit 1700. .
  • the processor 1800 displays a hand placement guide in the virtual input area by executing the image processing module 1720 stored in the storage unit 1700, and when a hand is identified within the FOV of the display, the identified hand is displayed as a VST. and the virtual keyboard can be displayed.
  • the virtual keyboard module 1723 can determine and display a specific key of the virtual keyboard or the shape, color, angle, and position of the virtual keyboard.
  • the hand placement guide module 1721 may be configured as a separate module from the image processing module 1720.
  • FIG. 3 is a diagram illustrating a method by which an electronic device identifies a plane and determines a virtual input area according to an embodiment of the present disclosure.
  • a situation may occur in which text input through the keyboard is required.
  • the electronic device 1000 may provide a virtual keyboard to interact with the user in a situation where keyboard input is required, for example, when a keyboard input area is selected while an application is running.
  • a situation requiring keyboard input may be referred to as a keyboard input mode.
  • the electronic device 1000 may obtain spatial information around the electronic device 1000 using the distance sensor 1110 or the image sensor 1120.
  • Spatial information around the electronic device 1000 may include information on the presence, shape, distance, location, and movement of nearby objects obtained using the image sensor 1120 or the distance sensor 1110.
  • the electronic device 1000 can identify the plane 3100 on the front of the electronic device 1000 and obtain information about the identified plane 3100.
  • the front plane 3100 of the electronic device 1000 may be identified based on object recognition of the captured front image.
  • Information about the plane may include information about the existence, location, size, and shape of the plane.
  • the electronic device 1000 may determine a virtual input area 3200 where the user's hand will be located within the plane 3100 based on information about the plane 3100.
  • the virtual input area 3200 may be determined to have a predetermined margin (3400) from the edge of the identified plane (3100), and the virtual input area (3200) and the margin (3400) are of the virtual keyboard to be placed. It may be determined based on attributes (e.g., shape, size, type, etc.).
  • the free space 3400 may be determined by considering the space in the plane space where the user's hand can be comfortably positioned, and can be determined by most users based on demographic information (e.g., average body size, joint angle, etc.). can be determined as a distance that can be used comfortably.
  • the electronic device 1000 may output an affordance (action inducer) that induces the user to place his or her hand on the virtual input area 3200.
  • the electronic device 1000 may output a text guide and/or a hand-shaped graphic guide 3300 on the display 1300 instructing to place a hand on the determined virtual input area 3200.
  • the electronic device 1000 may output an audio guide instructing to place a hand on the virtual input area 3200 to the speaker 1410.
  • FIGS. 4A and 4B are diagrams for explaining a method of displaying a virtual keyboard on the display of an electronic device and interacting with a user, according to an embodiment of the present disclosure.
  • the field of view (FOV) of a sensor refers to the area where sensing is possible, and is generally defined as an angle.
  • Mechanical sensors can rotate 360 degrees and have a field of view of 360 degrees, and fixed sensors can expand their field of view by arranging multiple sensors and combining the sensing results of each sensor.
  • a sensor is a means of identifying an external object and obtaining information, and is a distance sensor 1110 included in the sensor unit 1100 or a plurality of distance sensors constituting the distance sensor 1100, an image sensor ( 1120) or a plurality of image sensors constituting the image sensor 1120, or a combination thereof.
  • the FOV of the display refers to the viewing angle of the display that can be viewed at once.
  • Glasses-type AR displays have an FOV of approximately 50 degrees
  • blackout-type VR displays have an FOV of approximately 110 degrees. Therefore, the FOV of the sensor has a wider range than the FOV of the display.
  • the user is wearing the electronic device 1000, which is an HMD device, and looking at the plane where the hand, which is a virtual keyboard input means, is placed. Accordingly, it is assumed that the user's hand 1000 is located within the FOV of the sensor and the FOV of the display 1300.
  • the user's hands are identified in the FOV of the sensor in a keyboard input mode (e.g., the user selects a keyboard input area of an application), and the user's hands are within the FOV of the display 1300.
  • the electronic device 1000 switches the display to VST mode (or referred to as pass through mode) and displays a virtual display on the user's hand 2000 indicated as VST in the FOV of the display 1300 looking at the user's hand. It can be displayed by matching the keyboard 3000.
  • the electronic device 1000 arranges and displays the keyboard input area 3500 around the virtual keyboard 3000 so that the user can check whether the keyboard input is performed properly.
  • the keyboard input area 3500 according to an embodiment of the present disclosure is locked to the virtual keyboard 3000, so that when the position of the virtual keyboard 3000 changes, the position of the keyboard input area 3500 will also change accordingly. You can.
  • the display 1300 of the electronic device 1000 may include an application display area 3600 and a virtual keyboard display area, and the application display area 3600 may include an application and keyboard input area 3500.
  • a virtual keyboard 3000 and a hand 2000 may be displayed in the virtual keyboard display area.
  • the keyboard input area 3500 may be displayed in a separate area other than the application display area 3600.
  • the electronic device 1000 When the electronic device 1000 according to an embodiment of the present disclosure detects activation of the keyboard input area 3500 or selection of the keyboard input area 3500, it displays a virtual keyboard for text input and uses the displayed virtual keyboard. Through this, you can interact with the user and obtain text input.
  • the electronic device 1000 may display a keyboard input area 3500 around the virtual keyboard 3000 to allow the user to check whether the text corresponding to the key being input is properly entered.
  • the electronic device 1000 uses a sensor to identify whether a plane space 3100 exists within the FOV of the sensor, and the virtual device 1000 determined within the identified plane space A guide 3300 for positioning the user's hand in the input area 3200 may be output.
  • the electronic device 1000 creates a virtual keyboard placement area on the display 1300. The virtual keyboard 3000 and the user's hand 2000 can be displayed in the determined virtual keyboard placement area.
  • the electronic device 1000 is a device composed of a transparent display such as AR glass, the user can directly see his or her hand located within the FOV of the electronic device 1000 through the transparent display, so that the user The step of displaying the hand 2000 on the display may be omitted.
  • the electronic device 1000 according to an embodiment of the present disclosure is a blackout HMD device, the electronic device 1000 acquires an image of the user's hand 2000 using a camera module 1130 that photographs the outside, The acquired image can be displayed in VST mode.
  • the electronic device 1000 displays a virtual keyboard 3000 and a hand 2000 on the display 1300, and an application display area 3600 for displaying applications requiring text input and a keyboard input are provided around the virtual keyboard 3000.
  • the area 3500 can be arranged and displayed.
  • 5A and 5B are diagrams for explaining a method of displaying a virtual keyboard on the display of an electronic device and interacting with a user, according to an embodiment of the present disclosure.
  • FIGS. 5A and 5B descriptions similar to or overlapping with FIGS. 4A and 4B may be briefly described or omitted.
  • the load due to its own weight can be a burden on the user's neck, and the effect is even greater when the user bends his or her neck to look down.
  • a physical keyboard most users often use the keyboard while looking at the display in front of them rather than looking at the keyboard. Therefore, it may be more convenient for the user to look straight ahead even when using the virtual keyboard, and the user experience of the HMD device may be improved.
  • the user while wearing the electronic device 1000, which is an HMD device, the user is looking straight ahead rather than at the plane where the hands are to input the virtual keyboard. Accordingly, it is assumed that the user's hand 1000 is not located within the FOV of the display 1300.
  • the sensor can sense the user's hand 1000 even if the user's hand 1000 is not located within the FOV of the display 1300.
  • the user's hands are identified in the sensor's FOV in a keyboard input mode (e.g., the user selects a keyboard input area of an application) and the user's hands are not within the FOV of the display 1300.
  • the electronic device 1000 may display the virtual keyboard 3000 in the FOV of the display 1300 facing the front.
  • the electronic device 1000 may display the virtual keyboard 3000 around the keyboard input area 3500.
  • the virtual keyboard 3000 according to an embodiment of the present disclosure is locked to the keyboard input area 3500, and when the position of the keyboard input area 3500 changes, the position of the virtual keyboard 3000 may also change accordingly. You can.
  • the display 1300 of the electronic device 1000 may include an application display area 3600 and a virtual keyboard display area.
  • An application and keyboard input area 3500 may be displayed in the application display area 3600, and a virtual keyboard 3000 may be displayed in the virtual keyboard display area.
  • the keyboard input area 3500 may be displayed in a separate area other than the application display area 3600.
  • a message is received while playing a video in the electronic device 1000, and the message is displayed as a pop-up in the messenger application (3600).
  • the user can select the keyboard input area 3500 for conversation with the other party, and the electronic device 1000, which has identified that the keyboard input area 3500 has been selected, can display the virtual keyboard 3000 for text input. You can interact with the user and obtain text input through the displayed virtual keyboard.
  • the electronic device 1000 may display a virtual keyboard 3000 around the keyboard input area 3500 to allow the user to check whether the text corresponding to the input key is properly entered.
  • the electronic device 1000 uses a sensor to identify whether a flat space 3100 exists within the sensor's FOV and enters the identified space.
  • a guide 3300 to position the user's hand can be output.
  • the electronic device 1000 creates a virtual keyboard placement area on the display 1300. can be determined and the virtual keyboard 3000 can be displayed in the determined virtual keyboard placement area.
  • the user can input text by typing on the front plane 3100 with his or her fingers. Therefore, since the (flat) spatial area with which the user interacts and the spatial area of the virtual keyboard displayed on the display 1300 are different from each other, in this case, the virtual keyboard 3000 displayed on the display 1300 may be referred to as a keyboard navigator. .
  • the keyboard navigator is a graphical user interface (GUI) that helps recognize the user's hand position or finger movement (tap) that is not displayed on the display. Like a virtual keyboard, the keys corresponding to the position of each finger are displayed. By adding specific marks, the location of each finger can be specified.
  • the electronic device 1000 may display a virtual hand image in the keyboard navigator on the display 1300 and display the displayed hand image in conjunction with the actual hand movement. For example, when the user is identified as having tapped the left index finger on the flat area 3100, the electronic device 1000 displays the virtual hand displayed on the keyboard navigator 3000 as having also tapped the left index finger or displays the virtual hand as tapping the left index finger or corresponding to the left index finger. You can mark the marker to change.
  • FIGS. 6A and 6B are diagrams illustrating a method by which an electronic device displays a virtual keyboard and interacts with a user according to an embodiment of the present disclosure.
  • the electronic device 1000 can identify the user's hand 2000 using a sensor, and displays a virtual keyboard in the FOV of the display 1300 based on the position of the identified user's hand 2000. (3000) can be displayed.
  • the electronic device 1000 can arrange the virtual keyboard 3000 according to (by mapping) the position of the identified user's hand 2000. At this time, the electronic device 1000 may identify the tip of the finger capable of typing on the virtual keyboard 3000 and display the position on the keyboard corresponding to the finger differently from other parts. For example, the electronic device 1000 inserts a marker at the tip of the user's finger, or performs visual processing on the keys 2001 to 2010 corresponding to the position where the user's finger is predicted to be tapped on the virtual keyboard. You can.
  • the user's hand 2000 exists within the FOV of the display 1300 of the electronic device 1000, and the electronic device 1000 is an HMD device (e.g., augmented reality-AR-device) consisting of a display 1300 made of a transparent material.
  • the electronic device 1000 can identify whether a hand is within the sensor's FOV and display the virtual keyboard 3000 based on the identified hand position.
  • the user's hand 2000 exists within the FOV of the display 1300 of the electronic device 1000, and the electronic device 1000 is a blackout HMD device (e.g., a virtual HMD device) in which light from the outside is blocked for the user's immersive experience.
  • a blackout HMD device e.g., a virtual HMD device
  • the electronic device 1000 displays the image of the hand acquired through the camera module 1130 that photographs the outside as VST (video see-through) on the display, and operates the virtual keyboard 3000 based on the position of the hand. It can be displayed.
  • the electronic device 1000 displays the virtual keyboard 3000 on the display 1300 and uses the virtual hand image as the virtual keyboard. It can be displayed overlapping with .
  • the electronic device 1000 may display only the virtual keyboard 3000 on the display 1300.
  • the electronic device 1000 may determine that a key corresponding to the finger has been input. Additionally, the electronic device 1000 may display keys determined to have been entered with greater emphasis.
  • Figure 7 is a flowchart of a method for an electronic device to display a virtual keyboard according to an embodiment of the present disclosure.
  • step S701 the electronic device 1000 may identify that the keyboard input area 3500 is selected.
  • the electronic device 1000 may identify a plane on which to place the user's hands for inputting the virtual keyboard 3000.
  • the electronic device 1000 may obtain information about the plane 3100 within the sensing area, that is, within the sensor FOV, using at least one sensor.
  • Information about the plane may include information about the existence, location, size, and shape of the plane.
  • the electronic device 1000 may determine a virtual input area 3200 in which to place the user's hand on the identified plane.
  • the virtual input area 3200 may be determined to have a predetermined margin (3400) from the edge of the identified plane (3100), and the virtual input area (3200) and the margin (3400) are of the virtual keyboard to be placed. It may be determined based on attributes (e.g., shape, size, type, etc.).
  • the free space 3400 may be determined by considering the space in the plane space where the user's hand can be comfortably positioned, and can be determined by most users based on demographic information (e.g., average body size, joint angle, etc.). can be determined as a distance that can be used comfortably.
  • the electronic device 1000 may output an affordance (action inducer) that induces the user to place his or her hand on the virtual input area 3200.
  • the electronic device 1000 may output a text guide and/or a hand-shaped graphic guide 3300 on the display 1300 instructing to place a hand on the determined virtual input area 3200.
  • the electronic device 1000 may output an audio guide instructing to place a hand on the virtual input area 3200 to the speaker 1410.
  • the virtual keyboard cannot be input if the hand is not identified in the identified plane, so the electronic device 1000 performs a virtual keyboard display procedure. can be terminated.
  • step S702 the electronic device 1000 may determine whether the hand 2000 is identified in the FOV of the display 1300 based on at least one sensor.
  • the sensor's FOV has a wider range than the display's FOV.
  • the hand 2000 can be identified in the FOV of the display 1300, and the user wearing the electronic device 1000, which is an HMD device, can be identified.
  • the hand 2000 may not be identified in the FOV of the display 1300.
  • step S703 if the hand 2000 is identified in the FOV of the display 1300 as a result of the determination in step S702, the electronic device 1000 may display the virtual keyboard 3000 based on the position of the identified hand 2000. there is.
  • the electronic device 1000 when the user's hand is within the FOV of the display 1300, switches the display to VST mode (or, referred to as pass through mode), and moves the user's hand to the FOV of the display 1300.
  • the virtual keyboard 3000 can be displayed by matching it on the user's hand 2000 displayed as a VST in the FOV of the display 1300 being viewed.
  • the electronic device 1000 arranges and displays the keyboard input area 3500 around the virtual keyboard 3000 so that the user can check whether the keyboard input is performed properly.
  • the keyboard input area 3500 according to an embodiment of the present disclosure is locked to the virtual keyboard 3000, so that when the position of the virtual keyboard 3000 changes, the position of the keyboard input area 3500 will also change accordingly. You can.
  • the electronic device 1000 is a device configured with a transparent display
  • the user can directly see his or her hand located within the FOV of the electronic device 1000 through the transparent display, so the user's hand ( The step of displaying 2000) on the display can be omitted.
  • step S704 the electronic device 1000 displays the virtual keyboard 3000 based on the position of the keyboard input area 3500 when the hand 2000 is not identified in the FOV of the display 1300 as a result of the determination in step S702. You can.
  • the load due to its own weight can be a burden on the user's neck, and the burden is even greater when the user bends his or her neck to look down.
  • a physical keyboard most users often use the keyboard while looking at the display in front of them rather than looking at the keyboard. Therefore, it may be more convenient for the user to look straight ahead even when using the virtual keyboard, and the user experience of the HMD device may be improved.
  • the hand 2000 may not be identified in the FOV of the display 1300.
  • the FOV of the sensor is wider than the FOV of the display, so even if the user's hand 1000 is not located within the FOV of the display 1300, the sensor detects the user's hand. can be sensed.
  • the electronic device 1000 may display the virtual keyboard 3000 in the FOV of the display 1300 facing the front. At this time, since the user's hand 2000 is not displayed in the FOV of the display 1300, the electronic device 1000 may display the virtual keyboard 3000 around the keyboard input area 3500.
  • the virtual keyboard 3000 according to an embodiment of the present disclosure is locked to the keyboard input area 3500, and when the position of the keyboard input area 3500 changes, the position of the virtual keyboard 3000 may also change accordingly. You can.
  • step S705 the electronic device 1000 may obtain a virtual keyboard input based on the movement of the finger corresponding to the virtual keyboard 3000.
  • Sensors included in the electronic device 1000 can sense the movement of surrounding objects. Therefore, by sensing the movement of the user's finger (object) identified in the FOV of the sensor, a virtual keyboard input corresponding to the user's finger movement can be obtained.
  • FIG. 8 is a diagram illustrating a method by which an electronic device provides a virtual keyboard based on the position and angle of the hand, according to an embodiment of the present disclosure.
  • the electronic device 1000 may provide a separate virtual keyboard based on the position and angle of the user's hand. According to an embodiment of the present disclosure, the electronic device 1000 may determine whether to use a separate virtual keyboard based on user settings. A user may try to use a virtual keyboard depending on the type of physical keyboard he or she prefers. Accordingly, the electronic device 1000 may be configured to set in advance the type of virtual keyboard to be provided to the user.
  • At least one sensor included in the sensor unit 1100 of the electronic device 1000 can identify the user's hand 2000 and provides information about the position, shape, and movement of the hand. Information can be obtained.
  • the electronic device 1000 may enter or analyze the virtual input area 3200 by quantifying the angle of the hand at which it is positioned.
  • the electronic device 1000 includes a 1-1 vector in the direction of the left index finger, a 1-2 vector in the direction of the right index finger, and a second vector in a direction horizontal to both hands (or the horizontal axis of the virtual input area).
  • the left virtual keyboard (3000-1) and the right virtual keyboard (3000-2) among the detachable keyboards can be displayed.
  • the reference point of the left virtual keyboard (3000-1) may be the 'F' key where the left index finger related to the 1-1 vector is located
  • the reference point of the right virtual keyboard (3000-2) may be the 1-1 vector. 2 This could be the 'J' key where the index finger of the right hand related to the vector will be located.
  • the left virtual keyboard 3000-1 and the right virtual keyboard 3000-2 may be displayed on the user's left and right hands, respectively.
  • FIG. 9 is a diagram illustrating a method by which an electronic device provides a virtual keyboard based on the position and angle of the hand, according to an embodiment of the present disclosure.
  • the electronic device 1000 may determine the virtual keyboard display position based on the position and angle of the user's hand.
  • At least one sensor included in the sensor unit 1100 of the electronic device 1000 can identify the user's hand 2000 and provides information about the position, shape, and movement of the hand. Information can be obtained.
  • the electronic device 1000 may enter or analyze the virtual input area 3200 by quantifying the angle of the hand at which it is positioned.
  • the electronic device 1000 determines the angle of the virtual keyboard 3000 based on the third vector connecting the tip of the index finger of the left hand and the index finger of the right hand, and uses the virtual keyboard 3000 based on the determined angle. It can be displayed.
  • the reference point of the virtual keyboard may be the 'F' key where the left index finger is located and the 'J' key where the right index finger is located.
  • FIG. 10 is a diagram illustrating a method for an electronic device to determine a virtual input area according to an embodiment of the present disclosure.
  • the electronic device 1000 may determine the virtual input area 3200 based on the presence and location of other objects within the identified plane 3100.
  • the electronic device 1000 provides information about the plane 3100 and information about the objects.
  • the virtual input area 3200 can be determined based on the information.
  • the virtual input area 3200 has a predetermined margin 3400 from the edge of the identified plane 3100, and additionally has a first margin 3400-1 from the first object 4000-1. It may be determined to have a second free space 3400-2 from the second object 4000-2.
  • the electronic device 1000 may output an affordance (action inducer) that induces the user to place his or her hand on the virtual input area 3200.
  • the electronic device 1000 may output a text guide and/or a hand-shaped graphic guide 3300 on the display 1300 instructing to place a hand on the determined virtual input area 3200.
  • the electronic device 1000 may output an audio guide instructing to place a hand on the virtual input area 3200 to the speaker 1410.
  • FIG. 11 is a diagram illustrating a method by which an electronic device displays a virtual keyboard based on the surrounding environment according to an embodiment of the present disclosure.
  • the electronic device 1000 may display the virtual keyboard 3000 based on the background on which the virtual keyboard 3000 is displayed.
  • the electronic device 1000 acquires the background color of the identified plane 3100 using the image sensor 1120, or acquires the background color of the image displayed as the background of the virtual keyboard 1300 on the display 1300. It can be obtained.
  • the electronic device 1000 can display the virtual keyboard 3000 in contrast with the obtained background color, so that the virtual keyboard 3000 appears more visually emphasized. Displaying the virtual keyboard 3000 in contrast means determining the color of the virtual keyboard 3000 to be a complementary color that contrasts with the background color, or determining the brightness of the virtual keyboard 3000 and the brightness of the background color to be as different as possible. It may include, but is not limited to, various color contrast methods may be used.
  • the virtual keyboard 3000 may be displayed as a color or light/dark gradient.
  • FIG. 12 is a diagram illustrating a method for an electronic device to display feedback about typing according to an embodiment of the present disclosure.
  • the electronic device 1000 may provide visual feedback for typing corresponding to the virtual keyboard 3000.
  • virtual keyboard typing accuracy can be improved by providing the user with the accuracy of typing at the current fingertip position.
  • the electronic device 1000 may visually display keys corresponding to the current finger position differently depending on accuracy.
  • the user can see the accuracy when tapping his finger (2007-1) at the current location (2000-1), so he moves his finger (2007-2) to input 'U'.
  • Accuracy for the 'U' key can be increased to 80%.
  • the electronic device 1000 may display the typing accuracy for each key by varying color or transparency, or may place a predetermined marker (for example, a marker) on a key with a higher probability (priority). For example, a border) can be displayed.
  • a predetermined marker for example, a marker
  • a border For example, a border
  • FIG. 13 is a diagram illustrating a method by which an electronic device determines an input method based on the position of a hand, according to an embodiment of the present disclosure.
  • the electronic device 1000 can identify that the user's hand has left the virtual input area while using the virtual keyboard. In this case, the user's left hand can be used as a new input interface.
  • the electronic device 1000
  • the distance between the first virtual input areas 3200-3 can be measured. If the measured distance is less than or equal to a predetermined threshold, the electronic device 1000 determines a second virtual input area 3200-4 corresponding to the user's hand 2000-4 that has left, and the second virtual input area ( 3200-4), the movement of the user's hand can be used as mouse input.
  • the electronic device 1000 may display the pointer 3700 at a predetermined position within the application display area 3600, and the user may move the user's hand within the second virtual input area 3200-4.
  • the electronic device 1000 can be controlled through virtual mouse input corresponding to .
  • a method of displaying a virtual keyboard by a head mounted display (HMD) device may include identifying a keyboard input area selection.
  • a method of displaying a virtual keyboard by a head mounted display (HMD) device may include identifying a hand in the field of view (FOV) of the display based on at least one sensor. there is.
  • a method of displaying a virtual keyboard by a head mounted display (HMD) device may include displaying a virtual keyboard on a display based on identification.
  • a method for a head mounted display (HMD) device to display a virtual keyboard according to an embodiment of the present disclosure may display a virtual keyboard based on the position of the identified hand when a hand is identified in the FOV of the display.
  • a method for an HMD (head mounted display) device to display a virtual keyboard according to an embodiment of the present disclosure may display a virtual keyboard based on the location of the selected keyboard input area when a hand is not identified in the FOV of the display. there is.
  • a method of displaying a virtual keyboard by an HMD device may include obtaining information about a plane within a sensing area of at least one sensor.
  • a method of displaying a virtual keyboard by an HMD device may include identifying a hand on a plane.
  • a method of displaying a virtual keyboard by an HMD device may include determining a virtual input area in a plane based on information about the plane.
  • the method of displaying a virtual keyboard by an HMD device may further include outputting a hand placement guide corresponding to a virtual input area.
  • a method of displaying a virtual keyboard by an HMD device may include, when a hand is identified in the FOV of the display, displaying a real-time captured image of the hand along with the virtual keyboard.
  • a method of displaying a virtual keyboard by an HMD device further includes the steps of image processing keys corresponding to the user's fingers or keys corresponding to virtual keyboard input obtained in response to the movement of the finger. It can be included.
  • the method of displaying a virtual keyboard by an HMD device may further include determining the type of virtual keyboard or arrangement of the virtual keyboard based on position information of the user's hand.
  • a head mounted display (HMD) device that displays a virtual keyboard according to an embodiment of the present disclosure includes a display; Ministry of Communications; a storage unit that stores a program including at least one instruction; and at least one processor executing at least one instruction stored in the storage unit. At least one processor may identify the keyboard input area selection by executing at least one instruction. At least one processor may identify a hand in a field of view (FOV) of a display based on at least one sensor by executing at least one instruction. At least one processor may display a virtual keyboard on the display based on the identification by executing at least one instruction. When a hand is identified in the FOV of the display by executing at least one instruction, the at least one processor may display a virtual keyboard based on the location of the identified hand. At least one processor may display a virtual keyboard based on the location of the selected keyboard input area when a hand is not identified in the FOV of the display by executing at least one instruction.
  • FOV field of view
  • At least one processor may obtain information about a plane within a sensing area of at least one sensor. In an HMD device that displays a virtual keyboard according to an embodiment of the present disclosure, at least one processor may identify a hand on a plane.
  • At least one processor may determine a virtual input area in the plane based on information about the plane.
  • At least one processor may output a hand placement guide corresponding to the virtual input area.
  • At least one processor may display a real-time captured image of the hand along with the virtual keyboard.
  • At least one processor is configured to image process keys corresponding to the user's fingers or keys corresponding to virtual keyboard input acquired in response to the movement of the finger. You can.
  • At least one processor may determine the type of virtual keyboard or arrangement of the virtual keyboard based on position information of the user's hand.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory storage medium' simply means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as .
  • a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • a computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store or between two user devices (e.g. smartphones). It may be distributed in person or online (e.g., downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
  • a machine-readable storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A method of a head mounted display (HMD) device displaying a virtual keyboard, according to an embodiment of the present disclosure, may comprise a step for identifying selection of a keyboard input area. A method of a head mounted display (HMD) device displaying a virtual keyboard, according to an embodiment of the present disclosure, may comprise a step for identifying hands in the field of view (FOV) of a display on the basis of at least one sensor. A method of a head mounted display (HMD) device displaying a virtual keyboard, according to an embodiment of the present disclosure, may comprise a step for displaying the virtual keyboard on the display on the basis of the identification. In a method of a head mounted display (HMD) device displaying a virtual keyboard, according to an embodiment of the present disclosure, if hands are identified in the FOV of the display, the virtual keyboard may be displayed on the basis of a location of the identified hands. In a method of a head mounted display (HMD) device displaying a virtual keyboard, according to an embodiment of the present disclosure, if hands are not identified in the FOV of the display, the virtual keyboard may be displayed on the basis of a location of the selected keyboard input area.

Description

HMD(HEAD MOUNTED DISPLAY) 장치에서 가상키보드를 표시하는 방법 및 장치Method and device for displaying virtual keyboard on HMD (HEAD MOUNTED DISPLAY) device
증강 현실 또는 가상 현실 기술의 발달과 함께 HMD 장치는 증강 현실 경험 또는 가상 현실 경험을 제공하기 위한 도구로써 널리 사용되고 있다. HMD 장치는 제한적인 공간으로 인해 물리적 사용자 인터페이스를 대체할 수 있는 다양한 사용자 인터페이스가 적용되며, 대표적으로 가상키보드가 있다.With the development of augmented reality or virtual reality technology, HMD devices are widely used as a tool to provide augmented reality or virtual reality experiences. Due to the limited space of HMD devices, various user interfaces that can replace the physical user interface are applied, a representative example being a virtual keyboard.
가상키보드는 물리적 키보드와 구별되는 개념으로, 소프트웨어를 통해 구현한 가상의 키보드를 의미한다. HMD 장치 등과 같이 물리적 키보드를 연결하여 사용하기 어려운 경우 가상키보드는 유용한 사용자 입력 수단이 될 수 있다.A virtual keyboard is a concept distinct from a physical keyboard and refers to a virtual keyboard implemented through software. In cases where it is difficult to connect and use a physical keyboard, such as an HMD device, a virtual keyboard can be a useful user input method.
본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 키보드 입력 영역 선택을 식별하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 적어도 하나의 센서에 기초하여, 디스플레이의 FOV(field of view)에서 손을 식별하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 식별에 기초하여 디스플레이에 가상키보드를 표시하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 디스플레이의 FOV에서 손이 식별된 경우, 식별된 손의 위치에 기초하여 가상키보드를 표시할 수 있다. 본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 디스플레이의 FOV에 손이 식별되지 않은 경우, 선택된 키보드 입력 영역의 위치에 기초하여 가상키보드를 표시할 수 있다.A method of displaying a virtual keyboard by a head mounted display (HMD) device according to an embodiment of the present disclosure may include identifying a keyboard input area selection. A method of displaying a virtual keyboard by a head mounted display (HMD) device according to an embodiment of the present disclosure may include identifying a hand in the field of view (FOV) of the display based on at least one sensor. there is. A method of displaying a virtual keyboard by a head mounted display (HMD) device according to an embodiment of the present disclosure may include displaying a virtual keyboard on a display based on identification. A method for a head mounted display (HMD) device to display a virtual keyboard according to an embodiment of the present disclosure may display a virtual keyboard based on the position of the identified hand when a hand is identified in the FOV of the display. A method for an HMD (head mounted display) device to display a virtual keyboard according to an embodiment of the present disclosure may display a virtual keyboard based on the location of the selected keyboard input area when a hand is not identified in the FOV of the display. there is.
본 개시의 일 실시예에 따른 가상키보드를 표시하는 HMD(head mounted display) 장치는, 디스플레이; 통신부; 적어도 하나의 명령어(instruction)를 포함하는 프로그램을 저장하는 저장부; 및 저장부에 저장된 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 키보드 입력 영역 선택을 식별할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 적어도 하나의 센서에 기초하여, 디스플레이의 FOV(field of view)에서 손을 식별할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 식별에 기초하여 디스플레이에 가상키보드를 표시할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 디스플레이의 FOV에서 손이 식별된 경우, 식별된 손의 위치에 기초하여 가상키보드를 표시할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 디스플레이의 FOV에 손이 식별되지 않은 경우, 선택된 키보드 입력 영역의 위치에 기초하여 가상키보드를 표시할 수 있다.A head mounted display (HMD) device that displays a virtual keyboard according to an embodiment of the present disclosure includes a display; Ministry of Communications; a storage unit that stores a program including at least one instruction; and at least one processor executing at least one instruction stored in the storage unit. At least one processor may identify the keyboard input area selection by executing at least one instruction. At least one processor may identify a hand in a field of view (FOV) of a display based on at least one sensor by executing at least one instruction. At least one processor may display a virtual keyboard on the display based on the identification by executing at least one instruction. When a hand is identified in the FOV of the display by executing at least one instruction, the at least one processor may display a virtual keyboard based on the location of the identified hand. At least one processor may display a virtual keyboard based on the location of the selected keyboard input area when a hand is not identified in the FOV of the display by executing at least one instruction.
한편, 본 개시의 일 실시예에 따르면, 전술한 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.Meanwhile, according to one embodiment of the present disclosure, a computer-readable recording medium on which a program for executing the above-described method is recorded is provided.
도 1a 및 도 1b는 본 개시의 일 실시예에 따른 전자장치의 예시를 나타내는 도면이다. 1A and 1B are diagrams illustrating examples of electronic devices according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따른 전자장치의 블록도를 나타낸다.Figure 2 shows a block diagram of an electronic device according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른 전자장치가, 평면을 식별하고 가상입력 영역을 결정하는 방법을 설명하기 위한 도면이다. FIG. 3 is a diagram illustrating a method by which an electronic device identifies a plane and determines a virtual input area according to an embodiment of the present disclosure.
도 4a 및 도 4b는 본 개시의 일 실시예에 따른 전자장치의 디스플레이에 가상키보드를 표시하고, 사용자와 인터랙션하는 방법을 설명하기 위한 도면이다. FIGS. 4A and 4B are diagrams for explaining a method of displaying a virtual keyboard on the display of an electronic device and interacting with a user, according to an embodiment of the present disclosure.
도 5a 및 도 5b는 본 개시의 일 실시예에 따른 전자장치의 디스플레이에 가상키보드를 표시하고, 사용자와 인터랙션하는 방법을 설명하기 위한 도면이다. FIGS. 5A and 5B are diagrams for explaining a method of displaying a virtual keyboard on the display of an electronic device and interacting with a user, according to an embodiment of the present disclosure.
도 6a 및 도 6b는 본 개시의 일 실시예에 따른 전자장치가 가상키보드를 표시하고 사용자와 인터랙션하는 방법을 나타내는 도면이다. FIGS. 6A and 6B are diagrams illustrating a method by which an electronic device displays a virtual keyboard and interacts with a user according to an embodiment of the present disclosure.
도 7은 본 개시의 일 실시예에 따른 전자장치가 가상 키보드를 표시하는 방법의 순서도이다.Figure 7 is a flowchart of a method for an electronic device to display a virtual keyboard according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따른 전자장치가 손의 위치 및 각도에 기초하여 가상키보드를 제공하는 방법을 나타내는 도면이다. FIG. 8 is a diagram illustrating a method by which an electronic device provides a virtual keyboard based on the position and angle of the hand, according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시예에 따른 전자장치가 손의 위치 및 각도에 기초하여 가상키보드를 제공하는 방법을 나타내는 도면이다. FIG. 9 is a diagram illustrating a method by which an electronic device provides a virtual keyboard based on the position and angle of the hand, according to an embodiment of the present disclosure.
도 10은 본 개시의 일 실시예에 따른 전자장치가 가상입력 영역을 결정하는 방법을 나타내는 도면이다. FIG. 10 is a diagram illustrating a method for an electronic device to determine a virtual input area according to an embodiment of the present disclosure.
도 11은 본 개시의 일 실시예에 따른 전자장치가 주변 환경에 기초하여 가상키보드를 표시하는 방법을 나타내는 도면이다. FIG. 11 is a diagram illustrating a method by which an electronic device displays a virtual keyboard based on the surrounding environment according to an embodiment of the present disclosure.
도 12는 본 개시의 일 실시예에 따른 전자장치가 타이핑에 대한 피드백을 표시하는 방법을 나타내는 도면이다. FIG. 12 is a diagram illustrating a method for an electronic device to display feedback about typing according to an embodiment of the present disclosure.
도 13은 본 개시의 일 실시예에 따른 전자장치가 손의 위치에 기초하여 입력방식을 결정하는 방법을 나타내는 도면이다.FIG. 13 is a diagram illustrating a method by which an electronic device determines an input method based on the position of a hand, according to an embodiment of the present disclosure.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 실시 예를 설명함에 있어서 본 개시가 속하는 기술 분야에 익히 알려져 있고 본 개시와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 개시의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다. 마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Below, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily implement the present disclosure. In describing the embodiments, description of technical content that is well known in the technical field to which this disclosure belongs and that is not directly related to this disclosure will be omitted. This is to convey the gist of the present disclosure more clearly without obscuring it by omitting unnecessary explanation. For the same reason, some components are exaggerated, omitted, or schematically shown in the accompanying drawings. Additionally, the size of each component does not entirely reflect its actual size.
그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present disclosure in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present disclosure and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely intended to ensure that the present disclosure is complete, and those of ordinary skill in the art to which the present disclosure pertains are not limited to the present disclosure. It is provided to fully inform the scope of the present disclosure, and the present disclosure is defined only by the scope of the claims.
이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.At this time, it will be understood that each block of the processing flow diagram diagrams and combinations of the flow diagram diagrams can be performed by computer program instructions. These computer program instructions can be mounted on a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, so that the instructions performed through the processor of the computer or other programmable data processing equipment are described in the flow chart block(s). It creates the means to perform functions. These computer program instructions may also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular manner, so that the computer-usable or computer-readable memory It is also possible to produce manufactured items containing instruction means that perform the functions described in the flowchart block(s). Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer, thereby generating a process that is executed by the computer or other programmable data processing equipment. Instructions that perform processing equipment may also provide steps for executing the functions described in the flow diagram block(s).
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). Additionally, it should be noted that in some alternative execution examples it is possible for the functions mentioned in the blocks to occur out of order. For example, it is possible for two blocks shown in succession to be performed substantially at the same time, or it is possible for the blocks to be performed in reverse order depending on the corresponding function.
이 때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다. 또한 실시예에서 ‘~부’는 하나 이상의 프로세서를 포함할 수 있다.At this time, the term '~unit' used in this embodiment refers to software or hardware components such as FPGA or ASIC, and the '~unit' performs certain roles. However, '~part' is not limited to software or hardware. The '~ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card. Also, in the embodiment, ‘~ part’ may include one or more processors.
본 개시에서, 증강 현실 또는 AR(Augmented Reality)은 현실 세계의 물리적 환경 공간 내에 가상 이미지를 함께 보여주거나 현실 객체와 가상 객체 이미지를 함께 보여주는 것을 의미한다. AR 글래스 등 AR 전용 전자장치에서는 시스루(see-through) 디스플레이를 통과해 보여지는 현실 객체와, 장치의 디스플레이에 표시되는 가상 객체 이미지가 함께 보여진다. 모바일 장치에서는 카메라를 통해 촬영되는 현실 객체와 가상 객체가 함께 디스플레이에 표시되어 보여진다. 이미지, 배경, 주변 환경, 사물 등이 모두 가상의 이미지인 가상 현실(VR, virtual reality)과 달리, 증강 현실에서는 배경이나 주변 환경, 사물 등은 현실 객체이며 추가되는 정보만이 가상이다. 증강 현실은 부가적인 정보를 제공하는 동시에 현실의 효과를 더욱 증가시킬 수 있으므로, 다양한 산업 분야에서 응용될 수 있다. In the present disclosure, augmented reality or AR (Augmented Reality) means showing a virtual image together in a physical environment space of the real world or showing a real object and a virtual object image together. In AR-dedicated electronic devices such as AR glasses, real objects shown through a see-through display and virtual object images displayed on the device's display are shown together. In mobile devices, real objects and virtual objects captured by a camera are displayed together on the display. Unlike virtual reality (VR), where images, backgrounds, surroundings, and objects are all virtual images, in augmented reality, the background, surroundings, and objects are real objects, and only the added information is virtual. Augmented reality can provide additional information while further increasing the effect of reality, so it can be applied in various industrial fields.
본 개시에서, '가상 현실(VR: Virtual Reality)'은 가상 이미지를 실제처럼 보여주는 것을 의미한다.In this disclosure, ‘Virtual Reality (VR)’ means showing a virtual image as if it were real.
아울러, '가상 현실 장치(Virtual Reality Device) 또는 VR 장치'라 함은 '가상 현실'을 표현할 수 있는 장치로서, 일반적으로 사용자가 안면부(顔面部)에 착용하는 안경 형상의 가상 현실 장치뿐만 아니라, 두부(頭部)에 착용하는 헤드 마운트 디스플레이 장치 (HMD: Head Mounted Display Apparatus)나, 가상 현실 헬멧(Virtual Reality Helmet) 등을 포괄한다.In addition, 'Virtual Reality Device or VR device' refers to a device that can express 'virtual reality', and is not only a virtual reality device in the form of glasses that the user generally wears on the face, It includes Head Mounted Display Apparatus (HMD) and Virtual Reality Helmet worn on the head.
가상키보드는 물리적 키보드와 구별되는 개념으로, 소프트웨어를 통해 구현한 가상의 키보드를 의미한다. HMD 장치 등과 같이 물리적 키보드를 연결하여 사용하기 어려운 경우 가상키보드는 유용한 사용자 입력 수단이 될 수 있다.A virtual keyboard is a concept distinct from a physical keyboard and refers to a virtual keyboard implemented through software. In cases where it is difficult to connect and use a physical keyboard, such as an HMD device, a virtual keyboard can be a useful user input method.
가상키보드를 사용하는 경우 사용자가 물리적으로 인식하기 어려운 평면 상에 가상의 그래픽을 투사하기때문에, 화면을 바라보면서 사용자의 손의 위치 및 정렬을 알기 어렵다. 이로 인해 사용자는 가상키보드를 직접 보면서 입력해야 하는데 가상의 화면이 사용자의 정면에 배치되는 HMD 장치의 특성상 가상키보드를 보기 위해서 시선을 정면에서 아래로 보게 되는데, HMD 장치의 특성상 무게 중심이 사용자의 안면에 있는데, 시야 이동이 장시간 반복될 경우 피로 및 어지러움을 유발할 수 있고 HMD 장치를 착용한 상태에서 아래를 바라보는 경우 사용자의 목에 부담이 가중될 수 있다. When using a virtual keyboard, it is difficult to know the position and alignment of the user's hands while looking at the screen because virtual graphics are projected onto a plane that is difficult for the user to physically recognize. Due to this, the user must input while looking directly at the virtual keyboard. However, due to the nature of the HMD device, where the virtual screen is placed in front of the user, the user must look straight down to view the virtual keyboard. Due to the nature of the HMD device, the center of gravity is at the user's face. If the movement of the field of view is repeated for a long period of time, it can cause fatigue and dizziness, and looking down while wearing the HMD device can increase the burden on the user's neck.
따라서, 정면을 바라본 상태에서 가상키보드를 사용할 수 있도록 하는 기술이 필요하다. Therefore, there is a need for technology that allows the virtual keyboard to be used while facing the front.
도 1a 및 도 1b는 본 개시의 일 실시예에 따른 전자장치의 예시를 나타내는 도면이다. 1A and 1B are diagrams illustrating examples of electronic devices according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따른 전자장치(1000)는 증강 현실 장치 또는 가상 현실 장치일 수 있으나 이에 제한되는 것은 아니며, HMD(head mounted display) 장치로서, 가상키보드를 제공하고 가상키보드를 텍스트 입력을 획득하는 기능을 수행하는 모든 장치를 포함할 수 있다. The electronic device 1000 according to an embodiment of the present disclosure may be an augmented reality device or a virtual reality device, but is not limited thereto, and is a head mounted display (HMD) device that provides a virtual keyboard and allows text input using the virtual keyboard. It can include any device that performs the acquisition function.
도 1a를 참조하면, 전자장치(1000)는 안경형 디스플레이 장치로서 사용자가 착용할 수 있도록 구성된 안경형 몸체를 포함할 수 있다. Referring to FIG. 1A , the electronic device 1000 is a glasses-type display device and may include a glasses-type body configured to be worn by a user.
안경형 몸체는 프레임(또는 림, rim)(110) 및 지지부(190)를 포함할 수 있으며, 지지부(190)는 프레임(110)으로부터 연장되어 사용자의 머리에 증강 현실 장치를 안착시키는데 이용될 수 있다. 지지부(190)는 템플(190L 및 190R) 및 코 지지부(미도시)를 포함할 수 있다. 템플(190L 및 190R)은 프레임(110)으로부터 연장되어 안경형 몸체의 측면부에서 사용자의 머리에 전자장치(1000)를 고정하는데 이용될 수 있다. 코 지지부(미도시)는 프레임(110)으로부터 연장되어 사용자의 코 부분에 전자장치(1000)를 안착시키는데 이용될 수 있으며, 예를 들어, 코 다리 및 안경 코를 포함할 수 있으나, 이에 제한되지 않는다.The eyeglass-shaped body may include a frame (or rim) 110 and a support portion 190, and the support portion 190 extends from the frame 110 and may be used to seat the augmented reality device on the user's head. . The support portion 190 may include temples 190L and 190R and a nose support portion (not shown). The temples 190L and 190R extend from the frame 110 and may be used to secure the electronic device 1000 to the user's head at the side portion of the glasses-shaped body. The nose support unit (not shown) extends from the frame 110 and may be used to seat the electronic device 1000 on the user's nose, and may include, for example, the bridge of the nose and the nose of glasses, but is not limited thereto. No.
또한, 프레임(110)에는 렌즈부(1350) 및 웨이브 가이드(1320)가 위치할 수 있다. 렌즈부(1350)는 좌안용 렌즈부(1350L) 및 우안용 렌즈부(1350R)를 포함할 수 있다. 또한, 웨이브 가이드(1320)는 투사된 광을 입력 영역에서 입력받고 입력된 광의 적어도 일부를 출력 영역에서 출력하도록 구성될 수 있다. 이러한 웨이브 가이드 (1320)는 좌안용 웨이브 가이드(1320L) 및 우안용 웨이브 가이드 (1320R)를 포함할 수 있다.Additionally, a lens unit 1350 and a wave guide 1320 may be located in the frame 110. The lens unit 1350 may include a lens unit 1350L for the left eye and a lens unit 1350R for the right eye. Additionally, the wave guide 1320 may be configured to receive projected light from an input area and output at least a portion of the input light from an output area. This wave guide 1320 may include a wave guide 1320L for the left eye and a wave guide 1320R for the right eye.
좌안용 렌즈부(1350L) 및 좌안용 웨이브 가이드(1320L)가 사용자의 좌안에 대응되는 위치에 배치될 수 있으며, 우안용 렌즈부(1350R) 및 우안용 웨이브 가이드 (1320R)가 사용자의 우안에 대응되는 위치에 배치될 수 있다. 예를 들어, 좌안용 렌즈부(1350L)와 좌안용 웨이브 가이드(1320L)가 서로 부착되거나, 우안용 렌즈부 (1350R) 및 우안용 웨이브 가이드(1320R)가 서로 부착될 수 있으나, 이에 제한되지 않는다.The left eye lens unit (1350L) and the left eye wave guide (1320L) can be placed in a position corresponding to the user's left eye, and the right eye lens unit (1350R) and the right eye wave guide (1320R) can be placed in a position corresponding to the user's right eye. It can be placed in any location. For example, the left eye lens unit 1350L and the left eye wave guide 1320L may be attached to each other, or the right eye lens unit 1350R and the right eye wave guide 1320R may be attached to each other, but are not limited thereto. .
또한, 화상을 담은 디스플레이 광을 투사하는 프로젝터의 광학 엔진(1310)은 좌안용 광학 엔진(1310L) 및 우안용 광학 엔진(1310R)을 포함할 수 있다. 좌안용 광학 엔진(1310L) 및 우안용 광학 엔진(1310R)은 전자장치(1000)의 양 측면에 위치할 수 있다. 또는 하나의 광학 엔진(1310)이 전자장치(1000)의 코 지지부(192) 주변 중앙 부분에 포함될 수도 있다. 광학 엔진(120)으로부터 출사된 광은 웨이브 가이드(1320)를 통해 표시될 수 있다.Additionally, the optical engine 1310 of the projector that projects display light containing an image may include an optical engine 1310L for the left eye and an optical engine 1310R for the right eye. The left eye optical engine 1310L and the right eye optical engine 1310R may be located on both sides of the electronic device 1000. Alternatively, one optical engine 1310 may be included in the central portion around the nose support 192 of the electronic device 1000. Light emitted from the optical engine 120 may be displayed through the wave guide 1320.
HMD 디스플레이 장치와 사용자와의 인터랙션을 위한 사용자 인터페이스(UI, user interface)는 사용자의 시선, 또는 사용자의 모션(제스쳐) 정보를 포함할 수 있다. 이와 같은 정보들은 전자장치(1000)에 포함되는 센서들에 의해 획득되는 센싱 결과에 기초하여 획득될 수 있다. A user interface (UI) for interaction between the HMD display device and the user may include the user's gaze or the user's motion (gesture) information. Such information may be obtained based on sensing results obtained by sensors included in the electronic device 1000.
도 1b를 참조하면, 전자장치(1000)의 전면에는 외부 환경 또는 사용자의 움직임을 센싱할 수 있는 센서부(1100)가 배치될 수 있다. 센서부(1100)는, 거리 센서(1110), 이미지 센서(1120), 자이로 센서(1130), 및 가속도 센서(1140)를 포함할 수 있다. Referring to FIG. 1B, a sensor unit 1100 capable of sensing the external environment or the user's movement may be disposed on the front of the electronic device 1000. The sensor unit 1100 may include a distance sensor 1110, an image sensor 1120, a gyro sensor 1130, and an acceleration sensor 1140.
거리 센서(1110)는, 초음파 센서, 적외선 센서, 라이다 센서(LIDAR, LIght Detection And Ranging), 또는 레이더(RADAR, Radio Detection And Ranging) 센서 중 적어도 하나를 포함할 수 있다. The distance sensor 1110 may include at least one of an ultrasonic sensor, an infrared sensor, a LIDAR (LIght Detection And Ranging) sensor, or a RADAR (Radio Detection And Ranging) sensor.
초음파 센서는, 초음파를 발사하고 반사파를 수신할 때까지 걸린 시간 또는 수신된 반사파의 파장 등에 기초하여 거리를 측정한다. 적외선 센서는, 가시광선보다 파장이 긴 전자기파를 이용하며 적외선은 파장이 길고 에너지가 낮기 때문에 안전하다. 적외선을 이용한 단거리 측정 센서는 센서에서 적외선을 조사하여 반사된 적외선의 강도에 따라 거리를 측정할 수 있다. 적외선 센서는 빛이 피사체에 반사되어 돌아오는 시간을 측정하여 거리를 계산하므로 ToF(time of flight) 센서라고도 불린다. 센서로부터 조사된 빛은 피사체의 굴곡에 따라 반사되어 돌아오는 시간이 각각 다르며, 이 시간차를 이용하여 피사체와의 거리 측정, 3D 스캔, 또는 높이 측정 등이 가능하다. The ultrasonic sensor measures the distance based on the time taken from transmitting ultrasonic waves to receiving reflected waves or the wavelength of the received reflected waves. Infrared sensors use electromagnetic waves with longer wavelengths than visible light, and infrared rays are safe because they have long wavelengths and low energy. A short-distance measurement sensor using infrared rays can measure distance according to the intensity of the reflected infrared rays by radiating infrared rays from the sensor. Infrared sensors are also called ToF (time of flight) sensors because they calculate distance by measuring the time it takes for light to reflect and return to the subject. The light emitted from the sensor reflects and returns at different times depending on the curvature of the subject, and this time difference can be used to measure the distance to the subject, 3D scan, or height measurement.
라이다 센서는, 탐지 범위가 좁지만 직진성이 강한 레이저를 사용하여 왜곡이 발생할 확률이 낮으므로 카메라나 레이더에 비해 정밀도가 높아 오차범위가 mm단위에 불과하다. 또한 라이다는 카메라나 레이더에 비해 높은 수평 방위각을 가지고 있어 고도와 방위를 정확히 측정할 수 있으며 작은 물체를 감지하는 능력도 뛰어나고 온도 또는 물질 분포 등을 감지할 수 있다. 레이더 센서는, 조사한 전자파가 대상에 부딪힌 뒤 돌아오는 반사파를 측정하여 대상의 존재, 방향 거리 및 속도를 파악할 수 있다. 전파를 사용하므로 주변 환경에 민감도가 낮아 안정적인 측정이 가능하다. The LiDAR sensor has a narrow detection range, but uses a laser with strong straight-line motion, so there is a low probability of distortion occurring, so it has higher precision than cameras or radars, and the error range is only in the mm unit. In addition, LIDAR has a higher horizontal azimuth than cameras or radars, so it can accurately measure altitude and direction, has an excellent ability to detect small objects, and can detect temperature or material distribution. A radar sensor can determine the existence, direction, distance, and speed of an object by measuring the reflected wave that returns after the irradiated electromagnetic waves hit the object. Since it uses radio waves, it has low sensitivity to the surrounding environment, enabling stable measurements.
이미지 센서(1120)는, 대표적으로 카메라가 있으며 대상을 촬영하여 존재, 위치 및 크기를 식별할 수 있다. 이미지 센서(1120)는 촬영 기능을 요구하는 애플리케이션이 실행되는 경우에 정지 영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서(1120)를 통해 캡쳐된 이미지는 프로세서(1800) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 이미지 센서(1120)는, 예를 들어, 회전 가능한 RGB 카메라 모듈 또는 복수의 뎁스 카메라 모듈 중 적어도 하나를 구성할 수 있으나, 이에 제한되지 않는다.The image sensor 1120 typically has a camera and can photograph an object to identify its presence, location, and size. The image sensor 1120 can obtain an image frame, such as a still image or video, when an application requiring a shooting function is executed. The image captured through the image sensor 1120 may be processed through the processor 1800 or a separate image processor (not shown). The image sensor 1120 may include, for example, at least one of a rotatable RGB camera module or a plurality of depth camera modules, but is not limited thereto.
전자장치(1000)는 이미지 센서(1120)를 이용해 촬영된 외부 영상을 내부 디스플레이에 실시간으로 표시(재생)하여 VST(video see-through) 기능을 구현할 수 있다. VST는, 시스루 디스플레이를 통해 사용자의 눈으로 직접 인지하는 외부환경에 디스플레이(렌즈)에 투사된 가상 이미지를 겹쳐서 표시하는 OST(optical see-through)와 달리, 카메라(또는 비전 센서)를 통해 촬영된 이미지를 가상 콘텐츠와 겹쳐서 표시하는 디스플레이 방식으로 pass through라고 지칭될 수도 있다. VST 기능은 외부 시야가 차단되는 암막형 HMD 장치에서 외부 환경을 인지할 수 있는 효과적 수단이 될 수 있다. 이미지 센서(1120)는 복수개의 이미지 센서들로 구성될 수 있다.The electronic device 1000 may implement a VST (video see-through) function by displaying (playing) an external image captured using the image sensor 1120 on an internal display in real time. Unlike OST (optical see-through), which displays a virtual image projected on a display (lens) over the external environment directly perceived by the user's eyes through a see-through display, VST displays images captured through a camera (or vision sensor). A display method that displays images overlapping virtual content may also be referred to as pass through. The VST function can be an effective means of recognizing the external environment in a blackout HMD device where the external view is blocked. The image sensor 1120 may be composed of a plurality of image sensors.
자이로 센서(1130)는 각속도를 측정하는 센서로, MEMS 기술을 적용하여 칩 형태로 구현된 자이로스코프를 의미한다. 자이로 센서(1130)는 전자장치(1000)의 회전 및 회전 속도를 감지할 수 있다. The gyro sensor 1130 is a sensor that measures angular velocity and refers to a gyroscope implemented in chip form by applying MEMS technology. The gyro sensor 1130 can detect the rotation and rotation speed of the electronic device 1000.
가속도 센서(1140)는 속도의 변화(가속도), 또는 운동량의 변화(충격량)등의 동적 힘을 측정하는 센서로, 전자장치(1000)의 운동 상태를 상세하게 감지할 수 있다. The acceleration sensor 1140 is a sensor that measures dynamic force, such as a change in speed (acceleration) or a change in momentum (impact), and can detect the motion state of the electronic device 1000 in detail.
자이로 센서(1130) 및 가속도 센서(1140)은 전자장치(1000)의 움직임 또는 사용자의 움직임을 감지할 수 있다. The gyro sensor 1130 and the acceleration sensor 1140 may detect movement of the electronic device 1000 or movement of the user.
거리 센서(1110) 및 이미지 센서(1120)를 이용하여 센싱한 객체의 움직임과 자이로 센서 및 가속도 센서(1140)를 이용하여 센싱한 전자장치(1000)의 움직임에 대한 정보를 이용함으로써, 보다 정확한 센싱 결과를 획득할 수 있다. More accurate sensing by using information about the movement of the object sensed using the distance sensor 1110 and the image sensor 1120 and the movement of the electronic device 1000 sensed using the gyro sensor and acceleration sensor 1140. results can be obtained.
도 2는 본 개시의 일 실시예에 따른 전자장치의 블록도를 나타낸다.Figure 2 shows a block diagram of an electronic device according to an embodiment of the present disclosure.
도 2를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(1000)는 센서부(1100), 입력부(1200), 디스플레이부(1300), 출력부(1400), 통신 인터페이스(1600), 저장부(1700) 및 프로세서(1800)를 포함할 수 있다. Referring to FIG. 2, the electronic device 1000 according to an embodiment of the present disclosure includes a sensor unit 1100, an input unit 1200, a display unit 1300, an output unit 1400, a communication interface 1600, and a storage unit. It may include a unit 1700 and a processor 1800.
센서부(1100)는 전자 장치(1000) 주변의 환경을 감지할 수 있다. 센서부(1100)는 거리 센서(1110), 이미지 센서(1120), 자이로 센서(1130), 가속도 센서(1140), 및 시선 추적 센서(1150) 외에도 온도 센서, 자이로 센서, 거리 센서(LADAR, LIDAR), 적외선 센서, UWB 센서를 포함할 수 있다. 거리 센서(1110), 이미지 센서(1120), 자이로 센서(1130), 및 가속도 센서(1140)에 대한 설명은 도 1b에서 전술하였으므로, 자세한 설명은 생략한다.The sensor unit 1100 can sense the environment around the electronic device 1000. The sensor unit 1100 includes a distance sensor 1110, an image sensor 1120, a gyro sensor 1130, an acceleration sensor 1140, and an eye tracking sensor 1150, as well as a temperature sensor, a gyro sensor, and a distance sensor (LADAR, LIDAR). ), an infrared sensor, and a UWB sensor. Since the distance sensor 1110, the image sensor 1120, the gyro sensor 1130, and the acceleration sensor 1140 have been described above with reference to FIG. 1B, detailed descriptions will be omitted.
시선 추적 센서(1150)는 전자 장치(1000)를 착용한 사용자의 시선을 검출하고, 추적할 수 있다. 시선 추적 센서(1150)는 사용자의 눈을 향하는 방향으로 설치될 수 있으며, 사용자의 좌안의 시선 방향 및 사용자의 우안의 시선 방향을 검출할 수 있다. 사용자의 시선 방향을 검출하는 것은, 사용자의 시선에 관련된 시선 정보를 획득하는 동작을 포함할 수 있다. The gaze tracking sensor 1150 can detect and track the gaze of the user wearing the electronic device 1000. The gaze tracking sensor 1150 may be installed in a direction toward the user's eyes and can detect the gaze direction of the user's left eye and the gaze direction of the user's right eye. Detecting the user's gaze direction may include obtaining gaze information related to the user's gaze.
입력부(1200)는, 사용자가 전자 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미하며, 마이크(1210) 및 버튼부(1220)를 포함할 수 있다. The input unit 1200 refers to a means for a user to input data to control the electronic device 1000, and may include a microphone 1210 and a button unit 1220.
마이크(1210)는, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크(1210)는 외부 디바이스 또는 화자로부터의 음향 신호를 수신할 수 있다. 마이크(1210)를 통해 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 이용될 수 있다. 마이크(1210)는 전자 장치(1000)를 제어하기 위한 사용자의 음성 입력을 수신할 수 있다. The microphone 1210 receives external acoustic signals and processes them into electrical voice data. For example, the microphone 1210 may receive an acoustic signal from an external device or a speaker. Various noise removal algorithms can be used to remove noise generated in the process of receiving an external acoustic signal through the microphone 1210. The microphone 1210 may receive a user's voice input for controlling the electronic device 1000.
버튼부(1220)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠 또는 조그 스위치 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다. The button unit 1220 includes a key pad, a dome switch, and a touch pad (contact capacitance type, pressure resistance membrane type, infrared detection type, surface ultrasonic conduction type, integral tension measurement type, It may include, but is not limited to, at least one of a piezo effect type, etc.), a jog wheel, or a jog switch.
디스플레이부(1300)는, 전자 장치(1000)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이부(1300)는, 전자 장치(1000)의 주변을 촬영하기 위한 사용자 인터페이스 및 전자 장치(1000) 주변의 촬영된 이미지를 기반으로 제공되는 서비스에 관련된 정보를 디스플레이할 수 있다. The display unit 1300 displays and outputs information processed by the electronic device 1000. For example, the display unit 1300 may display a user interface for photographing the surroundings of the electronic device 1000 and information related to services provided based on the captured images of the surroundings of the electronic device 1000.
디스플레이부(1300)와 터치패드가 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이부(1300)는 입력 장치로도 사용될 수 있다. 디스플레이부(1300)는 액정 디스플레이부(liquid crystal display), 박막 트랜지스터 액정 디스플레이부(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이부(flexible display), 3차원 디스플레이부(3D display), 전기영동 디스플레이부(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. When the display unit 1300 and the touch pad form a layered structure to form a touch screen, the display unit 1300 can also be used as an input device. The display unit 1300 includes a liquid crystal display unit, a thin film transistor-liquid crystal display unit, an organic light-emitting diode, a flexible display unit, 3 It may include at least one of a 3D display unit and an electrophoretic display unit.
일 실시 예에 의하면, 디스플레이부(1300)는 AR 영상 및 VR 영상을 제공할 수 있다. 도 1a에서와 같이, 디스플레이부(1300)는 광학 엔진(1380)을 포함할 수 있다. 전자 장치(1000)가 안경 형태의 장치인 경우에, 디스플레이부(1300)는 좌측 디스플레이부 및 우측 디스플레이부를 포함할 수 있다.According to one embodiment, the display unit 1300 may provide AR images and VR images. As shown in FIG. 1A, the display unit 1300 may include an optical engine 1380. When the electronic device 1000 is a glasses-type device, the display unit 1300 may include a left display unit and a right display unit.
출력부(1400)는 오디오 신호 또는 햅틱 신호의 출력을 위한 것이다. The output unit 1400 is for outputting audio signals or haptic signals.
스피커(1410)는 통신 인터페이스(1600)로부터 수신되거나 저장부(1700)에 저장된 오디오 데이터를 출력할 수 있다. 복수의 스피커는 입체 음향 신호를 출력할 수도 있다. 예를 들어, 복수의 스피커는 우측 채널 스피커, 좌측 채널 스피커, 모노 채널 스피커 중 적어도 하나로 구현될 수 있다. 또한, 복수의 스피커는 전자장치 (1000)에서 수행되는 기능(예를 들어, 알림음, 안내 음성, 가이드 음성)과 관련된 음향 신호를 출력할 수 있다. The speaker 1410 may output audio data received from the communication interface 1600 or stored in the storage unit 1700. A plurality of speakers may output three-dimensional sound signals. For example, the plurality of speakers may be implemented as at least one of a right channel speaker, a left channel speaker, and a mono channel speaker. Additionally, the plurality of speakers may output sound signals related to functions performed by the electronic device 1000 (eg, notification sound, guidance voice, guide voice).
햅틱 모듈(1420)은 전자장치 (1000)에서 수행되는 기능과 관련된 햅틱 신호를 출력할 수 있다. 햅틱 신호는 강도 또는 패턴에 따라 구별될 수 있다.The haptic module 1420 may output haptic signals related to functions performed in the electronic device 1000. Haptic signals can be distinguished based on intensity or pattern.
통신 인터페이스(1600)는 전자 장치(1000)에 관련된 서비스를 제공 받기 위한 데이터를 외부 디바이스(미도시) 및 서버(미도시)와 송수신할 수 있다. 통신 인터페이스(1600)는 전자 장치(1000)와 서버 장치(미도시), 전자 장치(1000)와 외부 장치(미도시) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신 인터페이스(1600)는, 근거리 통신부, 및 방송 수신부를 포함할 수 있다. The communication interface 1600 can transmit and receive data for providing services related to the electronic device 1000 with an external device (not shown) and a server (not shown). The communication interface 1600 may include one or more components that enable communication between the electronic device 1000 and a server device (not shown), and between the electronic device 1000 and an external device (not shown). For example, the communication interface 1600 may include a short-range communication unit and a broadcast reception unit.
근거리 통신부(short-range wireless communication unit)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range wireless communication unit includes a Bluetooth communication unit, BLE (Bluetooth Low Energy) communication unit, Near Field Communication unit, WLAN (Wi-Fi) communication unit, Zigbee communication unit, and infrared (IrDA) communication unit. Data Association) communication department, WFD (Wi-Fi Direct) communication department, UWB (ultra wideband) communication department, Ant+ communication department, etc., but is not limited thereto.
방송 수신부는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)는 방송 수신부를 포함하지 않을 수도 있다.The broadcast receiver receives broadcast signals and/or broadcast-related information from the outside through a broadcast channel. Broadcast channels may include satellite channels and terrestrial channels. Depending on the implementation example, the electronic device 1000 may not include a broadcast reception unit.
통신 인터페이스(1600)는 외부 장치(미도시)로부터 컨텐츠를 획득할 수 있다. 통신 인터페이스(1600)는 유선 또는 무선 통신을 통해 외부 장치(미도시)로부터 컨텐츠를 획득할 수 있다. 여기서, 외부 장치(미도시)는 서버 장치, 모바일 단말, 웨어러블 장치(예컨대, 시계, 밴드, 안경, 마스크 등), 가전 기기(예컨대, TV, 데스크 탑 PC, 노트북, DVD 장치, 세탁기, 냉장고 등) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 컨텐츠는 멀티미디어 파일, 비디오 파일 및 오디오 파일을 포함할 수 있다. The communication interface 1600 can obtain content from an external device (not shown). The communication interface 1600 can acquire content from an external device (not shown) through wired or wireless communication. Here, external devices (not shown) include server devices, mobile terminals, wearable devices (e.g., watches, bands, glasses, masks, etc.), home appliances (e.g., TVs, desktop PCs, laptops, DVD devices, washing machines, refrigerators, etc.) ), etc., but is not limited thereto. Content may include multimedia files, video files, and audio files.
저장부(1700)는 후술할 프로세서(1800)에 의해 실행될 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수 있다. The storage unit 1700 can store programs to be executed by the processor 1800, which will be described later, and can store data input to or output from the electronic device 1000.
저장부(1700)는 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다. 내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(1800)는 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 프로세서(1800)는 다른 구성요소로부터 수신하거나 생성된 데이터를 비휘발성 메모리에 보존할 수 있다. 외장 메모리는, 예를 들어, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.The storage unit 1700 may include at least one of internal memory (not shown) and external memory (not shown). Built-in memory includes, for example, volatile memory (e.g., DRAM (Dynamic RAM), SRAM (Static RAM), SDRAM (Synchronous Dynamic RAM), etc.), non-volatile memory (e.g., OTPROM (One Time Programmable ROM), etc. ), PROM (Programmable ROM), EPROM (Erasable and Programmable ROM), EEPROM (Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM, etc.), hard disk drive (HDD), or solid state drive (SSD). It can be included. According to one embodiment, the processor 1800 may load commands or data received from at least one of the non-volatile memory or other components into the volatile memory and process them. Additionally, the processor 1800 may store data received or generated from other components in non-volatile memory. External memory includes, for example, at least one of CF (Compact Flash), SD (Secure Digital), Micro-SD (Micro Secure Digital), Mini-SD (Mini Secure Digital), xD (extreme Digital), and Memory Stick. It can be included.
저장부(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, 식별 모듈 (1710), 및 영상 처리 모듈(1720) 을 포함할 수 있다.Programs stored in the storage unit 1700 may be classified into a plurality of modules according to their functions, and may include, for example, an identification module 1710 and an image processing module 1720.
프로세서(1800)는 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1800)는, 저장부(1700)에 저장된 프로그램들을 실행함으로써, 센서부(1100), 입력부(1200), 디스플레이부(1300), 출력부(1400), 통신 인터페이스(1600) 및 저장부(1700) 등을 전반적으로 제어할 수 있다.The processor 1800 controls the overall operation of the electronic device 1000. For example, the processor 1800 executes programs stored in the storage unit 1700, thereby controlling the sensor unit 1100, the input unit 1200, the display unit 1300, the output unit 1400, and the communication interface 1600. and the storage unit 1700, etc. can be controlled overall.
프로세서(1800)는 저장부(1700)에 저장된 식별 모듈 (1710), 및 영상 처리 모듈(1720)을 실행함으로써, 가상키보드를 표시하고 가상키보드 입력을 획득할 수 있다.The processor 1800 can display a virtual keyboard and obtain virtual keyboard input by executing the identification module 1710 and the image processing module 1720 stored in the storage unit 1700.
일 실시예에 따르면, 전자 장치(1000)는 복수의 프로세서(1800)를 포함할 수 있으며, 식별 모듈 (1710), 및 영상 처리 모듈(1720)은 복수의 프로세서(1800)에 의해 실행될 수 있다.According to one embodiment, the electronic device 1000 may include a plurality of processors 1800, and the identification module 1710 and the image processing module 1720 may be executed by the plurality of processors 1800.
프로세서(1800)는 저장부(1700)에 저장된 식별 모듈(1710)을 실행함으로써, 전자장치(1000) 전면의 평면을 식별하고, 디스플레이의 FOV 내에서 손을 식별하고, 가상입력 영역을 결정할 수 있다. The processor 1800 can identify the front plane of the electronic device 1000, identify the hand within the FOV of the display, and determine the virtual input area by executing the identification module 1710 stored in the storage unit 1700. .
프로세서(1800)는 저장부(1700)에 저장된 영상 처리 모듈(1720)을 실행함으로써, 가상입력 영역에 손 배치 가이드를 표시하고, 디스플레이의 FOV 내에서 손이 식별된 경우 식별된 손을 VST로 표시하고, 가상키보드를 표시할 수 있다. 본 개시의 일 실시예에 따르면, 가상키보드 모듈(1723)은 가상키보드의 특정 키 또는 가상키보드의 모양, 색상, 각도, 위치를 결정하고, 표시할 수 있다.The processor 1800 displays a hand placement guide in the virtual input area by executing the image processing module 1720 stored in the storage unit 1700, and when a hand is identified within the FOV of the display, the identified hand is displayed as a VST. and the virtual keyboard can be displayed. According to one embodiment of the present disclosure, the virtual keyboard module 1723 can determine and display a specific key of the virtual keyboard or the shape, color, angle, and position of the virtual keyboard.
본 개시의 일 실시예에 따르면, 손 배치 가이드가 이미지가 아닌 경우 손 배치 가이드 모듈(1721)은 영상 처리 모듈(1720)과 별도의 모듈로 구성될 수 있다. According to an embodiment of the present disclosure, when the hand placement guide is not an image, the hand placement guide module 1721 may be configured as a separate module from the image processing module 1720.
도 3은 본 개시의 일 실시예에 따른 전자장치가, 평면을 식별하고 가상입력 영역을 결정하는 방법을 설명하기 위한 도면이다. FIG. 3 is a diagram illustrating a method by which an electronic device identifies a plane and determines a virtual input area according to an embodiment of the present disclosure.
물리적 키보드가 포함되지 않거나 물리적 키보드와 연결되지 않은 전자장치(1000)에서, 키보드를 통한 텍스트 입력이 필요한 상황이 발생할 수 있다. 본 개시의 일 실시예에 따른 전자장치(1000)는, 키보드 입력이 필요한 상황, 예를 들어, 애플리케이션 실행 중 키보드 입력 영역이 선택되면, 가상키보드를 제공하여 사용자와 인터랙션할 수 있다. 본 명세서에서 키보드 입력이 필요한 상황은 키보드 입력 모드라고 지칭될 수 있다.In the electronic device 1000 that does not include a physical keyboard or is not connected to a physical keyboard, a situation may occur in which text input through the keyboard is required. The electronic device 1000 according to an embodiment of the present disclosure may provide a virtual keyboard to interact with the user in a situation where keyboard input is required, for example, when a keyboard input area is selected while an application is running. In this specification, a situation requiring keyboard input may be referred to as a keyboard input mode.
도 3을 참조하면, 본 개시의 일 실시예에 따른 전자장치(1000)는 거리 센서(1110) 또는 이미지 센서(1120)를 이용하여, 전자장치(1000) 주변의 공간 정보를 획득할 수 있다. 전자장치(1000) 주변의 공간 정보는, 이미지 센서(1120) 또는 거리 센서(1110)를 이용하여 획득된 주변 객체의 존재, 모양, 거리, 위치 및 움직임 정보를 포함할 수 있다. Referring to FIG. 3, the electronic device 1000 according to an embodiment of the present disclosure may obtain spatial information around the electronic device 1000 using the distance sensor 1110 or the image sensor 1120. Spatial information around the electronic device 1000 may include information on the presence, shape, distance, location, and movement of nearby objects obtained using the image sensor 1120 or the distance sensor 1110.
전자장치(1000)는 획득된 공간 정보에 기초하여, 전자장치(1000) 전면의 평면(3100)을 식별하고, 식별된 평면(3100)에 대한 정보를 획득할 수 있다. 전자장치(1000) 전면의 평면(3100)은 촬영된 전면 영상의 객체 인식에 기초하여 식별될 수 있다. 평면에 대한 정보는, 평면의 존재, 위치, 크기, 및 모양에 대한 정보를 포함할 수 있다.Based on the acquired spatial information, the electronic device 1000 can identify the plane 3100 on the front of the electronic device 1000 and obtain information about the identified plane 3100. The front plane 3100 of the electronic device 1000 may be identified based on object recognition of the captured front image. Information about the plane may include information about the existence, location, size, and shape of the plane.
전자장치(1000)는 평면(3100)에 대한 정보에 기초하여, 평면(3100) 내에 사용자의 손이 위치할 가상입력 영역(3200)을 결정할 수 있다. 가상입력 영역(3200)은 식별된 평면(3100)의 가장자리로부터 소정의 여유공간(3400, margin)을 가지도록 결정될 수 있으며, 가상입력 영역(3200) 및 여유 공간(3400)은 배치될 가상키보드의 속성(예를 들어, 모양, 크기, 타입 등)에 기초하여 결정될 수 있다. 여유공간(3400)은 사용자의 손이 편안하게 위치할 수 있는 평면 공간상의 여백을 고려하여 결정될 수 있으며, 인구통계학적 정보(예를 들어, 평균 신체 사이즈, 관절 각도 등)에 기초하여 대부분의 사용자가 편안하게 사용할 수 있는 거리로 결정될 수 있다. The electronic device 1000 may determine a virtual input area 3200 where the user's hand will be located within the plane 3100 based on information about the plane 3100. The virtual input area 3200 may be determined to have a predetermined margin (3400) from the edge of the identified plane (3100), and the virtual input area (3200) and the margin (3400) are of the virtual keyboard to be placed. It may be determined based on attributes (e.g., shape, size, type, etc.). The free space 3400 may be determined by considering the space in the plane space where the user's hand can be comfortably positioned, and can be determined by most users based on demographic information (e.g., average body size, joint angle, etc.). can be determined as a distance that can be used comfortably.
가상입력 영역(3200)이 결정되면, 전자장치(1000)는 사용자가 가상입력 영역(3200)에 손을 올려놓도록 유도하는 어포던스(affordance, 행동유도자)를 출력할 수 있다. 예를 들어, 전자장치(1000)는 결정된 가상입력 영역(3200)에 손을 올려놓을 것을 지시하는 텍스트 가이드 및/또는 손 모양의 그래픽 가이드(3300)를 디스플레이(1300)에 출력할 수 있다. 또는, 전자장치(1000)는 가상입력 영역(3200)에 손을 올려놓을 것을 지시하는 오디오 가이드를 스피커(1410)로 출력할 수 있다.Once the virtual input area 3200 is determined, the electronic device 1000 may output an affordance (action inducer) that induces the user to place his or her hand on the virtual input area 3200. For example, the electronic device 1000 may output a text guide and/or a hand-shaped graphic guide 3300 on the display 1300 instructing to place a hand on the determined virtual input area 3200. Alternatively, the electronic device 1000 may output an audio guide instructing to place a hand on the virtual input area 3200 to the speaker 1410.
도 4a 및 도 4b는 본 개시의 일 실시예에 따른 전자장치의 디스플레이에 가상키보드를 표시하고, 사용자와 인터랙션하는 방법을 설명하기 위한 도면이다. FIGS. 4A and 4B are diagrams for explaining a method of displaying a virtual keyboard on the display of an electronic device and interacting with a user, according to an embodiment of the present disclosure.
센서의 FOV(field of view)는 센싱이 가능한 영역을 의미하며, 일반적으로 각도로 정의된다. 기계식 센서는 360도 회전이 가능하여 360도의 FOV을 가질 수 있으며, 고정형 센서는 복수개의 센서를 배치하고 각 센서의 센싱 결과를 조합함으로써 FOV을 확장할 수 있다. 본 명세서에서 센서는 외부의 객체를 식별하고 정보를 획득할 수 있는 수단으로, 센서부(1100)에 포함된 거리 센서(1110) 또는 거리 센서(1100)를 구성하는 복수개의 거리 센서, 이미지 센서(1120) 또는 이미지 센서(1120)를 구성하는 복수개의 이미지 센서, 또는 그 조합을 의미할 수 있다. The field of view (FOV) of a sensor refers to the area where sensing is possible, and is generally defined as an angle. Mechanical sensors can rotate 360 degrees and have a field of view of 360 degrees, and fixed sensors can expand their field of view by arranging multiple sensors and combining the sensing results of each sensor. In this specification, a sensor is a means of identifying an external object and obtaining information, and is a distance sensor 1110 included in the sensor unit 1100 or a plurality of distance sensors constituting the distance sensor 1100, an image sensor ( 1120) or a plurality of image sensors constituting the image sensor 1120, or a combination thereof.
디스플레이의 FOV는 한번에 볼 수 있는 디스플레이의 시야각을 의미하며, 안경형 AR 디스플레이의 경우 약 50도의 FOV를 갖고, 암막형 VR 디스플레이의 경우 약 110도의 FOV를 갖는다. 따라서, 센서의 FOV가 디스플레이의 FOV 보다 넓은 범위를 갖는다. The FOV of the display refers to the viewing angle of the display that can be viewed at once. Glasses-type AR displays have an FOV of approximately 50 degrees, and blackout-type VR displays have an FOV of approximately 110 degrees. Therefore, the FOV of the sensor has a wider range than the FOV of the display.
도 4a를 참조하면, 사용자는 HMD 장치인 전자장치(1000)를 착용한 상태에서, 가상키보드 입력 수단인 손이 놓여있는 평면을 바라보고 있다. 따라서, 사용자의 손(1000)이 센서의 FOV 및 디스플레이(1300)의 FOV 내에 위치하는 경우를 가정한다. Referring to FIG. 4A, the user is wearing the electronic device 1000, which is an HMD device, and looking at the plane where the hand, which is a virtual keyboard input means, is placed. Accordingly, it is assumed that the user's hand 1000 is located within the FOV of the sensor and the FOV of the display 1300.
본 개시의 일 실시예에 따르면, 키보드 입력 모드(예를 들어, 사용자가 애플리케이션의 키보드 입력 영역 선택)에서 센서의 FOV에서 사용자의 손이 식별되고, 사용자의 손이 디스플레이(1300)의 FOV 내에 있는 경우, 전자장치(1000)는 디스플레이를 VST 모드(또는, pass through 모드라 한다)로 전환하여, 사용자의 손을 바라보고 있는 디스플레이(1300)의 FOV에 VST로 표시된 사용자의 손(2000) 위에 가상키보드(3000)를 매칭하여 표시할 수 있다. 이 때, 전자장치(1000)는 키보드 입력 영역(3500)을 가상키보드(3000) 주변에 배치하여 표시함으로써 사용자는 키보드 입력이 제대로 수행되는지 확인할 수 있다. 본 개시의 일 실시예에 따른 키보드 입력 영역(3500)은 가상키보드(3000)에 락(lock)되어, 가상키보드(3000)의 위치가 변경되면 그에 따라 키보드 입력 영역(3500)의 위치도 변경될 수 있다.According to one embodiment of the present disclosure, the user's hands are identified in the FOV of the sensor in a keyboard input mode (e.g., the user selects a keyboard input area of an application), and the user's hands are within the FOV of the display 1300. In this case, the electronic device 1000 switches the display to VST mode (or referred to as pass through mode) and displays a virtual display on the user's hand 2000 indicated as VST in the FOV of the display 1300 looking at the user's hand. It can be displayed by matching the keyboard 3000. At this time, the electronic device 1000 arranges and displays the keyboard input area 3500 around the virtual keyboard 3000 so that the user can check whether the keyboard input is performed properly. The keyboard input area 3500 according to an embodiment of the present disclosure is locked to the virtual keyboard 3000, so that when the position of the virtual keyboard 3000 changes, the position of the keyboard input area 3500 will also change accordingly. You can.
도 4b를 참조하면, 전자장치(1000)의 디스플레이(1300)는 애플리케이션 표시 영역(3600) 및 가상키보드 표시 영역을 포함할 수 있으며, 애플리케이션 표시 영역(3600)에는 애플리케이션 및 키보드 입력 영역(3500)이 표시되고 가상키보드 표시 영역에는 가상키보드(3000) 및 손(2000)이 표시될 수 있다. 본 개시의 일 실시예에 따르면, 키보드 입력 영역(3500)은 애플리케이션 표시 영역(3600)이 아닌 별도의 영역에 표시될 수 있다. Referring to FIG. 4B, the display 1300 of the electronic device 1000 may include an application display area 3600 and a virtual keyboard display area, and the application display area 3600 may include an application and keyboard input area 3500. A virtual keyboard 3000 and a hand 2000 may be displayed in the virtual keyboard display area. According to one embodiment of the present disclosure, the keyboard input area 3500 may be displayed in a separate area other than the application display area 3600.
본 개시의 일 실시예에 따른 전자장치(1000)는, 키보드 입력 영역(3500)의 활성화 또는 키보드 입력 영역(3500)의 선택이 감지되면, 텍스트 입력을 위한 가상키보드를 표시하고, 표시된 가상키보드를 통해 사용자와 인터랙션하고 텍스트 입력을 획득할 수 있다. 전자장치(1000)는, 가상키보드(3000) 주변에 키보드 입력 영역(3500)을 표시하여, 사용자가 입력되는 키에 대응하는 텍스트가 제대로 입력되는지 여부를 확인하도록 할 수 있다.When the electronic device 1000 according to an embodiment of the present disclosure detects activation of the keyboard input area 3500 or selection of the keyboard input area 3500, it displays a virtual keyboard for text input and uses the displayed virtual keyboard. Through this, you can interact with the user and obtain text input. The electronic device 1000 may display a keyboard input area 3500 around the virtual keyboard 3000 to allow the user to check whether the text corresponding to the key being input is properly entered.
애플리케이션 실행 중 키보드 입력 영역(3500)의 활성화가 감지되면, 전자장치(1000)는 센서를 이용하여 센서의 FOV 내에 평면 공간(3100)이 존재하는지 여부를 식별하고, 식별된 평면 공간 내에서 결정된 가상입력 영역(3200)에 사용자의 손을 위치하도록 하는 가이드(3300)를 출력할 수 있다. 센서의 FOV 내에서 평면 공간(3100)에 사용자의 손(2000)이 감지되고 감지된 손이 디스플레이(1300)의 FOV 내에 위치하면, 전자장치(1000)는 디스플레이(1300)에 가상키보드 배치 영역을 결정하고 결정된 가상 키보드 배치 영역에 가상키보드(3000) 및 사용자의 손(2000)을 표시할 수 있다. When activation of the keyboard input area 3500 is detected while running an application, the electronic device 1000 uses a sensor to identify whether a plane space 3100 exists within the FOV of the sensor, and the virtual device 1000 determined within the identified plane space A guide 3300 for positioning the user's hand in the input area 3200 may be output. When the user's hand 2000 is detected in the flat space 3100 within the FOV of the sensor and the detected hand is located within the FOV of the display 1300, the electronic device 1000 creates a virtual keyboard placement area on the display 1300. The virtual keyboard 3000 and the user's hand 2000 can be displayed in the determined virtual keyboard placement area.
본 개시의 일 실시예에 따른 전자장치(1000)가 AR 글라스 등 투명 디스플레이로 구성된 장치인 경우, 사용자는 전자장치(1000)의 FOV 내에 위치하는 자신의 손을 투명 디스플레이를 통해 직접 볼 수 있으므로 사용자의 손(2000)을 디스플레이에 표시하는 단계는 생략될 수 있다. 본 개시의 일 실시예에 따른 전자장치(1000)가 암막형 HMD 장치인 경우, 전자장치(1000)는 외부를 촬영하는 카메라 모듈(1130)을 이용하여 사용자 손(2000)의 이미지를 획득하고, 획득된 이미지를 VST 모드로 표시할 수 있다. If the electronic device 1000 according to an embodiment of the present disclosure is a device composed of a transparent display such as AR glass, the user can directly see his or her hand located within the FOV of the electronic device 1000 through the transparent display, so that the user The step of displaying the hand 2000 on the display may be omitted. When the electronic device 1000 according to an embodiment of the present disclosure is a blackout HMD device, the electronic device 1000 acquires an image of the user's hand 2000 using a camera module 1130 that photographs the outside, The acquired image can be displayed in VST mode.
전자장치(1000)는 도 4b와 같이, 디스플레이(1300)에 가상키보드(3000) 및 손(2000)을 표시하고, 그 주변으로 텍스트 입력이 필요한 애플리케이션을 표시할 애플리케이션 표시 영역(3600) 및 키보드 입력 영역(3500)을 배치하여 표시할 수 있다. As shown in FIG. 4B, the electronic device 1000 displays a virtual keyboard 3000 and a hand 2000 on the display 1300, and an application display area 3600 for displaying applications requiring text input and a keyboard input are provided around the virtual keyboard 3000. The area 3500 can be arranged and displayed.
도 5a 및 도 5b는 본 개시의 일 실시예에 따른 전자장치의 디스플레이에 가상키보드를 표시하고, 사용자와 인터랙션하는 방법을 설명하기 위한 도면이다. 5A and 5B are diagrams for explaining a method of displaying a virtual keyboard on the display of an electronic device and interacting with a user, according to an embodiment of the present disclosure.
도 5a 및 도 5b에서 도 4a 및 도 4b와 유사하거나 중복되는 설명은 간략히 기재되거나 생략될 수 있다. In FIGS. 5A and 5B , descriptions similar to or overlapping with FIGS. 4A and 4B may be briefly described or omitted.
HMD 장치의 경우 자체 무게에 의한 하중이 사용자의 목에 부담이 될 수 있으며, 목을 숙여 아래를 바라볼 경우 더욱 크게 작용한다. 대부분의 사용자는 물리적인 키보드를 사용할 때 키보드를 쳐다보지 않고 정면의 디스플레이를 바라보면서 키보드를 사용하는 경우가 많다. 따라서, 가상키보드 사용시에도 정면을 응시하는 것이 사용자에게 보다 편리할 수 있으며, HMD 장치의 사용자 경험을 향상시킬 수 있다.In the case of an HMD device, the load due to its own weight can be a burden on the user's neck, and the effect is even greater when the user bends his or her neck to look down. When using a physical keyboard, most users often use the keyboard while looking at the display in front of them rather than looking at the keyboard. Therefore, it may be more convenient for the user to look straight ahead even when using the virtual keyboard, and the user experience of the HMD device may be improved.
도 5a를 참조하면, 사용자는 HMD 장치인 전자장치(1000)를 착용한 상태에서, 가상키보드를 입력할 손이 놓여있는 평면이 아니라 정면을 바라보고 있다. 따라서, 사용자의 손(1000)이 디스플레이(1300)의 FOV 내에 위치하지 않는 경우를 가정한다. Referring to FIG. 5A, while wearing the electronic device 1000, which is an HMD device, the user is looking straight ahead rather than at the plane where the hands are to input the virtual keyboard. Accordingly, it is assumed that the user's hand 1000 is not located within the FOV of the display 1300.
전술한 바와 같이, 센서의 FOV가 디스플레이의 FOV 보다 넓은 범위를 가지므로, 사용자의 손(1000)이 디스플레이(1300)의 FOV 내에 위치하지 않더라도 센서는 사용자의 손을 센싱할 수 있다.As described above, since the FOV of the sensor has a wider range than the FOV of the display, the sensor can sense the user's hand 1000 even if the user's hand 1000 is not located within the FOV of the display 1300.
본 개시의 일 실시예에 따르면, 키보드 입력 모드(예를 들어, 사용자가 애플리케이션의 키보드 입력 영역 선택)에서 센서의 FOV에서 사용자의 손이 식별되고, 사용자의 손이 디스플레이(1300)의 FOV 내에 있지 않은 경우, 전자장치(1000)는 정면을 바라보고 있는 디스플레이(1300)의 FOV에 가상키보드(3000)를 표시할 수 있다. 이 때, 사용자의 손(2000)은 디스플레이(1300)의 FOV에 표시되지 않으므로 전자장치(1000)는 키보드 입력 영역(3500) 주변에 가상키보드(3000)를 표시할 수 있다. 본 개시의 일 실시예에 따른 가상키보드(3000)는 키보드 입력 영역(3500)에 락(lock)되어, 키보드 입력 영역(3500)의 위치가 변경되면 그에 따라 가상키보드(3000)의 위치도 변경될 수 있다.According to one embodiment of the present disclosure, the user's hands are identified in the sensor's FOV in a keyboard input mode (e.g., the user selects a keyboard input area of an application) and the user's hands are not within the FOV of the display 1300. If not, the electronic device 1000 may display the virtual keyboard 3000 in the FOV of the display 1300 facing the front. At this time, since the user's hand 2000 is not displayed in the FOV of the display 1300, the electronic device 1000 may display the virtual keyboard 3000 around the keyboard input area 3500. The virtual keyboard 3000 according to an embodiment of the present disclosure is locked to the keyboard input area 3500, and when the position of the keyboard input area 3500 changes, the position of the virtual keyboard 3000 may also change accordingly. You can.
도 5b를 참조하면, 전자장치(1000)의 디스플레이(1300)는 애플리케이션 표시 영역(3600) 및 가상키보드 표시 영역을 포함할 수 있다. 애플리케이션 표시 영역(3600)에는 애플리케이션 및 키보드 입력 영역(3500)이 표시되고 가상키보드 표시 영역에는 가상키보드(3000)가 표시될 수 있다. 본 개시의 일 실시예에 따르면, 키보드 입력 영역(3500)은 애플리케이션 표시 영역(3600)이 아닌 별도의 영역에 표시될 수 있다. Referring to FIG. 5B, the display 1300 of the electronic device 1000 may include an application display area 3600 and a virtual keyboard display area. An application and keyboard input area 3500 may be displayed in the application display area 3600, and a virtual keyboard 3000 may be displayed in the virtual keyboard display area. According to one embodiment of the present disclosure, the keyboard input area 3500 may be displayed in a separate area other than the application display area 3600.
전자장치(1000)에서 동영상 재생 중 메시지가 수신되어, 메신저 애플리케이션에 메시지이 팝업으로 표시(3600)된 경우를 가정한다. 사용자는 상대방과의 대화를 위해 키보드 입력 영역(3500)을 선택할 수 있으며, 키보드 입력 영역(3500)이 선택된 것을 식별한 전자장치(1000)는, 텍스트 입력을 위하여 가상키보드(3000)를 표시할 수 있으며, 표시된 가상키보드를 통해 사용자와 인터랙션하고 텍스트 입력을 획득할 수 있다. 전자장치(1000)는, 키보드 입력 영역(3500) 주변에 가상키보드(3000)를 표시하여, 사용자가 입력되는 키에 대응하는 텍스트가 제대로 입력되는지 여부를 확인하도록 할 수 있다.Assume that a message is received while playing a video in the electronic device 1000, and the message is displayed as a pop-up in the messenger application (3600). The user can select the keyboard input area 3500 for conversation with the other party, and the electronic device 1000, which has identified that the keyboard input area 3500 has been selected, can display the virtual keyboard 3000 for text input. You can interact with the user and obtain text input through the displayed virtual keyboard. The electronic device 1000 may display a virtual keyboard 3000 around the keyboard input area 3500 to allow the user to check whether the text corresponding to the input key is properly entered.
보다 구체적으로, 애플리케이션 실행 중 키보드 입력 영역(3500)의 활성화가 감지되면, 전자장치(1000)는 센서를 이용하여 센서의 FOV 내에 평면 공간(3100)이 존재하는지 여부를 식별하고, 식별된 공간에 사용자의 손을 위치하도록 하는 가이드(3300)를 출력할 수 있다. 센서의 FOV 내에서 평면 공간(3100)에 사용자의 손(2000)이 감지되고 감지된 손이 디스플레이(1300)의 FOV 외부에 위치하면, 전자장치(1000)는 디스플레이(1300)에 가상키보드 배치 영역을 결정하고 결정된 가상 키보드 배치 영역에 가상키보드(3000)를 표시할 수 있다. More specifically, when activation of the keyboard input area 3500 is detected while the application is running, the electronic device 1000 uses a sensor to identify whether a flat space 3100 exists within the sensor's FOV and enters the identified space. A guide 3300 to position the user's hand can be output. When the user's hand 2000 is detected in the flat space 3100 within the FOV of the sensor and the detected hand is located outside the FOV of the display 1300, the electronic device 1000 creates a virtual keyboard placement area on the display 1300. can be determined and the virtual keyboard 3000 can be displayed in the determined virtual keyboard placement area.
이 때, 사용자는 전면의 평면(3100)을 손가락으로 타이핑함으로써 텍스트를 입력할 수 있다. 따라서, 사용자가 인터랙션하는 (평면) 공간 영역과 디스플레이(1300)에 표시된 가상키보드의 공간 영역이 서로 상이하므로, 이와 같은 경우 디스플레이(1300)에 표시된 가상키보드(3000)는 키보드 내비게이터로 지칭될 수 있다. At this time, the user can input text by typing on the front plane 3100 with his or her fingers. Therefore, since the (flat) spatial area with which the user interacts and the spatial area of the virtual keyboard displayed on the display 1300 are different from each other, in this case, the virtual keyboard 3000 displayed on the display 1300 may be referred to as a keyboard navigator. .
키보드 내비게이터는 디스플레이에 표시되지 않는 사용자의 손의 위치 또는 손가락의 움직임(탭)을 인지하도록 도와주는 그래픽 사용자 인터페이스(GUI, graphic user interface)로, 가상키보드와 마찬가지로 각 손가락의 위치에 대응되는 키에 특정 표시가 추가되어 각 손가락의 위치가 특정될 수 있다. 또는, 전자장치(1000)는 디스플레이(1300)에 가상의 손의 이미지를 키보드 내비게이터에 표시하고 표시된 손의 이미지를 실제 손의 움직임에 연동되도록 표시할 수 있다. 예를 들어, 사용자가 왼손 검지를 평면 영역(3100)에 탭 한 것으로 식별되면, 전자장치(1000)는 키보드 내비게이터(3000)에 표시된 가상의 손 역시 왼손 검지를 탭 한 것으로 표시하거나 왼손 검지에 대응하는 마커가 변경되도록 표시할 수 잇다.The keyboard navigator is a graphical user interface (GUI) that helps recognize the user's hand position or finger movement (tap) that is not displayed on the display. Like a virtual keyboard, the keys corresponding to the position of each finger are displayed. By adding specific marks, the location of each finger can be specified. Alternatively, the electronic device 1000 may display a virtual hand image in the keyboard navigator on the display 1300 and display the displayed hand image in conjunction with the actual hand movement. For example, when the user is identified as having tapped the left index finger on the flat area 3100, the electronic device 1000 displays the virtual hand displayed on the keyboard navigator 3000 as having also tapped the left index finger or displays the virtual hand as tapping the left index finger or corresponding to the left index finger. You can mark the marker to change.
도 6a 및 도 6b는 본 개시의 일 실시예에 따른 전자장치가 가상키보드를 표시하고 사용자와 인터랙션하는 방법을 나타내는 도면이다. FIGS. 6A and 6B are diagrams illustrating a method by which an electronic device displays a virtual keyboard and interacts with a user according to an embodiment of the present disclosure.
도 6a를 참조하면, 전자장치(1000)는 센서를 이용하여 사용자의 손(2000)을 식별할 수 있으며, 식별된 사용자의 손(2000)의 위치에 기초하여 디스플레이(1300)의 FOV에 가상키보드(3000)를 표시할 수 있다. Referring to FIG. 6A, the electronic device 1000 can identify the user's hand 2000 using a sensor, and displays a virtual keyboard in the FOV of the display 1300 based on the position of the identified user's hand 2000. (3000) can be displayed.
전자장치(1000)는 식별된 사용자의 손(2000)의 위치에 맞추어(매핑하여) 가상키보드(3000)를 배치할 수 있다. 이 때, 전자장치(1000)는 가상키보드(3000)를 타이핑할 수 있는 손가락의 끝을 식별하고, 손가락에 대응하는 키보드상의 위치를 다른 부분과 다르게 표시할 수 있다. 예를 들어, 전자장치(1000)는 사용자의 손가락 끝 부분에 마커를 삽입하거나, 또는 가상키보드에서 사용자의 손가락이 탭 할 것으로 예측되는 위치에 대응하는 키(2001 내지 2010)에 시각적 처리를 수행할 수 있다. The electronic device 1000 can arrange the virtual keyboard 3000 according to (by mapping) the position of the identified user's hand 2000. At this time, the electronic device 1000 may identify the tip of the finger capable of typing on the virtual keyboard 3000 and display the position on the keyboard corresponding to the finger differently from other parts. For example, the electronic device 1000 inserts a marker at the tip of the user's finger, or performs visual processing on the keys 2001 to 2010 corresponding to the position where the user's finger is predicted to be tapped on the virtual keyboard. You can.
사용자의 손(2000)이 전자장치(1000) 디스플레이(1300)의 FOV 내에 존재하고 전자장치(1000)가 투명한 소재의 디스플레이(1300)로 구성된 HMD장치(예를 들어, 증강 현실-AR-장치)인 경우, 사용자는 투명 디스플레이를 통해 자신의 손을 직접 보고 인식할 수 있다. 따라서, 전자장치(1000)는 센서의 FOV 내에 손이 있는지 여부를 식별하고, 식별된 손의 위치에 기초하여 가상키보드(3000)를 표시할 수 있다. The user's hand 2000 exists within the FOV of the display 1300 of the electronic device 1000, and the electronic device 1000 is an HMD device (e.g., augmented reality-AR-device) consisting of a display 1300 made of a transparent material. In this case, the user can directly see and recognize his or her hands through the transparent display. Accordingly, the electronic device 1000 can identify whether a hand is within the sensor's FOV and display the virtual keyboard 3000 based on the identified hand position.
사용자의 손(2000)이 전자장치(1000) 디스플레이(1300)의 FOV 내에 존재하고 전자장치(1000)가 사용자의 몰입 경험을 위하여 외부로부터의 빛이 차단되는 암막형 HMD 장치(예를 들어, 가상 현실-VR-장치)인 경우, 사용자는 자신의 손을 직접 볼 수 없다. 따라서, 전자장치(1000)는 외부를 촬영하는 카메라 모듈(1130)을 통해 획득된 손의 영상을 디스플레이에 VST(video see-through)로 표시하고, 손의 위치에 기초하여 가상키보드(3000)를 표시할 수 있다. The user's hand 2000 exists within the FOV of the display 1300 of the electronic device 1000, and the electronic device 1000 is a blackout HMD device (e.g., a virtual HMD device) in which light from the outside is blocked for the user's immersive experience. In the case of a reality-VR-device, the user cannot directly see his or her hands. Accordingly, the electronic device 1000 displays the image of the hand acquired through the camera module 1130 that photographs the outside as VST (video see-through) on the display, and operates the virtual keyboard 3000 based on the position of the hand. It can be displayed.
사용자의 손(2000)이 전자장치(1000) 디스플레이(1300)의 FOV 밖에 위치하는 경우, 전자장치(1000)는 디스플레이(1300)에 가상키보드(3000)를 표시하고, 가상의 손 이미지를 가상키보드와 겹쳐 표시할 수 있다. 또는 사용자의 손(2000)이 전자장치(1000) 디스플레이(1300)의 FOV 밖에 위치하는 경우, 전자장치(1000)는 디스플레이(1300)에 가상키보드(3000)만을 표시할 수도 있다.When the user's hand 2000 is located outside the FOV of the display 1300 of the electronic device 1000, the electronic device 1000 displays the virtual keyboard 3000 on the display 1300 and uses the virtual hand image as the virtual keyboard. It can be displayed overlapping with . Alternatively, when the user's hand 2000 is located outside the FOV of the display 1300 of the electronic device 1000, the electronic device 1000 may display only the virtual keyboard 3000 on the display 1300.
도 6b를 참조하면, 사용자의 손가락이 키보드 배치 영역(3200)을 탭하는 것이 식별되면, 전자장치(1000)는 해당 손가락에 대응하는 키가 입력된 것으로 판단할 수 있다. 또한, 전자장치(1000)는 입력된 것으로 판단된 키를 더욱 강조하여 표시할 수 있다.Referring to FIG. 6B, when the user's finger is identified as tapping the keyboard arrangement area 3200, the electronic device 1000 may determine that a key corresponding to the finger has been input. Additionally, the electronic device 1000 may display keys determined to have been entered with greater emphasis.
예를 들어, 도 6b에서 'QWERTY'를 입력하고자 하는 경우, 사용자가 왼쪽 새끼손가락(2001)부터 차례대로 키보드 배치 영역(3200)을 탭하면, 사용자의 탭에 대응한 손가락 2001, 2002, 2003, 2004, 2005, 및 2006이 순서대로 진하게 표시되며, 디스플레이(1300)의 텍스트 입력창(3300)에 'Q', 'W', 'E', 'R', 'T', 및 'Y'가 순서대로 표시된다.For example, when trying to input 'QWERTY' in Figure 6b, when the user taps the keyboard layout area 3200 in order starting from the left little finger 2001, the fingers corresponding to the user's tap 2001, 2002, 2003, 2004, 2005, and 2006 are displayed in bold in that order, and 'Q', 'W', 'E', 'R', 'T', and 'Y' are displayed in the text input window 3300 of the display 1300. They are displayed in order.
도 7은 본 개시의 일 실시예에 따른 전자장치가 가상 키보드를 표시하는 방법의 순서도이다.Figure 7 is a flowchart of a method for an electronic device to display a virtual keyboard according to an embodiment of the present disclosure.
도 7에 대한 설명에서, 도 3 내지 도 6b와 유사하거나 중복되는 부분은 간략히 기재되거나 생략될 수 있다. In the description of FIG. 7, parts similar to or overlapping with FIGS. 3 to 6B may be briefly described or omitted.
단계 S701에서 전자장치(1000)는, 키보드 입력 영역(3500)이 선택된 것을 식별할 수 있다.In step S701, the electronic device 1000 may identify that the keyboard input area 3500 is selected.
키보드 입력 영역(3500)이 선택되면, 본 개시의 일 실시예에 따른 전자장치(1000)는 가상키보드(3000) 입력을 위한 사용자의 손을 배치하기 위한 평면을 식별할 수 있다. 전자장치(1000)는 적어도 하나의 센서를 이용하여 센싱 영역 내, 즉 센서 FOV 내의 평면(3100)에 대한 정보를 획득할 수 있다. 평면에 대한 정보는, 평면의 존재, 위치, 크기, 및 모양에 대한 정보를 포함할 수 있다. When the keyboard input area 3500 is selected, the electronic device 1000 according to an embodiment of the present disclosure may identify a plane on which to place the user's hands for inputting the virtual keyboard 3000. The electronic device 1000 may obtain information about the plane 3100 within the sensing area, that is, within the sensor FOV, using at least one sensor. Information about the plane may include information about the existence, location, size, and shape of the plane.
센서 FOV 내에 평면이 존재하면, 본 개시의 일 실시예에 따른 전자장치(1000)는 식별된 평면에 사용자의 손을 배치할, 가상입력 영역(3200)을 결정할 수 있다. 가상입력 영역(3200)은 식별된 평면(3100)의 가장자리로부터 소정의 여유공간(3400, margin)을 가지도록 결정될 수 있으며, 가상입력 영역(3200) 및 여유 공간(3400)은 배치될 가상키보드의 속성(예를 들어, 모양, 크기, 타입 등)에 기초하여 결정될 수 있다. 여유공간(3400)은 사용자의 손이 편안하게 위치할 수 있는 평면 공간상의 여백을 고려하여 결정될 수 있으며, 인구통계학적 정보(예를 들어, 평균 신체 사이즈, 관절 각도 등)에 기초하여 대부분의 사용자가 편안하게 사용할 수 있는 거리로 결정될 수 있다. If a plane exists within the sensor FOV, the electronic device 1000 according to an embodiment of the present disclosure may determine a virtual input area 3200 in which to place the user's hand on the identified plane. The virtual input area 3200 may be determined to have a predetermined margin (3400) from the edge of the identified plane (3100), and the virtual input area (3200) and the margin (3400) are of the virtual keyboard to be placed. It may be determined based on attributes (e.g., shape, size, type, etc.). The free space 3400 may be determined by considering the space in the plane space where the user's hand can be comfortably positioned, and can be determined by most users based on demographic information (e.g., average body size, joint angle, etc.). can be determined as a distance that can be used comfortably.
가상입력 영역(3200)이 결정되면, 전자장치(1000)는 사용자가 가상입력 영역(3200)에 손을 올려놓도록 유도하는 어포던스(affordance, 행동유도자)를 출력할 수 있다. 예를 들어, 전자장치(1000)는 결정된 가상입력 영역(3200)에 손을 올려놓을 것을 지시하는 텍스트 가이드 및/또는 손 모양의 그래픽 가이드(3300)를 디스플레이(1300)에 출력할 수 있다. 또는, 전자장치(1000)는 가상입력 영역(3200)에 손을 올려놓을 것을 지시하는 오디오 가이드를 스피커(1410)로 출력할 수 있다.Once the virtual input area 3200 is determined, the electronic device 1000 may output an affordance (action inducer) that induces the user to place his or her hand on the virtual input area 3200. For example, the electronic device 1000 may output a text guide and/or a hand-shaped graphic guide 3300 on the display 1300 instructing to place a hand on the determined virtual input area 3200. Alternatively, the electronic device 1000 may output an audio guide instructing to place a hand on the virtual input area 3200 to the speaker 1410.
본 개시의 일 실시예에 따르면, 센싱 영역 내에서 평면이 식별되지 않거나 평면이 식별된 경우라도 식별된 평면에서 손이 식별되지 않으면 가상키보드를 입력할 수 없으므로 전자장치(1000)는 가상키보드 표시 절차를 종료할 수 있다.According to an embodiment of the present disclosure, even if a plane is not identified within the sensing area or a plane is identified, the virtual keyboard cannot be input if the hand is not identified in the identified plane, so the electronic device 1000 performs a virtual keyboard display procedure. can be terminated.
단계 S702에서 전자장치(1000)는, 적어도 하나의 센서에 기초하여 디스플레이(1300)의 FOV에서 손(2000)이 식별되는지 판단할 수 있다. In step S702, the electronic device 1000 may determine whether the hand 2000 is identified in the FOV of the display 1300 based on at least one sensor.
일반적으로, 센서의 FOV가 디스플레이의 FOV 보다 넓은 범위를 갖는다. HMD 장치인 전자장치(1000)를 착용한 사용자가 손의 방향을 바라보고 있는 경우 디스플레이(1300)의 FOV에서 손(2000)이 식별될 수 있고, HMD 장치인 전자장치(1000)를 착용한 사용자가 정면을 바라보고 있는 경우 디스플레이(1300)의 FOV에서 손(2000)이 식별되지 않을 수 있다.Generally, the sensor's FOV has a wider range than the display's FOV. When the user wearing the electronic device 1000, which is an HMD device, is looking in the direction of the hand, the hand 2000 can be identified in the FOV of the display 1300, and the user wearing the electronic device 1000, which is an HMD device, can be identified. When looking straight ahead, the hand 2000 may not be identified in the FOV of the display 1300.
단계 S703에서 전자장치(1000)는, 단계 S702의 판단 결과 디스플레이(1300)의 FOV에서 손(2000)이 식별된 경우 식별된 손(2000)의 위치에 기초하여 가상키보드(3000)를 표시할 수 있다.In step S703, if the hand 2000 is identified in the FOV of the display 1300 as a result of the determination in step S702, the electronic device 1000 may display the virtual keyboard 3000 based on the position of the identified hand 2000. there is.
본 개시의 일 실시예에 따르면, 사용자의 손이 디스플레이(1300)의 FOV 내에 있는 경우, 전자장치(1000)는 디스플레이를 VST 모드(또는, pass through 모드라 한다)로 전환하여, 사용자의 손을 바라보고 있는 디스플레이(1300)의 FOV에 VST로 표시된 사용자의 손(2000) 위에 가상키보드(3000)를 매칭하여 표시할 수 있다. 이 때, 전자장치(1000)는 키보드 입력 영역(3500)을 가상키보드(3000) 주변에 배치하여 표시함으로써 사용자는 키보드 입력이 제대로 수행되는지 확인할 수 있다. 본 개시의 일 실시예에 따른 키보드 입력 영역(3500)은 가상키보드(3000)에 락(lock)되어, 가상키보드(3000)의 위치가 변경되면 그에 따라 키보드 입력 영역(3500)의 위치도 변경될 수 있다.According to an embodiment of the present disclosure, when the user's hand is within the FOV of the display 1300, the electronic device 1000 switches the display to VST mode (or, referred to as pass through mode), and moves the user's hand to the FOV of the display 1300. The virtual keyboard 3000 can be displayed by matching it on the user's hand 2000 displayed as a VST in the FOV of the display 1300 being viewed. At this time, the electronic device 1000 arranges and displays the keyboard input area 3500 around the virtual keyboard 3000 so that the user can check whether the keyboard input is performed properly. The keyboard input area 3500 according to an embodiment of the present disclosure is locked to the virtual keyboard 3000, so that when the position of the virtual keyboard 3000 changes, the position of the keyboard input area 3500 will also change accordingly. You can.
본 개시의 일 실시예에 따른 전자장치(1000)가 투명 디스플레이로 구성된 장치인 경우, 사용자는 전자장치(1000)의 FOV 내에 위치하는 자신의 손을 투명 디스플레이를 통해 직접 볼 수 있으므로 사용자의 손(2000)을 디스플레이에 표시하는 단계는 생략될 수 있다.If the electronic device 1000 according to an embodiment of the present disclosure is a device configured with a transparent display, the user can directly see his or her hand located within the FOV of the electronic device 1000 through the transparent display, so the user's hand ( The step of displaying 2000) on the display can be omitted.
단계 S704에서 전자장치(1000)는, 단계 S702의 판단 결과 디스플레이(1300)의 FOV에서 손(2000)이 식별되지 않은 경우 키보드 입력 영역(3500)의 위치에 기초하여 가상키보드(3000)를 표시할 수 있다. In step S704, the electronic device 1000 displays the virtual keyboard 3000 based on the position of the keyboard input area 3500 when the hand 2000 is not identified in the FOV of the display 1300 as a result of the determination in step S702. You can.
전술한 바와 같이, HMD 장치의 경우 자체 무게에 의한 하중이 사용자의 목에 부담이 될 수 있으며, 목을 숙여 아래를 바라볼 경우 더욱 크게 작용한다. 대부분의 사용자는 물리적인 키보드를 사용할 때 키보드를 쳐다보지 않고 정면의 디스플레이를 바라보면서 키보드를 사용하는 경우가 많다. 따라서, 가상키보드 사용시에도 정면을 응시하는 것이 사용자에게 보다 편리할 수 있으며, HMD 장치의 사용자 경험을 향상시킬 수 있다. HMD 장치인 전자장치(1000)를 착용한 사용자가 정면을 바라보고 있는 경우 디스플레이(1300)의 FOV에서 손(2000)이 식별되지 않을 수 있다.As mentioned above, in the case of an HMD device, the load due to its own weight can be a burden on the user's neck, and the burden is even greater when the user bends his or her neck to look down. When using a physical keyboard, most users often use the keyboard while looking at the display in front of them rather than looking at the keyboard. Therefore, it may be more convenient for the user to look straight ahead even when using the virtual keyboard, and the user experience of the HMD device may be improved. When a user wearing the electronic device 1000, which is an HMD device, is looking straight ahead, the hand 2000 may not be identified in the FOV of the display 1300.
사용자의 손(1000)이 디스플레이(1300)의 FOV 내에 위치하지 않더라도 센서의 FOV가 디스플레이의 FOV 보다 넓기 때문에, 사용자의 손(1000)이 디스플레이(1300)의 FOV 내에 위치하지 않더라도 센서는 사용자의 손을 센싱할 수 있다.Even if the user's hand 1000 is not located within the FOV of the display 1300, the FOV of the sensor is wider than the FOV of the display, so even if the user's hand 1000 is not located within the FOV of the display 1300, the sensor detects the user's hand. can be sensed.
사용자의 손이 디스플레이(1300)의 FOV 내에 있지 않은 경우, 전자장치(1000)는 정면을 바라보고 있는 디스플레이(1300)의 FOV에 가상키보드(3000)를 표시할 수 있다. 이 때, 사용자의 손(2000)은 디스플레이(1300)의 FOV에 표시되지 않으므로 전자장치(1000)는 키보드 입력 영역(3500) 주변에 가상키보드(3000)를 표시할 수 있다.When the user's hand is not within the FOV of the display 1300, the electronic device 1000 may display the virtual keyboard 3000 in the FOV of the display 1300 facing the front. At this time, since the user's hand 2000 is not displayed in the FOV of the display 1300, the electronic device 1000 may display the virtual keyboard 3000 around the keyboard input area 3500.
본 개시의 일 실시예에 따른 가상키보드(3000)는 키보드 입력 영역(3500)에 락(lock)되어, 키보드 입력 영역(3500)의 위치가 변경되면 그에 따라 가상키보드(3000)의 위치도 변경될 수 있다.The virtual keyboard 3000 according to an embodiment of the present disclosure is locked to the keyboard input area 3500, and when the position of the keyboard input area 3500 changes, the position of the virtual keyboard 3000 may also change accordingly. You can.
단계 S705에서 전자장치(1000)는, 가상키보드(3000)에 대응하는 손가락의 움직임에 기초하여 가상키보드 입력을 획득할 수 있다.In step S705, the electronic device 1000 may obtain a virtual keyboard input based on the movement of the finger corresponding to the virtual keyboard 3000.
전자장치(1000)에 포함되는 센서들은 주변 객체의 움직임을 센싱할 수 있다. 따라서, 센서의 FOV에서 식별된 사용자의 손가락(객체)의 움직임을 센싱함으로써, 사용자의 손가락 움직임에 대응하는 가상키보드 입력을 획득할 수 있다.Sensors included in the electronic device 1000 can sense the movement of surrounding objects. Therefore, by sensing the movement of the user's finger (object) identified in the FOV of the sensor, a virtual keyboard input corresponding to the user's finger movement can be obtained.
도 8은 본 개시의 일 실시예에 따른 전자장치가 손의 위치 및 각도에 기초하여 가상키보드를 제공하는 방법을 나타내는 도면이다. FIG. 8 is a diagram illustrating a method by which an electronic device provides a virtual keyboard based on the position and angle of the hand, according to an embodiment of the present disclosure.
도 8을 참조하면, 전자장치(1000)는 사용자의 손의 위치 및 각도에 기초하여 분리형 가상키보드를 제공할 수 있다. 본 개시의 일 실시예에 따르면, 전자장치(1000)는 사용자 설정에 기초하여 분리형 가상키보드 사용 여부를 결정할 수 있다. 사용자는, 자신이 선호하는 물리적 키보드의 형태에 따라 가상키보드를 사용하려고 할 수 있다. 따라서, 전자장치(1000)는 사용자에게 제공할 가상키보드의 형태를 사전에 설정하도록 구성될 수 있다. Referring to FIG. 8, the electronic device 1000 may provide a separate virtual keyboard based on the position and angle of the user's hand. According to an embodiment of the present disclosure, the electronic device 1000 may determine whether to use a separate virtual keyboard based on user settings. A user may try to use a virtual keyboard depending on the type of physical keyboard he or she prefers. Accordingly, the electronic device 1000 may be configured to set in advance the type of virtual keyboard to be provided to the user.
본 개시의 일 실시예에 따르면, 전자장치(1000)의 센서부(1100)에 포함되는 적어도 하나의 센서는 사용자의 손(2000)을 식별할 수 있으며, 손의 위치, 모양, 및 움직임에 대한 정보를 획득할 수 있다. 전자장치(1000)는 가상입력 영역(3200)에 진입하거나, 위치한 손의 각도를 수치화하여 분석할 수 있다. According to an embodiment of the present disclosure, at least one sensor included in the sensor unit 1100 of the electronic device 1000 can identify the user's hand 2000 and provides information about the position, shape, and movement of the hand. Information can be obtained. The electronic device 1000 may enter or analyze the virtual input area 3200 by quantifying the angle of the hand at which it is positioned.
예를 들어, 전자장치(1000)는 왼손 검지손가락 방향의 제1-1 벡터, 및 오른손 검지손가락의 제1-2 벡터와 양 손(또는 가상입력 영역의 가로축)과 수평한 방향의 제2 벡터에 기초하여, 분리형 키보드 중 왼쪽 가상키보드(3000-1) 및 오른쪽 가상키보드(3000-2)를 표시할 수 있다. 이 때, 왼쪽 가상키보드(3000-1)의 기준점은 제1-1 벡터와 관련된 왼손 검지 손가락이 위치할 'F'키가 될 수 있으며, 오른쪽 가상키보드(3000-2)의 기준점은 제1-2 벡터와 관련된 오른손 검지 손가락이 위치할 'J' 키가 될 수 있다.For example, the electronic device 1000 includes a 1-1 vector in the direction of the left index finger, a 1-2 vector in the direction of the right index finger, and a second vector in a direction horizontal to both hands (or the horizontal axis of the virtual input area). Based on this, the left virtual keyboard (3000-1) and the right virtual keyboard (3000-2) among the detachable keyboards can be displayed. At this time, the reference point of the left virtual keyboard (3000-1) may be the 'F' key where the left index finger related to the 1-1 vector is located, and the reference point of the right virtual keyboard (3000-2) may be the 1-1 vector. 2 This could be the 'J' key where the index finger of the right hand related to the vector will be located.
본 개시의 일 실시예에 따르면, 왼쪽 가상키보드(3000-1) 및 오른쪽 가상키보드(3000-2)는 각각 사용자의 왼손 및 오른손 위에 표시될 수 있다.According to one embodiment of the present disclosure, the left virtual keyboard 3000-1 and the right virtual keyboard 3000-2 may be displayed on the user's left and right hands, respectively.
도 9는 본 개시의 일 실시예에 따른 전자장치가 손의 위치 및 각도에 기초하여 가상키보드를 제공하는 방법을 나타내는 도면이다. FIG. 9 is a diagram illustrating a method by which an electronic device provides a virtual keyboard based on the position and angle of the hand, according to an embodiment of the present disclosure.
도 9를 참조하면, 전자장치(1000)는 사용자의 손의 위치 및 각도에 기초하여 가상키보드 표시 위치를 결정할 수 있다. Referring to FIG. 9, the electronic device 1000 may determine the virtual keyboard display position based on the position and angle of the user's hand.
본 개시의 일 실시예에 따르면, 전자장치(1000)의 센서부(1100)에 포함되는 적어도 하나의 센서는 사용자의 손(2000)을 식별할 수 있으며, 손의 위치, 모양, 및 움직임에 대한 정보를 획득할 수 있다. 전자장치(1000)는 가상입력 영역(3200)에 진입하거나, 위치한 손의 각도를 수치화하여 분석할 수 있다. According to an embodiment of the present disclosure, at least one sensor included in the sensor unit 1100 of the electronic device 1000 can identify the user's hand 2000 and provides information about the position, shape, and movement of the hand. Information can be obtained. The electronic device 1000 may enter or analyze the virtual input area 3200 by quantifying the angle of the hand at which it is positioned.
예를 들어, 전자장치(1000)는 왼손 검지 손가락 끝과 오른손 검지 손가락 끝을 연결한 제3 벡터에 기초하여 가상키보드(3000)의 각도를 결정하고, 결정된 각도에 기초하여 가상키보드(3000)를 표시할 수 있다. 이 때, 가상키보드의 기준점은 왼손 검지 손가락이 위치할 'F' 및 오른손 검지 손가락이 위치할 'J' 키가 될 수 있다.For example, the electronic device 1000 determines the angle of the virtual keyboard 3000 based on the third vector connecting the tip of the index finger of the left hand and the index finger of the right hand, and uses the virtual keyboard 3000 based on the determined angle. It can be displayed. At this time, the reference point of the virtual keyboard may be the 'F' key where the left index finger is located and the 'J' key where the right index finger is located.
도 10은 본 개시의 일 실시예에 따른 전자장치가 가상입력 영역을 결정하는 방법을 나타내는 도면이다. FIG. 10 is a diagram illustrating a method for an electronic device to determine a virtual input area according to an embodiment of the present disclosure.
도 10을 참조하면, 전자장치(1000)는 식별된 평면(3100)내의 다른 객체들의 존재 및 위치에 기초하여 가상입력 영역(3200)을 결정할 수 있다.Referring to FIG. 10 , the electronic device 1000 may determine the virtual input area 3200 based on the presence and location of other objects within the identified plane 3100.
예를 들어, 식별된 평면(3100)에 제1 객체(4000-1) 및 제2 객체(4000-2)가 존재하는 경우, 전자장치(1000)는 평면(3100)에 대한 정보 및 객체에 대한 정보에 기초하여 가상입력 영역(3200)을 결정할 수 있다. 가상입력 영역(3200)은 식별된 평면(3100)의 가장자리로부터 소정의 여유공간(3400, margin)을 가지고, 추가로 제1 객체(4000-1)로부터 제1 여유공간(3400-1)을, 제2 객체(4000-2)로부터 제2 여유공간(3400-2)을 가지도록 결정될 수 있다. For example, when the first object 4000-1 and the second object 4000-2 exist in the identified plane 3100, the electronic device 1000 provides information about the plane 3100 and information about the objects. The virtual input area 3200 can be determined based on the information. The virtual input area 3200 has a predetermined margin 3400 from the edge of the identified plane 3100, and additionally has a first margin 3400-1 from the first object 4000-1. It may be determined to have a second free space 3400-2 from the second object 4000-2.
가상입력 영역(3200)이 결정되면, 전자장치(1000)는 사용자가 가상입력 영역(3200)에 손을 올려놓도록 유도하는 어포던스(affordance, 행동유도자)를 출력할 수 있다. 예를 들어, 전자장치(1000)는 결정된 가상입력 영역(3200)에 손을 올려놓을 것을 지시하는 텍스트 가이드 및/또는 손 모양의 그래픽 가이드(3300)를 디스플레이(1300)에 출력할 수 있다. 또는, 전자장치(1000)는 가상입력 영역(3200)에 손을 올려놓을 것을 지시하는 오디오 가이드를 스피커(1410)로 출력할 수 있다.Once the virtual input area 3200 is determined, the electronic device 1000 may output an affordance (action inducer) that induces the user to place his or her hand on the virtual input area 3200. For example, the electronic device 1000 may output a text guide and/or a hand-shaped graphic guide 3300 on the display 1300 instructing to place a hand on the determined virtual input area 3200. Alternatively, the electronic device 1000 may output an audio guide instructing to place a hand on the virtual input area 3200 to the speaker 1410.
도 11은 본 개시의 일 실시예에 따른 전자장치가 주변 환경에 기초하여 가상키보드를 표시하는 방법을 나타내는 도면이다. FIG. 11 is a diagram illustrating a method by which an electronic device displays a virtual keyboard based on the surrounding environment according to an embodiment of the present disclosure.
도 11을 참조하면, 전자장치(1000)는 가상키보드(3000)가 표시되는 배경에 기초하여 가상키보드(3000)를 표시할 수 있다. Referring to FIG. 11, the electronic device 1000 may display the virtual keyboard 3000 based on the background on which the virtual keyboard 3000 is displayed.
예를 들어, 전자장치(1000)는 이미지 센서(1120)를 이용하여 식별된 평면(3100)의 배경 색상을 획득하거나, 디스플레이(1300)에 가상키보드(1300)의 배경으로 표시된 이미지의 배경 색상을 획득할 수 있다. 전자장치(1000)는 가상키보드(3000)를 획득된 배경 색상과 대비되도록 표시함으로써, 가상키보드(3000)가 시각적으로 보다 강조되어 보이도록 할 수 있다. 가상키보드(3000)를 대비되도록 표시하는 것은, 가상키보드(3000)의 색상을 배경 색상과 대비되는 보색으로 결정하거나, 가상키보드(3000)의 명도와 배경 색상의 명도가 가급적 차이를 갖도록 결정하는 것을 포함할 수 있으나, 이로 제한되는 것은 아니며 다양한 색상 대비 방법이 사용될 수 있다. For example, the electronic device 1000 acquires the background color of the identified plane 3100 using the image sensor 1120, or acquires the background color of the image displayed as the background of the virtual keyboard 1300 on the display 1300. It can be obtained. The electronic device 1000 can display the virtual keyboard 3000 in contrast with the obtained background color, so that the virtual keyboard 3000 appears more visually emphasized. Displaying the virtual keyboard 3000 in contrast means determining the color of the virtual keyboard 3000 to be a complementary color that contrasts with the background color, or determining the brightness of the virtual keyboard 3000 and the brightness of the background color to be as different as possible. It may include, but is not limited to, various color contrast methods may be used.
또는 도 11과 같이 배경 색상이 그라데이션된 경우, 가상키보드(3000)의 색상 또는 명암 그라데이션으로 표시될 수 있다. Alternatively, when the background color is gradient as shown in FIG. 11, the virtual keyboard 3000 may be displayed as a color or light/dark gradient.
도 12는 본 개시의 일 실시예에 따른 전자장치가 타이핑에 대한 피드백을 표시하는 방법을 나타내는 도면이다. FIG. 12 is a diagram illustrating a method for an electronic device to display feedback about typing according to an embodiment of the present disclosure.
도 12를 참조하면, 전자장치(1000)는 가상키보드(3000)에 대응한 타이핑에 대한 시각적 피드백을 제공할 수 있다. 예를 들어, 현재 손가락 끝의 위치에서 타이핑 되는 경우의 정확도를 사용자에게 제공함으로써 가상키보드 타이핑 정확도가 향상될 수 있다.Referring to FIG. 12 , the electronic device 1000 may provide visual feedback for typing corresponding to the virtual keyboard 3000. For example, virtual keyboard typing accuracy can be improved by providing the user with the accuracy of typing at the current fingertip position.
도 12 좌측 그림에서, 현재 사용자의 오른손 검지(2007-1)가 'U'와 'I' 두개의 가상 키 사이에 위치하는 경우, 현재 위치에서 오른손 검지(2007-1)를 탭할경우 'U' 키에 대한 정확도는 40%로, 'I' 키에 대한 정확도는 60%로 예측되므로 거의 절반의 확률로 오타가 나게 된다. In the left figure of Figure 12, if the current user's right index finger (2007-1) is located between the two virtual keys 'U' and 'I', tapping the right index finger (2007-1) at the current position will result in 'U' The accuracy for the key is predicted to be 40%, and the accuracy for the 'I' key is predicted to be 60%, so there is almost a half chance of making a typo.
본 개시의 일 실시예에 따른 전자장치(1000)는, 현재의 손가락 위치에 대응하는 키들을 정확도에 따라 시각적으로 다르게 표시할 수 있다. 도 12의 좌측 그림에서 사용자는 현재 위치(2000-1)에서 손가락(2007-1)을 탭 할 경우의 정확도를 알 수 있으므로, 'U'를 입력하기 위하여 손가락을 이동(2007-2)하여 'U' 키에 대한 정확도를 80%로 높일 수 있다. The electronic device 1000 according to an embodiment of the present disclosure may visually display keys corresponding to the current finger position differently depending on accuracy. In the left picture of FIG. 12, the user can see the accuracy when tapping his finger (2007-1) at the current location (2000-1), so he moves his finger (2007-2) to input 'U'. Accuracy for the 'U' key can be increased to 80%.
본 개시의 일 실시예에 따른 전자장치(1000)는, 각 키에 대한 타이핑 정확도를 색상이나 투명도를 달리하여 표시할 수 있으며, 또는 더 높은 확률(우선권)을 가지는 키에 소정의 마커(예를 들어, 테두리)를 표시할 수 있다.The electronic device 1000 according to an embodiment of the present disclosure may display the typing accuracy for each key by varying color or transparency, or may place a predetermined marker (for example, a marker) on a key with a higher probability (priority). For example, a border) can be displayed.
도 13은 본 개시의 일 실시예에 따른 전자장치가 손의 위치에 기초하여 입력방식을 결정하는 방법을 나타내는 도면이다.FIG. 13 is a diagram illustrating a method by which an electronic device determines an input method based on the position of a hand, according to an embodiment of the present disclosure.
도 13을 참조하면, 전자장치(1000)는 가상키보드 사용 중 사용자의 손이 가상입력 영역에서 이탈한 것을 식별할 수 있다. 이와 같은 경우, 이탈한 사용자의 손을 새로운 입력 인터페이스로 이용할 수 있다. 가상키보드(3000) 사용 중 사용자의 손(2000-3)이 제1 가상입력 영역(3200-3)에서 이탈한 것이 식별되면, 전자장치(1000)는 이탈한 사용자의 손(2000-4)과 제1 가상입력 영역(3200-3) 사이의 거리를 측정할 수 있다. 측정된 거리가 소정의 임계값 이하인 경우, 전자장치(1000)는 이탈한 사용자의 손(2000-4)에 대응되는 제2 가상입력 영역(3200-4)을 결정하고, 제2 가상입력 영역(3200-4) 내에서 사용자의 손의 움직임을 마우스 입력으로 이용할 수 있다. 예를 들어, 전자장치(1000)는 애플리케이션 표시 영역(3600) 내 소정의 위치에 포인터(3700)를 표시할 수 있고, 사용자는 제2 가상입력 영역(3200-4) 내에서 사용자의 손의 움직임에 대응한 가상마우스 입력을 통해 전자장치(1000)를 제어할 수 있다. Referring to FIG. 13, the electronic device 1000 can identify that the user's hand has left the virtual input area while using the virtual keyboard. In this case, the user's left hand can be used as a new input interface. When it is identified that the user's hand (2000-3) has left the first virtual input area (3200-3) while using the virtual keyboard (3000), the electronic device (1000) The distance between the first virtual input areas 3200-3 can be measured. If the measured distance is less than or equal to a predetermined threshold, the electronic device 1000 determines a second virtual input area 3200-4 corresponding to the user's hand 2000-4 that has left, and the second virtual input area ( 3200-4), the movement of the user's hand can be used as mouse input. For example, the electronic device 1000 may display the pointer 3700 at a predetermined position within the application display area 3600, and the user may move the user's hand within the second virtual input area 3200-4. The electronic device 1000 can be controlled through virtual mouse input corresponding to .
본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 키보드 입력 영역 선택을 식별하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 적어도 하나의 센서에 기초하여, 디스플레이의 FOV(field of view)에서 손을 식별하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 식별에 기초하여 디스플레이에 가상키보드를 표시하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 디스플레이의 FOV에서 손이 식별된 경우, 식별된 손의 위치에 기초하여 가상키보드를 표시할 수 있다. 본 개시의 일 실시예에 따른 HMD(head mounted display) 장치가 가상키보드를 표시하는 방법은, 디스플레이의 FOV에 손이 식별되지 않은 경우, 선택된 키보드 입력 영역의 위치에 기초하여 가상키보드를 표시할 수 있다.A method of displaying a virtual keyboard by a head mounted display (HMD) device according to an embodiment of the present disclosure may include identifying a keyboard input area selection. A method of displaying a virtual keyboard by a head mounted display (HMD) device according to an embodiment of the present disclosure may include identifying a hand in the field of view (FOV) of the display based on at least one sensor. there is. A method of displaying a virtual keyboard by a head mounted display (HMD) device according to an embodiment of the present disclosure may include displaying a virtual keyboard on a display based on identification. A method for a head mounted display (HMD) device to display a virtual keyboard according to an embodiment of the present disclosure may display a virtual keyboard based on the position of the identified hand when a hand is identified in the FOV of the display. A method for an HMD (head mounted display) device to display a virtual keyboard according to an embodiment of the present disclosure may display a virtual keyboard based on the location of the selected keyboard input area when a hand is not identified in the FOV of the display. there is.
본 개시의 일 실시예에 따른 HMD 장치가 가상키보드를 표시하는 방법은, 적어도 하나의 센서의 센싱 영역 내의 평면에 대한 정보를 획득하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 HMD 장치가 가상키보드를 표시하는 방법은, 평면에서 손을 식별하는 단계;를 포함할 수 있다. A method of displaying a virtual keyboard by an HMD device according to an embodiment of the present disclosure may include obtaining information about a plane within a sensing area of at least one sensor. A method of displaying a virtual keyboard by an HMD device according to an embodiment of the present disclosure may include identifying a hand on a plane.
본 개시의 일 실시예에 따른 HMD 장치가 가상키보드를 표시하는 방법은, 평면에 대한 정보에 기초하여 평면에서 가상입력 영역을 결정하는 단계;를 포함할 수 있다. A method of displaying a virtual keyboard by an HMD device according to an embodiment of the present disclosure may include determining a virtual input area in a plane based on information about the plane.
본 개시의 일 실시예에 따른 HMD 장치가 가상키보드를 표시하는 방법은, 가상입력 영역에 대응하는 손 배치 가이드를 출력하는 단계;를 더 포함할 수 있다. The method of displaying a virtual keyboard by an HMD device according to an embodiment of the present disclosure may further include outputting a hand placement guide corresponding to a virtual input area.
본 개시의 일 실시예에 따른 HMD 장치가 가상키보드를 표시하는 방법은, 디스플레이의 FOV에서 손이 식별된 경우, 손의 실시간 촬영 영상을 가상키보드와 함께 표시하는 단계;를 포함할 수 있다. A method of displaying a virtual keyboard by an HMD device according to an embodiment of the present disclosure may include, when a hand is identified in the FOV of the display, displaying a real-time captured image of the hand along with the virtual keyboard.
본 개시의 일 실시예에 따른 HMD 장치가 가상키보드를 표시하는 방법은, 사용자의 손가락에 대응하는 키 또는 손가락의 움직임에 대응하여 획득된 가상키보드 입력에 대응하는 키를 이미지처리하는 단계;를 더 포함할 수 있다. A method of displaying a virtual keyboard by an HMD device according to an embodiment of the present disclosure further includes the steps of image processing keys corresponding to the user's fingers or keys corresponding to virtual keyboard input obtained in response to the movement of the finger. It can be included.
본 개시의 일 실시예에 따른 HMD 장치가 가상키보드를 표시하는 방법은, 사용자의 손의 위치 정보에 기초하여 가상키보드의 종류 또는 가상키보드의 배치를 결정하는 단계;를 더 포함할 수 있다.The method of displaying a virtual keyboard by an HMD device according to an embodiment of the present disclosure may further include determining the type of virtual keyboard or arrangement of the virtual keyboard based on position information of the user's hand.
본 개시의 일 실시예에 따른 가상키보드를 표시하는 HMD(head mounted display) 장치는, 디스플레이; 통신부; 적어도 하나의 명령어(instruction)를 포함하는 프로그램을 저장하는 저장부; 및 저장부에 저장된 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 키보드 입력 영역 선택을 식별할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 적어도 하나의 센서에 기초하여, 디스플레이의 FOV(field of view)에서 손을 식별할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 식별에 기초하여 디스플레이에 가상키보드를 표시할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 디스플레이의 FOV에서 손이 식별된 경우, 식별된 손의 위치에 기초하여 가상키보드를 표시할 수 있다. 적어도 하나의 프로세서는, 적어도 하나의 명령어를 실행함으로써 디스플레이의 FOV에 손이 식별되지 않은 경우, 선택된 키보드 입력 영역의 위치에 기초하여 가상키보드를 표시할 수 있다.A head mounted display (HMD) device that displays a virtual keyboard according to an embodiment of the present disclosure includes a display; Ministry of Communications; a storage unit that stores a program including at least one instruction; and at least one processor executing at least one instruction stored in the storage unit. At least one processor may identify the keyboard input area selection by executing at least one instruction. At least one processor may identify a hand in a field of view (FOV) of a display based on at least one sensor by executing at least one instruction. At least one processor may display a virtual keyboard on the display based on the identification by executing at least one instruction. When a hand is identified in the FOV of the display by executing at least one instruction, the at least one processor may display a virtual keyboard based on the location of the identified hand. At least one processor may display a virtual keyboard based on the location of the selected keyboard input area when a hand is not identified in the FOV of the display by executing at least one instruction.
본 개시의 일 실시예에 따른 가상키보드를 표시하는 HMD 장치에서, 적어도 하나의 프로세서는, 적어도 하나의 센서의 센싱 영역 내의 평면에 대한 정보를 획득할 수 있다. 본 개시의 일 실시예에 따른 가상키보드를 표시하는 HMD 장치에서, 적어도 하나의 프로세서는, 평면에서 손을 식별할 수 있다.In an HMD device that displays a virtual keyboard according to an embodiment of the present disclosure, at least one processor may obtain information about a plane within a sensing area of at least one sensor. In an HMD device that displays a virtual keyboard according to an embodiment of the present disclosure, at least one processor may identify a hand on a plane.
본 개시의 일 실시예에 따른 가상키보드를 표시하는 HMD 장치에서, 적어도 하나의 프로세서는, 평면에 대한 정보에 기초하여 평면에서 가상입력 영역을 결정할 수 있다. In the HMD device displaying a virtual keyboard according to an embodiment of the present disclosure, at least one processor may determine a virtual input area in the plane based on information about the plane.
본 개시의 일 실시예에 따른 가상키보드를 표시하는 HMD 장치에서, 적어도 하나의 프로세서는, 가상입력 영역에 대응하는 손 배치 가이드를 출력할 수 있다. In the HMD device displaying a virtual keyboard according to an embodiment of the present disclosure, at least one processor may output a hand placement guide corresponding to the virtual input area.
본 개시의 일 실시예에 따른 가상키보드를 표시하는 HMD 장치에서, 적어도 하나의 프로세서는, 디스플레이의 FOV에서 손이 식별된 경우, 손의 실시간 촬영 영상을 가상키보드와 함께 표시할 수 있다.In an HMD device that displays a virtual keyboard according to an embodiment of the present disclosure, when a hand is identified in the FOV of the display, at least one processor may display a real-time captured image of the hand along with the virtual keyboard.
본 개시의 일 실시예에 따른 가상키보드를 표시하는 HMD 장치에서, 적어도 하나의 프로세서는, 사용자의 손가락에 대응하는 키 또는 손가락의 움직임에 대응하여 획득된 가상키보드 입력에 대응하는 키를 이미지 처리할 수 있다. In the HMD device displaying a virtual keyboard according to an embodiment of the present disclosure, at least one processor is configured to image process keys corresponding to the user's fingers or keys corresponding to virtual keyboard input acquired in response to the movement of the finger. You can.
본 개시의 일 실시예에 따른 가상키보드를 표시하는 HMD 장치에서, 적어도 하나의 프로세서는, 사용자의 손의 위치 정보에 기초하여 가상키보드의 종류 또는 가상키보드의 배치를 결정할 수 있다. In an HMD device that displays a virtual keyboard according to an embodiment of the present disclosure, at least one processor may determine the type of virtual keyboard or arrangement of the virtual keyboard based on position information of the user's hand.
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' simply means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as . For example, a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. A computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store or between two user devices (e.g. smartphones). It may be distributed in person or online (e.g., downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.

Claims (15)

  1. HMD(head mounted display) 장치가 가상키보드를 표시하는 방법에 있어서, In a method for a head mounted display (HMD) device to display a virtual keyboard,
    키보드 입력 영역 선택을 식별하는 단계; identifying a keyboard input area selection;
    적어도 하나의 센서에 기초하여, 디스플레이의 FOV(field of view)에서 손을 식별하는 단계; 및Identifying a hand in a field of view (FOV) of a display, based on at least one sensor; and
    상기 식별에 기초하여 상기 디스플레이에 가상키보드를 표시하는 단계;를 포함하고, Comprising: displaying a virtual keyboard on the display based on the identification,
    상기 가상키보드를 표시하는 단계;는, Displaying the virtual keyboard;
    상기 디스플레이의 FOV에서 손이 식별된 경우, 상기 식별된 손의 위치에 기초하여 상기 가상키보드를 표시하고, When a hand is identified in the FOV of the display, display the virtual keyboard based on the location of the identified hand,
    상기 디스플레이의 FOV에 손이 식별되지 않은 경우, 상기 선택된 키보드 입력 영역의 위치에 기초하여 상기 가상키보드를 표시하는, 방법.When a hand is not identified in the FOV of the display, displaying the virtual keyboard based on the location of the selected keyboard input area.
  2. 제1 항에 있어서, 상기 방법은,The method of claim 1, wherein
    적어도 하나의 센서의 센싱 영역 내의 평면에 대한 정보를 획득하는 단계; 및Obtaining information about a plane within a sensing area of at least one sensor; and
    상기 평면에서 손을 식별하는 단계;를 더 포함하는, 방법.The method further comprising: identifying a hand in the plane.
  3. 제2 항에 있어서, 상기 방법은, The method of claim 2, wherein
    상기 평면에 대한 정보에 기초하여 상기 평면에서 가상입력 영역을 결정하는 단계;를 더 포함하는, 방법.The method further comprising: determining a virtual input area in the plane based on information about the plane.
  4. 제3 항에 있어서, 상기 방법은, The method of claim 3, wherein
    상기 가상입력 영역에 대응하는 손 배치 가이드를 출력하는 단계;를 더 포함하는, 방법.The method further comprising outputting a hand placement guide corresponding to the virtual input area.
  5. 제1 항 내지 제4 항 중 어느 한 항에 있어서, According to any one of claims 1 to 4,
    상기 가상키보드를 표시하는 단계;는, Displaying the virtual keyboard;
    상기 디스플레이의 FOV에서 손이 식별된 경우, 상기 손의 실시간 촬영 영상을 상기 가상키보드와 함께 표시하는 단계;를 포함하는, 방법.When a hand is identified in the FOV of the display, displaying a real-time captured image of the hand together with the virtual keyboard.
  6. 제1 항 내지 제5 항 중 어느 한 항에 있어서, According to any one of claims 1 to 5,
    상기 방법은, 사용자의 손가락에 대응하는 키 또는 상기 손가락의 움직임에 대응하여 획득된 가상키보드 입력에 대응하는 키를 이미지처리하는 단계;를 더 포함하는, 방법.The method further includes image processing a key corresponding to a user's finger or a key corresponding to a virtual keyboard input obtained in response to movement of the finger.
  7. 제1 항 내지 제6 항 중 어느 한 항에 있어서, The method according to any one of claims 1 to 6,
    상기 방법은, 사용자의 손의 위치 정보에 기초하여 상기 가상키보드의 종류 또는 상기 가상키보드의 배치를 결정하는 단계;를 더 포함하는, 방법.The method further includes determining the type of the virtual keyboard or the arrangement of the virtual keyboard based on the position information of the user's hand.
  8. 가상키보드를 표시하는 HMD(head mounted display) 장치에 있어서,In a head mounted display (HMD) device that displays a virtual keyboard,
    디스플레이(1300); display(1300);
    적어도 하나의 명령어(instruction)를 포함하는 프로그램을 저장하는 저장부(1700); 및a storage unit 1700 that stores a program including at least one instruction; and
    상기 저장부에 저장된 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서(1800)를 포함하고,At least one processor 1800 that executes at least one instruction stored in the storage unit,
    상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행함으로써,The at least one processor executes the at least one instruction,
    키보드 입력 영역 선택을 식별하고, Identifies the keyboard input area selection,
    적어도 하나의 센서에 기초하여, 디스플레이의 FOV(field of view)에서 손을 식별하고,Based on at least one sensor, identify a hand in a field of view (FOV) of the display,
    상기 식별에 기초하여 상기 디스플레이에 가상키보드를 표시하며, Displaying a virtual keyboard on the display based on the identification,
    상기 적어도 하나의 프로세서는, The at least one processor,
    상기 디스플레이의 FOV에서 손이 식별된 경우, 상기 식별된 손의 위치에 기초하여 상기 가상키보드를 표시하고, When a hand is identified in the FOV of the display, display the virtual keyboard based on the location of the identified hand,
    상기 디스플레이의 FOV에 손이 식별되지 않은 경우, 상기 선택된 키보드 입력 영역의 위치에 기초하여 상기 가상키보드를 표시하는, HMD 장치.When a hand is not identified in the FOV of the display, the HMD device displays the virtual keyboard based on the location of the selected keyboard input area.
  9. 제8 항에 있어서, 상기 적어도 하나의 프로세서는, The method of claim 8, wherein the at least one processor:
    적어도 하나의 센서의 센싱 영역 내의 평면에 대한 정보를 획득하고, Obtain information about a plane within the sensing area of at least one sensor,
    상기 평면에서 손을 식별하는, HMD 장치.An HMD device that identifies a hand in the plane.
  10. 제9 항에 있어서, 상기 적어도 하나의 프로세서는, The method of claim 9, wherein the at least one processor:
    상기 평면에 대한 정보에 기초하여 상기 평면에서 가상입력 영역을 결정하는, HMD 장치.An HMD device that determines a virtual input area in the plane based on information about the plane.
  11. 제10 항에 있어서, 상기 적어도 하나의 프로세서는,11. The method of claim 10, wherein the at least one processor:
    상기 가상입력 영역에 대응하는 손 배치 가이드를 출력하는, HMD 장치.An HMD device that outputs a hand placement guide corresponding to the virtual input area.
  12. 제8 항 내지 제11 항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는, The method of any one of claims 8 to 11, wherein the at least one processor:
    상기 디스플레이의 FOV에서 손이 식별된 경우, 상기 손의 실시간 촬영 영상을 상기 가상키보드와 함께 표시하는, HMD 장치.An HMD device that displays a real-time captured image of the hand together with the virtual keyboard when a hand is identified in the FOV of the display.
  13. 제8 항 내지 제12 항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는, The method of any one of claims 8 to 12, wherein the at least one processor:
    사용자의 손가락에 대응하는 키 또는 상기 손가락의 움직임에 대응하여 획득된 가상키보드 입력에 대응하는 키를 이미지처리하는, HMD 장치.An HMD device that processes images of keys corresponding to the user's fingers or keys corresponding to virtual keyboard input obtained in response to movement of the fingers.
  14. 제8 항 내지 제13 항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는, The method of any one of claims 8 to 13, wherein the at least one processor:
    사용자의 손의 위치 정보에 기초하여 상기 가상키보드의 종류 또는 상기 가상키보드의 배치를 결정하는, HMD 장치.An HMD device that determines the type of the virtual keyboard or the arrangement of the virtual keyboard based on the position information of the user's hand.
  15. 제1 항 내지 제7 항 중 어느 한 항의 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium on which a program for performing the method of any one of claims 1 to 7 is recorded on a computer.
PCT/KR2023/012684 2022-08-25 2023-08-25 Method and device for displaying virtual keyboard on head mounted display (hmd) device WO2024043765A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220107182 2022-08-25
KR10-2022-0107182 2022-08-25
KR10-2022-0132436 2022-10-14
KR1020220132436A KR20240028897A (en) 2022-08-25 2022-10-14 METHOD AND APPARATUS FOR DISPLAYING VIRTUAL KEYBOARD ON HMD(head mounted display) DEVICE

Publications (1)

Publication Number Publication Date
WO2024043765A1 true WO2024043765A1 (en) 2024-02-29

Family

ID=90013838

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/012684 WO2024043765A1 (en) 2022-08-25 2023-08-25 Method and device for displaying virtual keyboard on head mounted display (hmd) device

Country Status (1)

Country Link
WO (1) WO2024043765A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016010797A1 (en) * 2014-07-15 2016-01-21 Microsoft Technology Licensing, Llc Holographic keyboard display
KR20200034741A (en) * 2017-07-26 2020-03-31 매직 립, 인코포레이티드 Neural network training using representations of user interface devices
US20200326847A1 (en) * 2019-04-15 2020-10-15 Apple Inc. Keyboard operation with head-mounted device
US20210065455A1 (en) * 2019-09-04 2021-03-04 Qualcomm Incorporated Virtual keyboard
US11054896B1 (en) * 2019-02-07 2021-07-06 Facebook, Inc. Displaying virtual interaction objects to a user on a reference plane

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016010797A1 (en) * 2014-07-15 2016-01-21 Microsoft Technology Licensing, Llc Holographic keyboard display
KR20200034741A (en) * 2017-07-26 2020-03-31 매직 립, 인코포레이티드 Neural network training using representations of user interface devices
US11054896B1 (en) * 2019-02-07 2021-07-06 Facebook, Inc. Displaying virtual interaction objects to a user on a reference plane
US20200326847A1 (en) * 2019-04-15 2020-10-15 Apple Inc. Keyboard operation with head-mounted device
US20210065455A1 (en) * 2019-09-04 2021-03-04 Qualcomm Incorporated Virtual keyboard

Similar Documents

Publication Publication Date Title
WO2018155892A1 (en) Method for displaying virtual image, storage medium and electronic device therefor
US11670267B2 (en) Computer vision and mapping for audio applications
US11995774B2 (en) Augmented reality experiences using speech and text captions
WO2016175412A1 (en) Mobile terminal and controlling method thereof
WO2019147021A1 (en) Device for providing augmented reality service, and method of operating the same
WO2018038439A1 (en) Image display apparatus and operating method thereof
WO2020111594A1 (en) Electronic device, augmented reality device for providing augmented reality service, and method of operating same
WO2020209491A1 (en) Head-mounted display device and operating method of the same
WO2018236058A1 (en) Electronic device for providing property information of external light source for interest object
WO2019164092A1 (en) Electronic device for providing second content for first content displayed on display according to movement of external object, and operating method therefor
WO2017126741A1 (en) Hmd device and method for controlling same
WO2015122566A1 (en) Head mounted display device for displaying augmented reality image capture guide and control method for the same
WO2015108234A1 (en) Detachable head mount display device and method for controlling the same
WO2020138602A1 (en) Method for identifying user's real hand and wearable device therefor
EP3167610A1 (en) Display device having scope of accreditation in cooperation with depth of virtual object and controlling method thereof
WO2019151817A1 (en) Apparatus and method for tracking a focal point in a head mounted display system
JP2009104429A (en) Head mount display device and portable device
WO2014193136A1 (en) Electronic device, control method of electronic device and computer readable recording medium
WO2016021907A1 (en) Information processing system and method using wearable device
WO2021246758A1 (en) Electronic device and operation method for same
WO2024043765A1 (en) Method and device for displaying virtual keyboard on head mounted display (hmd) device
WO2020091182A1 (en) Electronic device for providing image data using augmented reality and control method for same
WO2021242008A1 (en) Electronic device and operating method thereof
WO2022075686A1 (en) Electronic device and operating method therefor
WO2018093075A1 (en) Electronic device and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23857797

Country of ref document: EP

Kind code of ref document: A1