WO2021256520A1 - ヘッドマウントディスプレイ - Google Patents
ヘッドマウントディスプレイ Download PDFInfo
- Publication number
- WO2021256520A1 WO2021256520A1 PCT/JP2021/022928 JP2021022928W WO2021256520A1 WO 2021256520 A1 WO2021256520 A1 WO 2021256520A1 JP 2021022928 W JP2021022928 W JP 2021022928W WO 2021256520 A1 WO2021256520 A1 WO 2021256520A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- input
- condition
- determination unit
- image
- head
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
Definitions
- the present invention relates to a head-mounted display.
- Patent Document 1 discloses an HMD (head-mounted display) including a camera. This HMD displays a character input field at a position that does not overlap with the keyboard when both the keyboard and the user's hand are shown in the image generated by the camera.
- the HMD described in Patent Document 1 has characters in a position that does not overlap with the keyboard when both the keyboard and the user's hand are accidentally shown in the image generated by the camera in a situation where the user does not intend to input characters.
- the input field is displayed. That is, this HDM may display the character input field at a position that does not overlap with the keyboard, contrary to the intention of the user. Therefore, there is a demand for a technique capable of limiting the display of a character input field at a position that does not overlap with an input device such as a keyboard, contrary to the intention of the user.
- An object of the present invention is to provide a technique capable of restricting the display of a character input field at a position that does not overlap with an input device, contrary to the intention of the user.
- the head mount display has a display surface located in the user's field of view and a first input field on the display surface in a state where the head mount display is attached to the user's head.
- an input determination unit for determining whether or not characters can be input in the first input field from an input device for inputting characters according to an operation performed by the user, and an input determination unit.
- the presence determination unit for determining whether or not the input device exists in the first portion in the first state, and the determination result of the input determination unit are The first condition determination unit for determining whether or not the first condition including the input condition of being affirmative and the existence condition that the determination result of the existence determination unit is affirmative is satisfied, and the first condition determination. If the determination result of the unit is affirmative, instead of displaying the first image on the display surface, a second input in which characters are input from the input device in an area of the display surface that does not overlap with the input device. A display control unit for displaying a second image representing a column is included.
- the head-mounted display has a display surface located in the user's field of view and a line of sight indicating the direction of the user's line of sight when the head-mounted display is mounted on the user's head.
- the line-of-sight determination unit that determines whether or not the user is looking at an input device for inputting characters according to the operation performed by the user, and the orientation data indicating the orientation of the head-mounted display.
- the orientation determination unit that determines whether or not the head-mounted display is downward by the first angle or more with respect to the horizon, the line-of-sight condition that the determination result of the line-of-sight determination unit is affirmative, and the orientation determination.
- the orientation condition that the determination result of the unit is affirmative, the second condition determination unit for determining whether or not the second condition including the second condition is satisfied, and the first image representing the first input field are displayed on the display surface. If the determination result of the second condition determination unit is affirmative in the above situation, instead of displaying the first image on the display surface, a second input field in which characters are input from the input device on the display surface.
- the head-mounted display has a display surface located in the user's field of view and a first input to the display surface in a state where the head-mounted display is attached to the user's head.
- the input determination unit for determining whether or not the character can be input to the first input field from the input device for inputting the character according to the operation performed by the user.
- the orientation determination unit for determining whether or not the head-mounted display is downward by the first angle or more with respect to the horizon, and the input determination unit.
- a third condition determination unit for determining whether or not a third condition including an input condition that the result is affirmative and an orientation condition that the determination result of the orientation determination unit is affirmative is satisfied, and the display surface.
- the determination result of the third condition determination unit is affirmative in the situation where the first image is displayed, instead of displaying the first image on the display surface, characters from the input device are displayed on the display surface.
- a display control unit for displaying the second image, which is a second image representing the second input field to which is input and is smaller than the first image.
- FIG. 1 is a diagram showing a display input system 1.
- the display input system 1 includes an HMD (Head Mounted Display) 100 and a keyboard 200.
- HMD Head Mounted Display
- the HMD100 is, for example, a spectacle-type display device that employs an optical see-through format.
- the HMD 100 may be a spectacle-type display device that employs a video see-through format.
- the user U attaches the HMD 100 to the head U2 of the user U in the same manner as the glasses.
- the state in which the user U wears the HMD 100 is referred to as a "wearing state".
- the HMD 100 includes a display unit 120, a field of view camera 130, a line-of-sight camera 140, and a touch operation unit 160.
- the display unit 120 includes a facing surface 120a facing the user U in the mounted state and an outer surface 120b on the opposite side of the facing surface 120a.
- the facing surface 120a has a first display surface B1 for the right eye and a second display surface B2 for the left eye.
- first display surface B1 and the second display surface B2 are collectively referred to as "display surface B".
- the display surface B is located in the field of view of the user U in the mounted state.
- the display surface B displays various images.
- the display unit 120 includes an image generation unit and a half mirror.
- the image generation unit is, for example, a liquid crystal display device or an organic EL (Electronic Luminescent) display device.
- the image generation unit generates a display image.
- the half mirror reflects the light indicating the display image output by the image generation unit toward the display surface B. Further, the half mirror passes light from the outer surface 120b side toward the user U's eyes U1. The user U visually recognizes the image formed by the light passing through the half mirror and the display image generated by the image generation unit via the display surface B. The displayed image is superimposed on the image formed by the light passing through the half mirror.
- the display unit 120 includes a display.
- the display surface B is the screen of the display.
- the display unit 120 displays on the display surface B a field image indicated by the field image data generated by the field camera 130 and a display image different from the field image.
- the display image is superimposed on the field image.
- the user U visually recognizes the visual field image and the displayed image.
- the field of view camera 130 includes an image pickup lens and an image sensor.
- the image sensor is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
- the field of view camera 130 is provided on the outer surface 120b.
- the image pickup direction of the field-of-view camera 130 is a direction from the facing surface 120a toward the outer surface 120b. If the direction from the facing surface 120a to the outer surface 120b is used as the imaging direction, the visual field camera 130 may be provided in a portion different from the outer surface 120b in the HMD 100.
- the field of view camera 130 generates field of view image data indicating the field of view image by capturing the imaging range of the field of view camera 130.
- the field of view image represents the imaging range of the field of view camera 130.
- the visual field image represents an image of an object existing in the imaging range of the visual field camera 130.
- the imaging range of the field-of-view camera 130 is a part of the field of view of the user U.
- the image pickup range of the field of view camera 130 is an example of the first part of the field of view of the user U.
- the visual field image indicated by the visual field image data is displayed on the display surface B.
- the display surface B is located in a part of the field of view of the user U. Therefore, when the HMD 100 is a spectacle-type display device that employs a video see-through format, the display surface B is an example of the first portion of the field of view of the user U.
- the field of view image data is an example of image data showing the first part of the field of view of the user U.
- the line-of-sight camera 140 includes an image pickup lens and an image sensor.
- the image pickup lens of the line-of-sight camera 140 is, for example, a fisheye lens.
- the line-of-sight camera 140 is provided on the facing surface 120a.
- the line-of-sight camera 140 generates image capture data around the eyes by imaging the eyes U1 of the user U.
- the eye area imaging data represents at least one of the two eyes U1 of the user U.
- the eye area imaging data is an example of line-of-sight data indicating the direction of the line-of-sight of the user U. If the line-of-sight camera 140 can image at least one of the two eyes U1, the line-of-sight camera 140 may be provided on the HMD 100 at a portion different from the facing surface 120a.
- the touch operation unit 160 is, for example, a pressure sensor.
- the touch operation unit 160 may include an operation button.
- the touch operation unit 160 receives a touch operation or the like performed by the user U.
- the HMD 100 wirelessly communicates with the keyboard 200.
- the keyboard 200 is an example of an input device for inputting characters according to an operation performed by the user U.
- the input device is not limited to the keyboard and can be changed as appropriate.
- FIG. 3 is a diagram showing a first image G1 which is an example of a display image.
- the first image G1 includes a first input field A1 in which characters and the like are input from the keyboard 200.
- the first input field A1 is, for example, an input box. When the first input field A1 is selected, a situation occurs in which the user U can input characters or the like from the keyboard 200 into the first input field A1.
- the first image G1 includes explanatory information C1 for explaining the first image G1 in addition to the first input field A1.
- the first image G1 may not include the explanatory information C1.
- the first image G1 is, for example, an image of a search site.
- the HMD 100 acquires the first image data indicating the first image G1 from a search site or the like via a network such as the Internet.
- the HMD 100 acquires the first image data from a search site or the like in response to an operation performed by the user U on the HMD 100 in a state of being connected to the Internet without going through a terminal device such as a smartphone.
- a smartphone is an example of an information processing device.
- the information processing device is not limited to a smartphone, and may be, for example, a tablet terminal device or a personal computer.
- the HMD 100 may acquire the first image data via a smartphone connected to the Internet.
- the smartphone acquires the first image data from the search site or the like and transmits the first image data to the HMD 100 in response to the operation performed by the user U on the smartphone while connected to the Internet.
- the first image G1 is not limited to the image of the search site.
- FIG. 4 is a diagram showing a second image G2 which is another example of the display image.
- the second image G2 includes a second input field A2 in which characters and the like are input from the keyboard 200.
- the second input field A2 has the same function as that of the first input field A1.
- the second input field A2 is, for example, an input box.
- the second image G2 is an image showing only the second input field A2.
- the second image G2 may include explanatory information for explaining the second image G2 in addition to the second input field A2.
- the area of the second image G2 is smaller than the area of the first image G1.
- the area of the portion G2a of the second image G2 different from the second input field A2 is smaller than the area of the portion G1a of the first image G1 different from the first input field A1.
- the area of the second input field A2 is, for example, equal to or larger than the area of the first input field A1. Therefore, the user U is more likely to input characters in the second input field A2 than in the first input field A1.
- the second image G2 is also referred to as an image specialized for inputting characters and the like.
- the area of the second input field A2 may be smaller than the area of the first input field A1.
- FIG. 5 is a block diagram showing an example of the HMD 100.
- the HMD 100 includes a display unit 120, a field of view camera 130, a line-of-sight camera 140, a touch operation unit 160, a communication unit 110, an orientation sensor 150, a storage device 170, and a processing device 180.
- the communication unit 110 includes various wireless communication devices.
- the communication unit 110 wirelessly communicates with the keyboard 200.
- the communication unit 110 wirelessly communicates with the keyboard 200 by Bluetooth®.
- the wireless communication method between the communication unit 110 and the keyboard 200 is not limited to Bluetooth, and may be, for example, an infrared communication method or Wi-Fi (registered trademark). Bluetooth, infrared communication system and Wi-Fi are examples of short-range wireless system.
- the wireless communication method between the communication unit 110 and the keyboard 200 is not limited to the short-range wireless method, and may be another communication method.
- the communication unit 110 can also wirelessly communicate with a terminal device such as a smartphone.
- the communication unit 110 may communicate with the keyboard 200 via the smartphone.
- the smartphone connects to the keyboard 200 according to the operation performed by the user U, and further connects to the HMD 100 according to the operation performed by the user U.
- the communication unit 110 may acquire the first image data from a search site or the like via a network such as the Internet.
- the orientation sensor 150 includes, for example, an acceleration sensor and a gyro sensor.
- the orientation sensor 150 generates orientation data indicating the orientation of the HMD 100.
- the orientation of the HMD 100 means the orientation of the head U2 of the user U in the mounted state.
- the storage device 170 is a recording medium that can be read by the processing device 180.
- the storage device 170 includes, for example, a non-volatile memory and a volatile memory.
- the non-volatile memory is, for example, ROM (ReadOnlyMemory), EPROM (ErasableProgrammableReadOnlyMemory), and EEPROM (ElectricallyErasableProgrammableReadOnlyMemory).
- the volatile memory is, for example, RAM (RandomAccessMemory).
- the storage device 170 stores a program and various data.
- the processing device 180 is composed of, for example, one or more processors. As an example, the processing device 180 is composed of one or two or more CPUs (Central Processing Units). Even if some or all of the functions of the processing device 180 are configured by circuits such as DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field Programmable Gate Array), etc. good.
- DSP Digital Signal Processor
- ASIC Application Specific Integrated Circuit
- PLD Programmable Logic Device
- FPGA Field Programmable Gate Array
- the processing device 180 reads the program from the storage device 170. By executing the program, the processing device 180 functions as an input determination unit 181, an existence determination unit 182, a line-of-sight determination unit 183, an orientation determination unit 184, a condition determination unit 185, and a display control unit 186.
- the input determination unit 181 determines whether or not characters can be input from the keyboard 200 to the first input field A1.
- the input determination unit 181 may be configured by an input determination circuit having the same function as the input determination unit 181.
- the existence determination unit 182 determines whether or not the keyboard 200 is in the first state in the situation where the keyboard 200 is present in the image pickup range of the field of view camera 130 based on the field of view image data. In other words, the existence determination unit 182 determines whether or not the keyboard 200 in the first state is within the imaging range of the visual field camera 130 based on the visual field image data.
- the first state is, for example, a state in which the user U can receive an operation for inputting a character or the like.
- An example of the first state is a state in which the degree of coincidence between the image of the keyboard 200 shown by the field image data and the reference image showing the keyboard 200 in a state where the user U can execute an operation of inputting characters and the like is equal to or higher than the threshold value. be.
- the degree of matching between the keyboard 200 indicated by the field image data and the keyboard 200 indicated by the reference image is also referred to as “image matching degree”.
- the keyboard 200 in a state in which the user U can execute an operation for inputting characters and the like is, for example, a keyboard 200 placed on a desk with the keys facing up.
- the keyboard 200 placed on the desk in the inverted state is not in a state in which the user U can execute an operation of inputting characters and the like.
- the reference image is indicated by the reference image data.
- the reference image data is stored in the storage device 170 in advance, for example.
- the existence determination unit 182 uses the reference image data stored in the storage device 170 and the visual field image data to determine whether or not the keyboard 200 in the first state exists in the imaging range of the visual field camera 130. To judge.
- the existence determination unit 182 may be configured by an existence determination circuit having the same function as the existence determination unit 182.
- the keyboard 200 in the first state (a state in which an operation for inputting a character or the like from the user U can be received from the user U) is present in the imaging range of the field of view camera 130 by using the field of view image data and the trained model. It may be determined whether or not.
- the trained model has a correspondence relationship between past visual field image data and information indicating whether or not the keyboard 200 in a state where the user U can input characters and the like is within the imaging range of the visual field camera 130. It has been learned. In this case, the existence determination unit 182 first inputs the visual field image data to the trained model.
- the existence determination unit 182 determines whether or not the keyboard 200 in the first state exists in the imaging range of the visual field camera 130 based on the information output by the trained model in response to the input of the visual field image data. do.
- the existence determination unit 182 is in the first state. It is determined that the keyboard 200 is within the imaging range of the field camera 130.
- the existence determination unit 182 is in the first state. It is determined that the keyboard 200 does not exist in the imaging range of the field camera 130.
- the line-of-sight determination unit 183 determines whether or not the user U is looking at the keyboard 200 based on the image capture data around the eyes.
- the line-of-sight determination unit 183 may be configured by a line-of-sight determination circuit having the same function as the line-of-sight determination unit 183.
- the orientation determination unit 184 determines whether or not the HMD 100 is downward by the first angle or more with respect to the horizon based on the orientation data.
- the first angle is, for example, 10 degrees.
- the first angle is not limited to 10 degrees, and may be, for example, an angle within the range of 0 degrees to 90 degrees.
- the orientation determination unit 184 may be configured by an orientation determination circuit having the same function as the orientation determination unit 184.
- the condition determination unit 185 determines whether or not the predetermined condition is satisfied.
- the predetermined conditions include the following conditions. (1) An input condition that the determination result of the input determination unit 181 is affirmative. (2) Existence condition that the determination result of the existence determination unit 182 is affirmative. (3) The line-of-sight condition that the judgment result of the line-of-sight determination unit 183 is affirmative. (4) The orientation condition that the determination result of the orientation determination unit 184 is affirmative.
- the predetermined condition is an example of each of the first condition, the second condition, and the third condition.
- the condition determination unit 185 is an example of each of the first condition determination unit, the second condition determination unit, and the third condition determination unit.
- the condition determination unit 185 may be configured by a condition determination circuit having the same function as the condition determination unit 185.
- the display control unit 186 controls the display on the display surface B.
- the display control unit 186 displays the second image G2 in the area of the display surface B that does not overlap with the keyboard 200, instead of displaying the first image G1 on the display surface B. Display it.
- the display control unit 186 may be configured by a display control circuit or a display controller having the same function as the display control unit 186.
- FIG. 6 is a flowchart for explaining the operation of the HMD 100.
- the HMD 100 repeats the operation shown in FIG.
- step S101 when the first image G1 is displayed on the display surface B, the input determination unit 181 determines whether or not the first input field A1 is in a state where characters and the like can be input from the keyboard 200.
- a state in which the first input field A1 can input characters or the like from the keyboard 200 can also be referred to as a state in which the first input field A1 can accept characters or the like from the keyboard 200.
- the first input field A1 is in a state where characters and the like can be received from the keyboard 200 by a selection operation for selecting the first input field A1.
- the selection operation is executed by the user U.
- the user U executes the selection operation by operating the touch operation unit 160.
- the user U first moves the cursor on the display surface B to the first input field A1 by operating the touch operation unit 160.
- the user U executes a click operation for selecting the first input field A1 by operating the touch operation unit 160.
- the user U may execute the selection operation by operating the keyboard 200.
- step S102 the presence determination unit 182 uses the keyboard 200 in the first state (a state in which the user U can input characters and the like) in the image pickup range of the field of view camera 130 based on the field of view image data. Determine if it exists.
- step S102 the existence determination unit 182 first acquires the field of view image data from the field of view camera 130. Subsequently, the existence determination unit 182 acquires reference image data indicating the reference image from the storage device 170.
- the existence determination unit 182 determines whether or not the visual field image data indicates the keyboard 200 having an image matching degree equal to or higher than the threshold value.
- the image matching degree is the matching degree between the keyboard 200 indicated by the field image data and the keyboard 200 indicated by the reference image.
- the existence determination unit 182 determines that the keyboard 200 in the first state exists in the imaging range of the visual field camera 130.
- the existence determination unit 182 determines that the keyboard 200 in the first state does not exist in the imaging range of the visual field camera 130. For example, when the visual field image data does not indicate the keyboard 200, the existence determination unit 182 determines that the keyboard 200 in the first state does not exist in the imaging range of the visual field camera 130. Further, when the field of view image data indicates the keyboard 200 in the inverted state, the existence determination unit 182 determines that the keyboard 200 in the first state does not exist in the imaging range of the field of view camera 130.
- the keyboard 200 in the first state (the state in which the user U can input characters and the like) using the field of view image data and the trained model as described above is the field of view camera 130. It may be determined whether or not the image is within the imaging range of.
- step S103 the line-of-sight determination unit 183 determines whether or not the user U is looking at the keyboard 200 based on the image capture data around the eyes.
- the line-of-sight determination unit 183 first acquires the field-of-view image data from the field-of-view camera 130, and also acquires the image capture data around the eyes from the line-of-sight camera 140.
- the line-of-sight determination unit 183 determines whether or not the user U is looking at the keyboard 200 based on the visual field image data and the eye area imaging data.
- the line-of-sight determination unit 183 first determines whether or not the keyboard 200 is present in the image pickup range of the field-of-view camera 130 based on the field-of-view image data.
- the line-of-sight determination unit 183 determines that the keyboard 200 is present in the imaging range of the visual field camera 130, the reference point (for example, the inner corner of the eye) of the user U's eye U1 and the user U's eye U1 are determined based on the eye imaging data. Detects a specific point (pupil, etc.).
- the line-of-sight determination unit 183 estimates the direction of the line of sight of the user U based on the positional relationship between the reference point and the specific point. For example, the line-of-sight determination unit 183 estimates the direction of the line of sight of the user U by using a table showing the correspondence between the positional relationship between the reference point and the specific point and the direction of the line of sight of the user U.
- the line-of-sight determination unit 183 identifies the position of the keyboard 200 in the imaging range of the visual field camera 130 based on the visual field image data. Subsequently, the line-of-sight determination unit 183 determines whether or not the keyboard 200 is located in the direction of the line of sight of the user U, that is, whether or not the user U is looking at the keyboard 200.
- the line-of-sight determination unit 183 may determine that the user U is looking at the keyboard 200 when the direction of the line of sight of the user U faces the area where the keyboard 200 is assumed to exist (the area where the keyboard 200 is assumed to exist). ..
- the line-of-sight determination unit 183 may determine that the user U is not looking at the keyboard 200 when the direction of the line of sight of the user U does not face the area where the keyboard 200 is assumed to exist (the area where the keyboard 200 is assumed to exist). .. In such a case, the line-of-sight determination unit 183 determines whether or not the user U is looking at the keyboard 200 by using the eye area imaging data and the data indicating the assumed existence area without using the visual field image data. Can be determined.
- the data indicating the existence assumed area is stored in the storage device 170 in advance, for example.
- step S104 the orientation determination unit 184 determines whether or not the HMD 100 (head U2 of the user U) is facing downward by the first angle or more with respect to the horizon.
- step S104 the orientation determination unit 184 first acquires orientation data from the orientation sensor 150. Subsequently, the orientation determination unit 184 determines whether or not the HMD 100 is downward by a first angle or more with respect to the horizon based on the orientation data.
- step S101 may be executed after the completion of step S102.
- the condition determination unit 185 determines whether or not the predetermined condition is satisfied.
- the predetermined conditions include the following conditions as described above. (1) An input condition that the determination result of the input determination unit 181 is affirmative. (2) Existence condition that the determination result of the existence determination unit 182 is affirmative. (3) The line-of-sight condition that the judgment result of the line-of-sight determination unit 183 is affirmative. (4) The orientation condition that the determination result of the orientation determination unit 184 is affirmative.
- step S106 the display control unit 186 determines whether or not the determination result of the condition determination unit 185 is affirmative, that is, whether or not the predetermined condition is satisfied.
- step S107 When the determination result of the condition determination unit 185 is affirmative, that is, when the predetermined condition is satisfied, the display control unit 186 executes step S107.
- step S107 the display control unit 186 causes the display surface B to display the second image G2 in the area R2 of the display surface B that does not overlap with the keyboard 200 without displaying the first image G1.
- the display control unit 186 generates the second image data indicating the second image G2 based on the first image data indicating the first image G1.
- the display control unit 186 displays the second image G2 by using the second image data.
- FIG. 7 is a diagram showing an example of the second image G2 displayed on the display surface B.
- the area R2 in which the second image G2 is displayed is set, for example, with reference to the area in which the keyboard 200 is located.
- the display control unit 186 sets the area R2 at a position separated from the area where the keyboard 200 is located by a predetermined distance in a predetermined direction.
- the predetermined direction is, for example, an upward direction on the display surface B.
- the predetermined direction is not limited to the upward direction on the display surface B.
- the predetermined distance is set as appropriate.
- the HMD 100 may be in a mode specialized for inputting characters and the like.
- step S108 When the determination result of the condition determination unit 185 is negative, that is, when the predetermined condition is not satisfied, the display control unit 186 executes step S108.
- step S108 the display control unit 186 first acquires the field of view image data from the field of view camera 130. Subsequently, the display control unit 186 determines whether or not the visual field image indicated by the visual field image data includes an image of a predetermined object (for example, a whiteboard or a screen).
- a predetermined object for example, a whiteboard or a screen.
- the predetermined object is not limited to the whiteboard or screen, and can be appropriately changed.
- the predetermined object may be an object existing above, below, to the right or to the left of a predetermined reference object (shelf, etc.).
- step S109 When the visual field image includes an image of a predetermined object, the display control unit 186 executes step S109.
- step S109 the display control unit 186 causes the display surface B to display at least a part of the first image G1 in the region R1 that overlaps with the predetermined object.
- the region R1 is a region of the display surface B representing a predetermined object (for example, a whiteboard).
- FIGS. 8 and 9 are diagrams showing an example of the first image G1 displayed on the display surface B.
- the region R1 in which a predetermined object (for example, a whiteboard) is present in the visual field image that is, the region in which the first image G1 is displayed in the visual field image changes based on the change in the orientation of the HMD 100. Therefore, when the determination result of the condition determination unit 185 is negative, the display control unit 186 adjusts the position of the first image G1 on the display surface B based on the change in the orientation of the HMD 100 specified by the orientation data. ..
- a predetermined object for example, a whiteboard
- the display control unit 186 sets the position of the first image G1 on the display surface B to the right in the direction opposite to the left direction. Move in the direction. Further, when the orientation of the HMD 100 is changed upward based on the orientation data, the display control unit 186 moves the position of the first image G1 on the display surface B downward in the direction opposite to the upward direction. do. In this way, the display control unit 186 moves the position of the first image G1 on the display surface B in the direction opposite to the direction of change in the direction of the HMD 100.
- the display control unit 186 does not display either the first image G1 or the second image G2 on the display surface B.
- the operation shown in FIG. 6 above is repeatedly executed. Therefore, the image displayed on the display surface B may be switched from the first image G1 to the second image G2 and then to the first image G1.
- ⁇ A5 Summary of the first embodiment>
- the keyboard 200 is present in the field image, the user U is looking at the keyboard 200, and the HMD 100 is tilted downward, the display control unit 186 uses the keyboard on the display surface B.
- the second input field A2 is displayed in the area R2 that does not overlap with 200.
- the first image G1 displayed on the display surface B is fixed in the real space based on the position of a predetermined object (for example, a whiteboard) existing in the real space.
- a predetermined object for example, a whiteboard
- the first image G1 displayed on the display surface B does not have to be fixed in the real space based on the position of a predetermined object existing in the real space.
- FIG. 10 is a flowchart for explaining an example of the operation of the first modification.
- substantially the same processes as those shown in FIG. 6 are designated by the same reference numerals.
- the process shown in FIG. 10 will be mainly described as being different from the process shown in FIG.
- step S106 the display control unit 186 causes the display control unit 186 to display the first image G1 in the preset area R3 of the display surface B in step S201.
- FIG. 11 is a diagram showing an example of the first image G1 located in the region R3.
- the position of the region R3 on the display surface B is not limited to the position shown in FIG. 11, and can be appropriately changed.
- the display control unit 186 can fix the position of the first image G1 on the display surface B when the predetermined condition is not satisfied.
- the predetermined conditions may include additional conditions.
- Example of additional conditions In the first embodiment, it is assumed that the user U remembers another work immediately after selecting the first input field A1 and starts to refer to the paper material instead of the first image G1. Will be done. In such a situation, it is possible that the second image G2 is displayed on the display surface B by recognizing the keyboard 200 after a certain amount of time has elapsed from the time when the first input field A1 is selected. May be perceived as unnecessary.
- the display control unit 186 may skip step S106 when a predetermined time has elapsed from the time when the first input field A1 is selected.
- the predetermined time is, for example, 10 seconds.
- the predetermined time may be shorter than 10 seconds or longer than 10 seconds. In this case, a transitional condition that a predetermined time has not elapsed since the selection of the first input field A1 is added to the predetermined condition.
- the condition determination unit 185 determines whether or not a predetermined condition including a transitional condition is satisfied.
- the display control unit 186 may skip step S106 while the head U2 of the user U is moving.
- the stop condition that the head U2 of the user U is stopped is added to the predetermined condition.
- the condition determination unit 185 determines whether or not a predetermined condition including a stop condition is satisfied. For example, the condition determination unit 185 determines whether or not the stop condition is satisfied based on the orientation data.
- the predetermined condition includes an input condition and an existence condition, and may not include a condition different from the input condition and the existence condition.
- the line-of-sight camera 140, the direction sensor 150, the line-of-sight determination unit 183, and the direction determination unit 184 can be omitted.
- the predetermined condition is an example of the first condition.
- the predetermined condition includes an input condition, an existence condition, and a line-of-sight condition, and does not include a condition different from any of the input condition, the existence condition, and the line-of-sight condition. good.
- the orientation sensor 150 and the orientation determination unit 184 can be omitted.
- the predetermined condition is an example of the first condition.
- the predetermined condition includes a line-of-sight condition and a direction condition, and may not include a condition different from any of the line-of-sight condition and the direction condition.
- the input determination unit 181 and the existence determination unit 182 can be omitted.
- the predetermined condition is an example of the second condition.
- the predetermined condition includes a line-of-sight condition, a direction condition, and an input condition, and does not include a condition different from any of the line-of-sight condition, the direction condition, and the input condition. good.
- the existence determination unit 182 can be omitted.
- the predetermined condition is an example of the second condition.
- the predetermined condition includes the line-of-sight condition, the orientation condition, and the existence condition, and does not include any condition different from the line-of-sight condition, the orientation condition, and the existence condition. good.
- the input determination unit 181 can be omitted.
- the predetermined condition is an example of the second condition.
- the predetermined condition includes an input condition and a orientation condition, and may not include a condition different from any of the input condition and the orientation condition.
- the field of view camera 130, the line-of-sight camera 140, the existence determination unit 182, and the line-of-sight determination unit 183 can be omitted.
- the predetermined condition is an example of the third condition.
- the storage device 170 is a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, a Blu-ray (registered trademark). ) Disks), smart cards, flash memory devices (eg cards, sticks, key drives), CD-ROMs (Compact Disc-ROMs), registers, removable disks, hard disks, floppy (registered trademark) disks, magnetic strips, databases, It may include a server or other suitable storage medium.
- the program may also be transmitted from the network via a telecommunication line.
- Each of the first embodiment and the first modification to the eighth modification is LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA ( Future Radio Access), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), LTE 802.16 (WiMAX), IEEE 802.20 , UWB (Ultra-WideBand), Bluetooth®, and other systems that utilize suitable systems and / or extended next-generation systems based on them.
- the input / output information and the like may be stored in a specific place (for example, a memory) or managed by a management table. May be good. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
- the determination may be made based on the value (0 or 1) represented by one bit, or the truth value. It may be performed based on (Boolean: true or false), or it may be performed based on a numerical comparison (for example, a comparison with a predetermined value).
- Each function illustrated in FIG. 5 is realized by any combination of hardware and software. Further, each function may be realized by a single device, or may be realized by two or more devices configured as separate bodies from each other.
- the programs exemplified in each of the first embodiment and the first modification to the eighth modification may be referred to as software, firmware, middleware, microcode or hardware description language, or may be referred to by other names.
- software instruction sets, codes, code segments, program codes, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures or functions, etc. It should be broadly interpreted.
- software, instructions, and the like may be transmitted and received via a transmission medium.
- the software may use wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to website, server, or other. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.
- DSL digital subscriber line
- the HMD 100 may be a mobile station.
- Mobile stations can be used by those skilled in the art as subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, mobile terminals, wireless. It may also be referred to using a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.
- the term “device” may be read as another term such as a circuit, a device, or a unit.
- the head-mounted display includes a display surface, an input determination unit, an existence determination unit, a first condition determination unit, and a display control unit.
- the display surface is located in the field of view of the user when the head-mounted display is mounted on the user's head.
- the input determination unit inputs characters into the first input field from an input device for inputting characters according to an operation performed by the user. Determine if input is possible.
- the existence determination unit determines whether or not the input device exists in the first portion in the first state based on image data showing an image of an object existing in the first portion of the user's field of view.
- the first condition determination unit determines whether or not the first condition including the input condition that the determination result of the input determination unit is affirmative and the existence condition that the determination result of the existence determination unit is affirmative is satisfied. To judge. When the determination result of the first condition determination unit is affirmative, the display control unit displays the first image on the display surface, but instead displays the input in the area of the display surface that does not overlap with the input device. A second image showing a second input field in which characters are input from the device is displayed.
- the head-mounted display can limit the display of the input field in a position that does not overlap with the input device, contrary to the intention of the user.
- the display control unit is specified by the orientation data indicating the orientation of the head-mounted display when the determination result of the first condition determination unit is negative.
- the position of the first image on the display surface is adjusted based on the change in the orientation of the display.
- the display control unit can change the position of the first image on the display surface based on the orientation of the head-mounted display.
- a line-of-sight determination unit for determining whether or not the user is looking at the input device is further provided based on the line-of-sight data indicating the direction of the line-of-sight of the user.
- the first condition further includes a line-of-sight condition that the determination result of the line-of-sight determination unit is affirmative.
- the head-mounted display can limit the display of the input field in a position that does not overlap with the input device, contrary to the intention of the user.
- the head-mounted display is downward by a first angle or more with respect to the horizontal line based on the orientation data indicating the orientation of the head-mounted display.
- the first condition further includes an orientation condition for determining whether or not the orientation determination unit is positive, and the first condition further includes an orientation condition that the determination result of the orientation determination unit is affirmative.
- the head-mounted display can further limit the display of the input field in a position that does not overlap with the input device against the intention of the user.
- the head-mounted display includes a display surface, a line-of-sight determination unit, an orientation determination unit, a second condition determination unit, and a display control unit.
- the display surface is located in the field of view of the user when the head-mounted display is mounted on the user's head.
- the line-of-sight determination unit determines whether or not the user is looking at an input device for inputting characters according to an operation performed by the user, based on the line-of-sight data indicating the direction of the user's line of sight.
- the orientation determination unit determines whether or not the head-mounted display is facing downward by a first angle or more with respect to the horizon, based on the orientation data indicating the orientation of the head-mounted display.
- the second condition determination unit determines whether or not the second condition including the line-of-sight condition that the determination result of the line-of-sight determination unit is affirmative and the orientation condition that the determination result of the orientation determination unit is affirmative is satisfied. To judge. When the determination result of the second condition determination unit is affirmative in the situation where the first image representing the first input field is displayed on the display surface, the display control unit displays the first image on the display surface. Instead, the display surface displays the second image, which is a second image representing the second input field in which characters are input from the input device and is smaller than the first image.
- the head-mounted display can limit the display of the input field in a position that does not overlap with the input device, contrary to the intention of the user.
- ⁇ D6 Sixth aspect>
- the display control unit displays the first image in a preset area of the display surface. Display.
- the display control unit can fix the first image in a preset area of the display surface when the determination result of the second condition determination unit is negative.
- the first input field further includes an input determination unit for determining whether or not characters can be input from the input device, and the second condition is Further includes an input condition that the determination result of the input determination unit is affirmative.
- the head-mounted display can limit the display of the input field in a position that does not overlap with the input device, contrary to the intention of the user.
- the input device is present in the first portion in the first state based on the image data showing the first portion of the user's field of view. It further includes an existence determination unit for determining whether or not it is present. The second condition further includes an existence condition that the determination result of the existence determination unit is affirmative. According to this aspect, the head-mounted display can further limit the display of the input field in a position that does not overlap with the input device against the intention of the user.
- the head-mounted display includes a display surface, an input determination unit, an orientation determination unit, a third condition determination unit, and a display control unit.
- the display surface is located in the field of view of the user when the head-mounted display is attached to the user's head.
- the input determination unit inputs characters into the first input field from an input device for inputting characters according to an operation performed by the user. Determine if input is possible.
- the orientation determination unit determines whether or not the head-mounted display is facing downward by a first angle or more with respect to the horizon, based on the orientation data indicating the orientation of the head-mounted display.
- the third condition determination unit determines whether or not the third condition including the input condition that the determination result of the input determination unit is affirmative and the orientation condition that the determination result of the orientation determination unit is affirmative is satisfied. To judge. When the determination result of the third condition determination unit is affirmative in the situation where the first image is displayed on the display surface, the display control unit displays the first image instead of displaying the first image on the display surface.
- the second image which is a second image representing the second input field in which characters are input from the input device and is smaller than the first image, is displayed on the surface.
- the head-mounted display can limit the display of the input field in a position that does not overlap with the input device, contrary to the intention of the user.
- the display control unit when the determination result of the third condition determination unit is negative, displays the first image in a preset area of the display surface. Display. According to this aspect, the display control unit can fix the first image in a preset area of the display surface when the determination result of the third condition determination unit is negative.
- 1 ... display input system 100 ... HMD, 110 ... communication unit, 120 ... display unit, 120a ... facing surface, 120b ... outer surface, 130 ... field of view camera, 140 ... line-of-sight camera, 150 ... orientation sensor, 160 ... touch operation unit, 170 ... storage device, 180 ... processing device, 181 ... input determination unit, 182 ... existence determination unit, 183 ... line-of-sight determination unit, 184 ... orientation determination unit, 185 ... condition determination unit, 186 ... display control unit, 200 ... keyboard, A1 ... 1st input field, A2 ... 2nd input field, B ... display surface, B1 ... 1st display surface, B2 ... 2nd display surface, G1 ... 1st image, G2 ... 2nd image, U ... user.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
HMDは、HMDがユーザの頭部に装着される場合にユーザの視野内に位置する表示面と、表示面に第1入力欄を表す第1画像が表示される場合、ユーザが行う操作に応じて文字を入力するための入力装置から第1入力欄に文字を入力可能であるかを判定する入力判定部と、ユーザの視野の第1部分を示す画像データに基づき、第1部分に第1状態の入力装置が存在するかを判定する存在判定部と、入力判定部の判定結果が肯定であるという入力条件と、存在判定部の判定結果が肯定であるという存在条件とを含む第1条件が成立するかを判定する第1条件判定部と、第1条件判定部の判定結果が肯定である場合、表示面に第1画像を表示する代わりに、表示面のうち入力装置と重ならない領域に第2入力欄を表す第2画像を表示させる表示制御部を含む。
Description
本発明は、ヘッドマウントディスプレイに関する。
特許文献1は、カメラを備えるHMD(ヘッドマウントディスプレイ)を開示する。このHMDは、カメラによって生成される画像にキーボードとユーザの手との両方が写っている場合、キーボードと重ならない位置に文字入力欄を表示する。
特許文献1に記載のHMDは、ユーザが文字の入力を意図しない状況において、偶然、カメラによって生成される画像にキーボードとユーザの手との両方が写っている場合、キーボードと重ならない位置に文字入力欄を表示してしまう。すなわち、このHDMは、ユーザの意図に反して、文字入力欄をキーボードと重ならない位置に表示してしまうおそれがある。このため、ユーザの意図に反して文字の入力欄をキーボード等の入力装置と重ならない位置に表示することを制限可能な技術が望まれる。
本発明の目的は、ユーザの意図に反して文字の入力欄を入力装置と重ならない位置に表示することを制限可能な技術を提供することである。
本発明の一態様に係るヘッドマウントディスプレイは、前記ヘッドマウントディスプレイがユーザの頭部に装着される状態において、前記ユーザの視野内に位置する表示面と、前記表示面に、第1入力欄を表す第1画像が表示される場合、前記ユーザが行う操作に応じて文字を入力するための入力装置から前記第1入力欄に文字を入力可能であるか否かを判定する入力判定部と、前記ユーザの視野の第1部分を示す画像データに基づいて、前記入力装置が第1状態において前記第1部分に存在するか否かを判定する存在判定部と、前記入力判定部の判定結果が肯定であるという入力条件と、前記存在判定部の判定結果が肯定であるという存在条件と、を含む第1条件が成立するか否かを判定する第1条件判定部と、前記第1条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面のうち前記入力装置と重ならない領域に、前記入力装置から文字が入力される第2入力欄を表す第2画像を表示させる表示制御部と、を含む。
本発明の他の態様に係るヘッドマウントディスプレイは、前記ヘッドマウントディスプレイがユーザの頭部に装着される状態において、前記ユーザの視野内に位置する表示面と、前記ユーザの視線の方向を示す視線データに基づいて、前記ユーザが、前記ユーザが行う操作に応じて文字を入力するための入力装置を見ているか否かを判定する視線判定部と、前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する向き判定部と、前記視線判定部の判定結果が肯定であるという視線条件と、前記向き判定部の判定結果が肯定であるという向き条件と、を含む第2条件が成立するか否かを判定する第2条件判定部と、前記表示面に第1入力欄を表す第1画像が表示される状況において前記第2条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面に、前記入力装置から文字が入力される第2入力欄を表す第2画像であって前記第1画像よりも小さい前記第2画像を表示させる表示制御部と、を含む。
本発明のさらに他の態様に係るヘッドマウントディスプレイは、前記ヘッドマウントディスプレイがユーザの頭部に装着された状態において、前記ユーザの視野内に位置する表示面と、前記表示面に、第1入力欄を表す第1画像が表示される場合、前記ユーザが行う操作に応じて文字を入力するための入力装置から前記第1入力欄に文字を入力可能であるか否かを判定する入力判定部と、前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する向き判定部と、前記入力判定部の判定結果が肯定であるという入力条件と、前記向き判定部の判定結果が肯定であるという向き条件と、を含む第3条件が成立するか否かを判定する第3条件判定部と、前記表示面に前記第1画像が表示される状況において前記第3条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面に、前記入力装置から文字が入力される第2入力欄を表す第2画像であって前記第1画像よりも小さい前記第2画像を表示させる表示制御部と、を含む。
本発明の一態様によれば、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することを制限できる。
<A:第1実施形態>
<A1:表示入力システム1>
以下、図面を参照しながら実施の形態を説明する。図面において、各部の寸法及び縮尺は実際のものと適宜異なる。図1は、表示入力システム1を示す図である。表示入力システム1は、HMD(Head Mounted Display:ヘッドマウントディスプレイ)100と、キーボード200と、を含む。
<A1:表示入力システム1>
以下、図面を参照しながら実施の形態を説明する。図面において、各部の寸法及び縮尺は実際のものと適宜異なる。図1は、表示入力システム1を示す図である。表示入力システム1は、HMD(Head Mounted Display:ヘッドマウントディスプレイ)100と、キーボード200と、を含む。
HMD100は、例えば、光学シースルー形式を採用する眼鏡型の表示装置である。HMD100は、ビデオシースルー形式を採用する眼鏡型の表示装置でもよい。図2に示すように、ユーザUは、HMD100を眼鏡と同様にユーザUの頭部U2に装着する。ユーザUがHMD100を装着した状態を「装着状態」と称する。
HMD100は、表示部120と、視野カメラ130と、視線カメラ140と、タッチ操作部160と、を含む。
表示部120は、装着状態においてユーザUと対向する対向面120aと、対向面120aの反対側の外面120bと、を含む。
図1に示すように、対向面120aは、右目用の第1表示面B1と、左目用の第2表示面B2と、を有する。第1表示面B1と第2表示面B2とを相互に区別する必要がない場合、第1表示面B1と第2表示面B2とをまとめて「表示面B」と称する。表示面Bは、装着状態において、ユーザUの視野内に位置する。表示面Bは、種々の画像を表示する。
HMD100が、光学シースルー形式を採用する眼鏡型の表示装置である場合、表示部120は、画像生成部と、ハーフミラーと、を含む。画像生成部は、例えば、液晶表示装置又は有機EL(Electronic Luminescent)表示装置である。画像生成部は、表示画像を生成する。ハーフミラーは、画像生成部が出力する表示画像を示す光を表示面Bに向けて反射する。さらに、ハーフミラーは、外面120b側からユーザUの目U1に向かう光を通す。ユーザUは、ハーフミラーを通る光によって形成される像と、画像生成部が生成する表示画像とを、表示面Bを介して視認する。表示画像は、ハーフミラーを通る光によって形成される像に重畳される。
HMD100が、ビデオシースルー形式を採用する眼鏡型の表示装置である場合、表示部120は、ディスプレイを含む。この場合、表示面Bは、ディスプレイの画面である。表示部120は、表示面Bに、視野カメラ130によって生成される視野画像データが示す視野画像と、視野画像とは異なる表示画像と、を表示する。表示画像は、視野画像に重畳される。ユーザUは、視野画像と表示画像とを視認する。
視野カメラ130は、撮像レンズと、イメージセンサと、を含む。イメージセンサは、例えば、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。
視野カメラ130は、外面120bに設けられる。視野カメラ130の撮像方向は、対向面120aから外面120bに向かう方向である。対向面120aから外面120bに向かう方向が撮像方向として用いられれば、視野カメラ130は、HMD100において外面120bとは異なる部分に設けられてもよい。
視野カメラ130は、視野カメラ130の撮像範囲を撮像することによって、視野画像を示す視野画像データを生成する。視野画像は、視野カメラ130の撮像範囲を表す。さらに言えば、視野画像は、視野カメラ130の撮像範囲に存在する物体の像を表す。
HMD100が、光学シースルー形式を採用する眼鏡型の表示装置である場合、視野カメラ130の撮像範囲は、ユーザUの視野の一部分である。この場合、視野カメラ130の撮像範囲は、ユーザUの視野の第1部分の一例となる。
HMD100が、ビデオシースルー形式を採用する眼鏡型の表示装置である場合、視野画像データが示す視野画像は、表示面Bに表示される。表示面Bは、ユーザUの視野の一部分に位置する。このため、HMD100が、ビデオシースルー形式を採用する眼鏡型の表示装置である場合、表示面Bが、ユーザUの視野の第1部分の一例となる。
視野画像データは、ユーザUの視野の第1部分を示す画像データの一例である。
視線カメラ140は、撮像レンズと、イメージセンサと、を含む。視線カメラ140の撮像レンズは、例えば、魚眼レンズである。視線カメラ140は、対向面120aに設けられる。
視線カメラ140は、ユーザUの目U1を撮像することによって、目もと撮像データを生成する。目もと撮像データは、ユーザUの2つの目U1のうち少なくとも一方を表す。目もと撮像データは、ユーザUの視線の方向を示す視線データの一例である。視線カメラ140が2つの目U1のうち少なくとも一方の目U1を撮像できれば、視線カメラ140は、HMD100において対向面120aとは異なる部分に設けられてもよい。
タッチ操作部160は、例えば、圧力センサである。タッチ操作部160は、操作ボタンを含んでもよい。タッチ操作部160は、ユーザUが行うタッチ操作等を受ける。
HMD100は、キーボード200と無線通信する。キーボード200は、ユーザUが行う操作に応じて文字を入力するための入力装置の一例である。入力装置は、キーボードに限らず適宜変更可能である。
<A2:表示画像>
図3は、表示画像の一例である第1画像G1を示す図である。第1画像G1は、キーボード200から文字等が入力される第1入力欄A1を含む。第1入力欄A1は、例えば、入力ボックスである。第1入力欄A1が選択されると、ユーザUがキーボード200から第1入力欄A1に文字等を入力可能な状況が発生する。
図3は、表示画像の一例である第1画像G1を示す図である。第1画像G1は、キーボード200から文字等が入力される第1入力欄A1を含む。第1入力欄A1は、例えば、入力ボックスである。第1入力欄A1が選択されると、ユーザUがキーボード200から第1入力欄A1に文字等を入力可能な状況が発生する。
第1画像G1は、第1入力欄A1の他に、第1画像G1を説明するための説明情報C1を含む。第1画像G1は、説明情報C1を含まなくてもよい。第1画像G1は、例えば、検索サイトの画像である。
HMD100は、第1画像G1を示す第1画像データを、インターネット等のネットワークを介して、検索サイト等から取得する。
例えば、HMD100は、スマートフォン等の端末装置を介さずにインターネットに接続した状態においてユーザUがHMD100に対して行う操作に応じて、第1画像データを検索サイト等から取得する。スマートフォンは、情報処理装置の一例である。情報処理装置は、スマートフォンに限らず、例えば、タブレット端末装置又はパーソナルコンピュータでもよい。
HMD100は、インターネットに接続したスマートフォンを介して、第1画像データを取得してもよい。この場合、スマートフォンは、インターネットに接続した状態においてユーザUがスマートフォンに対して行う操作に応じて、第1画像データを検索サイト等から取得し、当該第1画像データをHMD100に送信する。
第1画像G1は、検索サイトの画像に限らない。
HMD100は、第1画像G1を示す第1画像データを、インターネット等のネットワークを介して、検索サイト等から取得する。
例えば、HMD100は、スマートフォン等の端末装置を介さずにインターネットに接続した状態においてユーザUがHMD100に対して行う操作に応じて、第1画像データを検索サイト等から取得する。スマートフォンは、情報処理装置の一例である。情報処理装置は、スマートフォンに限らず、例えば、タブレット端末装置又はパーソナルコンピュータでもよい。
HMD100は、インターネットに接続したスマートフォンを介して、第1画像データを取得してもよい。この場合、スマートフォンは、インターネットに接続した状態においてユーザUがスマートフォンに対して行う操作に応じて、第1画像データを検索サイト等から取得し、当該第1画像データをHMD100に送信する。
第1画像G1は、検索サイトの画像に限らない。
図4は、表示画像の他の例である第2画像G2を示す図である。第2画像G2は、キーボード200から文字等が入力される第2入力欄A2を含む。第2入力欄A2は、第1入力欄A1が有する機能と同一の機能を有する。第2入力欄A2は、例えば、入力ボックスである。第2画像G2は、第2入力欄A2のみを示す画像である。第2画像G2は、第2入力欄A2の他に、第2画像G2を説明するための説明情報を含んでもよい。
第2画像G2の面積は、第1画像G1の面積よりも小さい。第2画像G2のうち第2入力欄A2とは異なる部分G2aの面積は、第1画像G1のうち第1入力欄A1とは異なる部分G1aの面積よりも小さい。第2入力欄A2の面積は、例えば、第1入力欄A1の面積以上である。このため、ユーザUは、第1入力欄A1よりも第2入力欄A2に対して文字を入力しやすい。第2画像G2は、文字等の入力に特化した画像とも称される。第2入力欄A2の面積は、第1入力欄A1の面積よりも小さくてもよい。
<A3:HMD100の一例>
図5は、HMD100の一例を示すブロック図である。HMD100は、表示部120と、視野カメラ130と、視線カメラ140と、タッチ操作部160とに加えて、通信部110と、向きセンサ150と、記憶装置170と、処理装置180と、を含む。
図5は、HMD100の一例を示すブロック図である。HMD100は、表示部120と、視野カメラ130と、視線カメラ140と、タッチ操作部160とに加えて、通信部110と、向きセンサ150と、記憶装置170と、処理装置180と、を含む。
通信部110は、種々の無線通信機器を備える。通信部110は、キーボード200と無線通信する。例えば、通信部110は、キーボード200とBluetooth(登録商標)によって無線通信する。通信部110とキーボード200との無線通信の方式は、Bluetoothに限らず、例えば、赤外線通信方式又はWi-Fi(登録商標)でもよい。Bluetooth、赤外線通信方式及びWi-Fiは、近距離無線方式の一例である。通信部110とキーボード200との無線通信の方式は、近距離無線方式に限らず他の通信方式でもよい。
通信部110は、スマートフォン等の端末装置とも無線通信可能である。通信部110は、スマートフォンを介して、キーボード200と通信してもよい。この場合、スマートフォンは、ユーザUが行う操作に応じてキーボード200と接続し、さらに、ユーザUが行う操作に応じてHMD100と接続する。
通信部110は、インターネット等のネットワークを介して、検索サイト等から第1画像データを取得してもよい。
通信部110は、スマートフォン等の端末装置とも無線通信可能である。通信部110は、スマートフォンを介して、キーボード200と通信してもよい。この場合、スマートフォンは、ユーザUが行う操作に応じてキーボード200と接続し、さらに、ユーザUが行う操作に応じてHMD100と接続する。
通信部110は、インターネット等のネットワークを介して、検索サイト等から第1画像データを取得してもよい。
向きセンサ150は、例えば、加速度センサとジャイロセンサとを含む。向きセンサ150は、HMD100の向きを示す向きデータを生成する。HMD100の向きは、装着状態におけるユーザUの頭部U2の向きを意味する。
記憶装置170は、処理装置180が読み取り可能な記録媒体である。記憶装置170は、例えば、不揮発性メモリーと、揮発性メモリーと、を含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)及びEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。記憶装置170は、プログラムと、種々のデータと、を記憶する。
処理装置180は、例えば、1又は2以上のプロセッサによって構成される。一例を挙げると、処理装置180は、1又は2以上のCPU(Central Processing Unit)によって構成される。処理装置180が有する機能の一部又は全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。
処理装置180は、記憶装置170からプログラムを読み取る。処理装置180は、当該プログラムを実行することによって、入力判定部181、存在判定部182、視線判定部183、向き判定部184、条件判定部185、及び表示制御部186として機能する。
入力判定部181は、表示面Bに第1画像G1が表示される場合、キーボード200から第1入力欄A1に文字を入力可能であるか否かを判定する。入力判定部181は、入力判定部181と同様の機能を有する入力判定回路によって構成されてもよい。
存在判定部182は、視野画像データに基づいて、視野カメラ130の撮像範囲にキーボード200が存在する状況においてキーボード200が第1状態にあるか否かを判定する。換言すると、存在判定部182は、視野画像データに基づいて、第1状態のキーボード200が視野カメラ130の撮像範囲に存在するか否かを判定する。
第1状態は、例えば、ユーザUから文字等を入力する操作を受けられる状態である。
第1状態の一例は、視野画像データが示すキーボード200の画像と、ユーザUが文字等を入力する操作を実行できる状態のキーボード200を示す参照画像と、の一致度が閾値以上である状態である。以下、視野画像データが示すキーボード200と、参照画像が示すキーボード200と、の一致度を、「画像一致度」とも称する。
ユーザUが文字等を入力する操作を実行できる状態のキーボード200は、例えば、キーを上に向けた状態において机の上に置かれたキーボード200である。裏返しの状態において机の上に置かれたキーボード200は、ユーザUが文字等を入力する操作を実行できる状態ではない。
参照画像は、参照画像データによって示される。参照画像データは、例えば、予め記憶装置170に記憶される。この場合、存在判定部182は、記憶装置170に記憶される参照画像データと、視野画像データと、を用いることによって、視野カメラ130の撮像範囲に第1状態のキーボード200が存在するか否かを判定する。存在判定部182は、存在判定部182と同様の機能を有する存在判定回路によって構成されてもよい。
第1状態の一例は、視野画像データが示すキーボード200の画像と、ユーザUが文字等を入力する操作を実行できる状態のキーボード200を示す参照画像と、の一致度が閾値以上である状態である。以下、視野画像データが示すキーボード200と、参照画像が示すキーボード200と、の一致度を、「画像一致度」とも称する。
ユーザUが文字等を入力する操作を実行できる状態のキーボード200は、例えば、キーを上に向けた状態において机の上に置かれたキーボード200である。裏返しの状態において机の上に置かれたキーボード200は、ユーザUが文字等を入力する操作を実行できる状態ではない。
参照画像は、参照画像データによって示される。参照画像データは、例えば、予め記憶装置170に記憶される。この場合、存在判定部182は、記憶装置170に記憶される参照画像データと、視野画像データと、を用いることによって、視野カメラ130の撮像範囲に第1状態のキーボード200が存在するか否かを判定する。存在判定部182は、存在判定部182と同様の機能を有する存在判定回路によって構成されてもよい。
存在判定部182は、視野画像データと学習済みモデルとを用いて、第1状態(ユーザUから文字等を入力する操作を受けられる状態)のキーボード200が、視野カメラ130の撮像範囲に存在するか否かを判定してもよい。
学習済みモデルは、過去の視野画像データと、ユーザUから文字等を入力する操作を受けられる状態のキーボード200が視野カメラ130の撮像範囲に存在するか否かを示す情報と、の対応関係を学習済みである。
この場合、存在判定部182は、まず、学習済みモデルへ視野画像データを入力する。続いて、存在判定部182は、視野画像データの入力に応じて学習済みモデルが出力する情報に基づいて、第1状態のキーボード200が、視野カメラ130の撮像範囲に存在するか否かを判定する。
学習済みモデルが出力する情報が、ユーザUから文字等を入力する操作を受けられる状態のキーボード200が視野カメラ130の撮像範囲に存在することを示す場合、存在判定部182は、第1状態のキーボード200が視野カメラ130の撮像範囲に存在すると判定する。
学習済みモデルが出力する情報が、ユーザUから文字等を入力する操作を受けられる状態のキーボード200が視野カメラ130の撮像範囲に存在しないことを示す場合、存在判定部182は、第1状態のキーボード200が視野カメラ130の撮像範囲に存在しないと判定する。
学習済みモデルは、過去の視野画像データと、ユーザUから文字等を入力する操作を受けられる状態のキーボード200が視野カメラ130の撮像範囲に存在するか否かを示す情報と、の対応関係を学習済みである。
この場合、存在判定部182は、まず、学習済みモデルへ視野画像データを入力する。続いて、存在判定部182は、視野画像データの入力に応じて学習済みモデルが出力する情報に基づいて、第1状態のキーボード200が、視野カメラ130の撮像範囲に存在するか否かを判定する。
学習済みモデルが出力する情報が、ユーザUから文字等を入力する操作を受けられる状態のキーボード200が視野カメラ130の撮像範囲に存在することを示す場合、存在判定部182は、第1状態のキーボード200が視野カメラ130の撮像範囲に存在すると判定する。
学習済みモデルが出力する情報が、ユーザUから文字等を入力する操作を受けられる状態のキーボード200が視野カメラ130の撮像範囲に存在しないことを示す場合、存在判定部182は、第1状態のキーボード200が視野カメラ130の撮像範囲に存在しないと判定する。
視線判定部183は、目もと撮像データに基づいて、ユーザUがキーボード200を見ているか否かを判定する。視線判定部183は、視線判定部183と同様の機能を有する視線判定回路によって構成されてもよい。
向き判定部184は、向きデータに基づいて、HMD100が水平線に対して第1角度以上、下向きであるか否かを判定する。第1角度は、例えば10度である。第1角度は10度に限らず、例えば、0度から90度までの範囲内の角度であればよい。向き判定部184は、向き判定部184と同様の機能を有する向き判定回路によって構成されてもよい。
条件判定部185は、所定条件が成立するか否かを判定する。所定条件は、以下の条件を含む。
(1)入力判定部181の判定結果が肯定であるという入力条件。
(2)存在判定部182の判定結果が肯定であるという存在条件。
(3)視線判定部183の判定結果が肯定であるという視線条件。
(4)向き判定部184の判定結果が肯定であるという向き条件。
(1)入力判定部181の判定結果が肯定であるという入力条件。
(2)存在判定部182の判定結果が肯定であるという存在条件。
(3)視線判定部183の判定結果が肯定であるという視線条件。
(4)向き判定部184の判定結果が肯定であるという向き条件。
所定条件が成立するとは、当然のことながら、所定条件に含まれるすべての条件が成立することを意味する。所定条件は、第1条件、第2条件及び第3条件の各々の一例である。条件判定部185は、第1条件判定部、第2条件判定部及び第3条件判定部の各々の一例である。条件判定部185は、条件判定部185と同様の機能を有する条件判定回路によって構成されてもよい。
表示制御部186は、表示面Bにおける表示を制御する。表示制御部186は、条件判定部185の判定結果が肯定である場合、表示面Bに第1画像G1を表示する代わりに、表示面Bのうちキーボード200と重ならない領域に第2画像G2を表示させる。表示制御部186は、表示制御部186と同様の機能を有する表示制御回路又は表示コントローラによって構成されてもよい。
<A4:動作の説明>
図6は、HMD100の動作を説明するためのフローチャートである。HMD100は、図6に示す動作を繰り返す。
図6は、HMD100の動作を説明するためのフローチャートである。HMD100は、図6に示す動作を繰り返す。
ステップS101において入力判定部181は、表示面Bに第1画像G1が表示される場合、第1入力欄A1がキーボード200から文字等を入力可能な状態になっているか否かを判定する。第1入力欄A1がキーボード200から文字等を入力可能な状態は、第1入力欄A1がキーボード200から文字等を受付可能な状態と称することもできる。第1入力欄A1は、第1入力欄A1を選択する選択操作によって、キーボード200から文字等を受付可能な状態になる。
選択操作は、ユーザUによって実行される。例えば、ユーザUは、タッチ操作部160を操作することによって選択操作を実行する。一例を挙げると、ユーザUは、まず、タッチ操作部160を操作することによって、表示面B上のカーソルを第1入力欄A1に移動する。続いて、ユーザUは、タッチ操作部160を操作することによって、第1入力欄A1を選択するためのクリック操作を実行する。ユーザUは、キーボード200を操作することによって選択操作を実行してもよい。
続いて、ステップS102において存在判定部182は、視野画像データに基づいて、視野カメラ130の撮像範囲に上述の第1状態(ユーザUから文字等を入力する操作を受けられる状態)のキーボード200が存在するか否かを判定する。
例えばステップS102では、存在判定部182は、まず、視野カメラ130から視野画像データを取得する。続いて、存在判定部182は、記憶装置170から、参照画像を示す参照画像データを取得する。
続いて、存在判定部182は、視野画像データが、閾値以上の画像一致度を有するキーボード200を示すか否かを判定する。画像一致度は、視野画像データが示すキーボード200と、参照画像が示すキーボード200と、の一致度である。
視野画像データが、閾値以上の画像一致度を有するキーボード200を示す場合、存在判定部182は、視野カメラ130の撮像範囲に第1状態のキーボード200が存在すると判定する。
視野画像データが、閾値以上の画像一致度を有するキーボード200を示さない場合、存在判定部182は、視野カメラ130の撮像範囲に第1状態のキーボード200が存在しないと判定する。例えば、視野画像データが、キーボード200を示さない場合、存在判定部182は、視野カメラ130の撮像範囲に第1状態のキーボード200が存在しないと判定する。また、視野画像データが、裏返しの状態のキーボード200を示す場合、存在判定部182は、視野カメラ130の撮像範囲に第1状態のキーボード200が存在しないと判定する。
なお、存在判定部182は、上述のように視野画像データと学習済みモデルとを用いて、第1状態(ユーザUから文字等を入力する操作を受けられる状態)のキーボード200が、視野カメラ130の撮像範囲に存在するか否かを判定してもよい。
なお、存在判定部182は、上述のように視野画像データと学習済みモデルとを用いて、第1状態(ユーザUから文字等を入力する操作を受けられる状態)のキーボード200が、視野カメラ130の撮像範囲に存在するか否かを判定してもよい。
続いて、ステップS103において視線判定部183は、目もと撮像データに基づいて、ユーザUがキーボード200を見ているか否かを判定する。
例えばステップS103では、視線判定部183は、まず、視野カメラ130から視野画像データを取得し、且つ、視線カメラ140から目もと撮像データを取得する。
続いて、視線判定部183は、視野画像データと目もと撮像データとに基づいて、ユーザUがキーボード200を見ているか否かを判定する。
一例を挙げると、視線判定部183は、まず、視野画像データに基づいて、視野カメラ130の撮像範囲にキーボード200が存在するか否かを判定する。
視線判定部183は、視野カメラ130の撮像範囲にキーボード200が存在すると判定すると、目もと撮像データに基づいて、ユーザUの目U1の基準点(例えば、目頭)と、ユーザUの目U1の特定点(瞳孔等)と、を検出する。
続いて、視線判定部183は、基準点と特定点との位置関係に基づいて、ユーザUの視線の方向を推定する。例えば、視線判定部183は、基準点と特定点との位置関係と、ユーザUの視線の方向と、の対応関係を示すテーブルを用いることによって、ユーザUの視線の方向を推定する。
続いて、視線判定部183は、視野画像データに基づいて、視野カメラ130の撮像範囲におけるキーボード200の位置を特定する。続いて、視線判定部183は、ユーザUの視線の方向にキーボード200が位置するか否か、すなわち、ユーザUがキーボード200を見ているか否かを判定する。
視線判定部183は、ユーザUの視線の方向が、キーボード200が存在すると想定される領域(存在想定領域)を向いている場合に、ユーザUがキーボード200を見ていると判定してもよい。視線判定部183は、ユーザUの視線の方向が、キーボード200が存在すると想定される領域(存在想定領域)を向いていない場合に、ユーザUがキーボード200を見ていないと判定してもよい。このような場合、視線判定部183は、視野画像データを用いることなく、目もと撮像データと、存在想定領域を示すデータと、を用いることによって、ユーザUがキーボード200を見ているか否かを判定できる。存在想定領域を示すデータは、例えば、予め記憶装置170に記憶される。
続いて、ステップS104において向き判定部184は、HMD100(ユーザUの頭部U2)が、水平線に対して第1角度以上、下向きであるか否かを判定する。
例えばステップS104では向き判定部184は、まず、向きセンサ150から向きデータを取得する。続いて、向き判定部184は、向きデータに基づいて、HMD100が水平線に対して第1角度以上、下向きであるか否かを判定する。
ステップS101からステップS104までの順序は変更されてもよい。例えば、ステップS101がステップS102の完了後に実行されてもよい。
続いて、ステップS105において条件判定部185は、所定条件が成立するか否かを判定する。所定条件は、上述の通り以下の条件を含む。
(1)入力判定部181の判定結果が肯定であるという入力条件。
(2)存在判定部182の判定結果が肯定であるという存在条件。
(3)視線判定部183の判定結果が肯定であるという視線条件。
(4)向き判定部184の判定結果が肯定であるという向き条件。
(1)入力判定部181の判定結果が肯定であるという入力条件。
(2)存在判定部182の判定結果が肯定であるという存在条件。
(3)視線判定部183の判定結果が肯定であるという視線条件。
(4)向き判定部184の判定結果が肯定であるという向き条件。
続いて、ステップS106において表示制御部186は、条件判定部185の判定結果が肯定であるか否か、すなわち、所定条件が成立するか否かを判定する。
条件判定部185の判定結果が肯定である場合、すなわち、所定条件が成立する場合、表示制御部186は、ステップS107を実行する。
ステップS107では、表示制御部186は、表示面Bに第1画像G1を表示させることなく、表示面Bのうちキーボード200と重ならない領域R2に第2画像G2を表示させる。表示制御部186は、第2画像G2を示す第2画像データを、第1画像G1を示す第1画像データに基づいて生成する。表示制御部186は、第2画像データを用いることによって、第2画像G2を表示させる。
図7は、表示面Bに表示される第2画像G2の一例を示す図である。第2画像G2が表示される領域R2は、例えば、キーボード200が位置する領域を基準に設定される。例えば、表示制御部186は、領域R2を、キーボード200が位置する領域から所定方向に所定距離だけ離れた位置に設定する。所定方向は、例えば、表示面Bにおける上方向である。所定方向は、表示面Bにおける上方向に限らない。所定距離は適宜設定される。
第2画像G2が表示されることによって、HMD100は、文字等の入力に特化したモードになってもよい。
説明を図6に戻す。条件判定部185の判定結果が否定である場合、すなわち、所定条件が成立しない場合、表示制御部186は、ステップS108を実行する。
ステップS108では、表示制御部186は、まず、視野カメラ130から視野画像データを取得する。続いて、表示制御部186は、視野画像データが示す視野画像が所定の物体(例えば、ホワイトボード又はスクリーン)の画像を含むか否かを判定する。所定の物体は、ホワイトボード又はスクリーンに限らず適宜変更可能である。例えば、所定の物体は、予め定められた基準物体(棚等)よりも、上、下、右又は左に存在する物体でもよい。
視野画像が所定の物体の画像を含む場合、表示制御部186は、ステップS109を実行する。
ステップS109では、表示制御部186は、表示面Bのうち所定の物体と重なる領域R1に、第1画像G1の少なくとも一部を表示させる。領域R1は、表示面Bのうち所定の物体(例えば、ホワイトボード)を表す領域である。
図8及び図9は、表示面Bに表示される第1画像G1の例を示す図である。視野画像において所定の物体(例えば、ホワイトボード)が存在する領域R1、すなわち、視野画像において第1画像G1が表示される領域は、HMD100の向きの変化に基づいて変化する。このため、条件判定部185の判定結果が否定である場合、表示制御部186は、向きデータによって特定されるHMD100の向きの変化に基づいて、表示面Bにおける第1画像G1の位置を調整する。
一例を挙げると、向きデータに基づいてHMD100の向きの左方向への変化が生じた場合、表示制御部186は、表示面Bにおける第1画像G1の位置を、左方向とは逆方向の右方向に移動する。また、向きデータに基づいてHMD100の向きの上方向への変化が生じた場合、表示制御部186は、表示面Bにおける第1画像G1の位置を、上方向とは逆方向の下方向に移動する。このように、表示制御部186は、HMD100の向きにおける変化の方向とは逆方向に、表示面Bにおける第1画像G1の位置を移動する。
視野画像が所定の物体(例えば、ホワイトボード)の画像を含まない場合、表示制御部186は、表示面Bに、第1画像G1及び第2画像G2のいずれも表示させない。
上述の図6に示す動作は繰り返し実行される。このため、表示面Bに表示される画像は、第1画像G1から第2画像G2に切り換わり、その後、第1画像G1に切り換わることがある。
<A5:第1実施形態のまとめ>
第1入力欄A1が選択され、視野画像にキーボード200が存在し、ユーザUがキーボード200を見ており、且つ、HMD100が下に傾く状況では、表示制御部186は、表示面Bのうちキーボード200と重ならない領域R2に第2入力欄A2を表示する。
第1入力欄A1が選択され、視野画像にキーボード200が存在し、ユーザUがキーボード200を見ており、且つ、HMD100が下に傾く状況では、表示制御部186は、表示面Bのうちキーボード200と重ならない領域R2に第2入力欄A2を表示する。
第1入力欄A1の選択は、ユーザUが文字の入力を意図するときに実行される可能性が高い。また、ユーザUがキーボード200を見ることは、ユーザUが文字の入力を意図するときに実行される可能性が高い。このため、ユーザUの意図に反して文字の入力欄を入力装置と重ならない位置に表示することを制限できる。
<B:変形例>
上述の実施形態における変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
上述の実施形態における変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
<B1:第1変形例>
第1実施形態では、表示面Bに表示される第1画像G1は、実空間に存在する所定の物体(例えば、ホワイトボード)の位置に基づいて、実空間において固定される。しかしながら、表示面Bに表示される第1画像G1は、実空間に存在する所定の物体の位置に基づいて実空間において固定されなくてもよい。
第1実施形態では、表示面Bに表示される第1画像G1は、実空間に存在する所定の物体(例えば、ホワイトボード)の位置に基づいて、実空間において固定される。しかしながら、表示面Bに表示される第1画像G1は、実空間に存在する所定の物体の位置に基づいて実空間において固定されなくてもよい。
図10は、第1変形例の動作の一例を説明するためのフローチャートである。図10において、図6に示した処理と実質的に同一の処理には同一の符号を付してある。以下、図10に示す処理において、図6に示した処理と異なる点を中心に説明する。
ステップS106において所定条件が成立しない場合、ステップS201において表示制御部186は、表示面Bのうち、予め設定された領域R3に、第1画像G1を表示させる。
図11は、領域R3に位置する第1画像G1の一例を示す図である。表示面Bにおける領域R3の位置は、図11に示す位置に限らず適宜変更可能である。
第1変形例によれば、表示制御部186は、所定条件が成立しない場合、表示面Bにおいて第1画像G1の位置を固定できる。
<B2:第2変形例>
第1実施形態及び第1変形例において、所定条件は、追加条件を含んでもよい。
第1実施形態及び第1変形例において、所定条件は、追加条件を含んでもよい。
(1)追加条件の一例
第1実施形態においては、ユーザUが、第1入力欄A1を選択した直後に別の作業を思い出し、第1画像G1ではなく紙の資料を参照し始める状況が想定される。このような状況において、第1入力欄A1の選択時からある程度の時間が経過した後にキーボード200が認識されることによって表示面Bに第2画像G2が表示されることは、一部のユーザUには不必要と認識される可能性がある。
第1実施形態においては、ユーザUが、第1入力欄A1を選択した直後に別の作業を思い出し、第1画像G1ではなく紙の資料を参照し始める状況が想定される。このような状況において、第1入力欄A1の選択時からある程度の時間が経過した後にキーボード200が認識されることによって表示面Bに第2画像G2が表示されることは、一部のユーザUには不必要と認識される可能性がある。
このため、表示制御部186は、第1入力欄A1の選択時から所定時間が経過した場合、ステップS106をスキップしてもよい。所定時間は、例えば10秒である。所定時間は、10秒よりも短くてもよいし、10秒よりも長くてもよい。この場合、第1入力欄A1の選択時から所定時間が経過していないという経過条件が、所定条件に加えられる。条件判定部185は、経過条件を含む所定条件が成立したか否かを判定する。
(2)追加条件の他の例
ユーザUが頭部U2を回す運動をする場合、HMD100が繰り返し下に傾く。このため、所定条件が向き条件を含む状況においてユーザUが頭部U2を回す運動を行うと、表示面Bに表示される画像が頻繁に切り替わるおそれがある。このような頻繁な画像の切り替わりは、一部のユーザUには不必要と認識される可能性がある。
ユーザUが頭部U2を回す運動をする場合、HMD100が繰り返し下に傾く。このため、所定条件が向き条件を含む状況においてユーザUが頭部U2を回す運動を行うと、表示面Bに表示される画像が頻繁に切り替わるおそれがある。このような頻繁な画像の切り替わりは、一部のユーザUには不必要と認識される可能性がある。
このため、表示制御部186は、ユーザUの頭部U2が動いている間、ステップS106をスキップしてもよい。この場合、ユーザUの頭部U2が停止しているという停止条件が、所定条件に加えられる。条件判定部185は、停止条件を含む所定条件が成立したか否かを判定する。例えば、条件判定部185は、向きデータに基づいて、停止条件が成立するか否かを判定する。
<B3:第3変形例>
第1実施形態、第1変形例及び第2変形例において、所定条件は、入力条件と存在条件を含み、入力条件と存在条件とのいずれとも異なる条件を含まなくてもよい。この場合、視線カメラ140と向きセンサ150と視線判定部183と向き判定部184を省略できる。この場合、所定条件は、第1条件の一例である。
第1実施形態、第1変形例及び第2変形例において、所定条件は、入力条件と存在条件を含み、入力条件と存在条件とのいずれとも異なる条件を含まなくてもよい。この場合、視線カメラ140と向きセンサ150と視線判定部183と向き判定部184を省略できる。この場合、所定条件は、第1条件の一例である。
<B4:第4変形例>
第1実施形態、第1変形例及び第2変形例において、所定条件は、入力条件と存在条件と視線条件を含み、入力条件と存在条件と視線条件とのいずれとも異なる条件を含まなくてもよい。この場合、向きセンサ150と向き判定部184を省略できる。この場合、所定条件は、第1条件の一例である。
第1実施形態、第1変形例及び第2変形例において、所定条件は、入力条件と存在条件と視線条件を含み、入力条件と存在条件と視線条件とのいずれとも異なる条件を含まなくてもよい。この場合、向きセンサ150と向き判定部184を省略できる。この場合、所定条件は、第1条件の一例である。
<B5:第5変形例>
第1実施形態、第1変形例及び第2変形例において、所定条件は、視線条件と向き条件を含み、視線条件と向き条件とのいずれとも異なる条件を含まなくてもよい。この場合、入力判定部181と存在判定部182を省略できる。この場合、所定条件は、第2条件の一例である。
第1実施形態、第1変形例及び第2変形例において、所定条件は、視線条件と向き条件を含み、視線条件と向き条件とのいずれとも異なる条件を含まなくてもよい。この場合、入力判定部181と存在判定部182を省略できる。この場合、所定条件は、第2条件の一例である。
<B6:第6変形例>
第1実施形態、第1変形例及び第2変形例において、所定条件は、視線条件と向き条件と入力条件を含み、視線条件と向き条件と入力条件とのいずれとも異なる条件を含まなくてもよい。この場合、存在判定部182を省略できる。この場合、所定条件は、第2条件の一例である。
第1実施形態、第1変形例及び第2変形例において、所定条件は、視線条件と向き条件と入力条件を含み、視線条件と向き条件と入力条件とのいずれとも異なる条件を含まなくてもよい。この場合、存在判定部182を省略できる。この場合、所定条件は、第2条件の一例である。
<B7:第7変形例>
第1実施形態、第1変形例及び第2変形例において、所定条件は、視線条件と向き条件と存在条件を含み、視線条件と向き条件と存在条件とのいずれとも異なる条件を含まなくてもよい。この場合、入力判定部181を省略できる。この場合、所定条件は、第2条件の一例である。
第1実施形態、第1変形例及び第2変形例において、所定条件は、視線条件と向き条件と存在条件を含み、視線条件と向き条件と存在条件とのいずれとも異なる条件を含まなくてもよい。この場合、入力判定部181を省略できる。この場合、所定条件は、第2条件の一例である。
<B8:第8変形例>
第1実施形態、第1変形例及び第2変形例において、所定条件は、入力条件と向き条件を含み、入力条件と向き条件とのいずれとも異なる条件を含まなくてもよい。この場合、視野カメラ130と視線カメラ140と存在判定部182と視線判定部183を省略できる。この場合、所定条件は、第3条件の一例である。
第1実施形態、第1変形例及び第2変形例において、所定条件は、入力条件と向き条件を含み、入力条件と向き条件とのいずれとも異なる条件を含まなくてもよい。この場合、視野カメラ130と視線カメラ140と存在判定部182と視線判定部183を省略できる。この場合、所定条件は、第3条件の一例である。
<C:その他>
(1)第1実施形態及び第1変形例~第8変形例の各々においては、記憶装置170は、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体を含んでもよい。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
(1)第1実施形態及び第1変形例~第8変形例の各々においては、記憶装置170は、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体を含んでもよい。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
(2)第1実施形態及び第1変形例~第8変形例の各々は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
(3)第1実施形態及び第1変形例~第8変形例の各々において説明した情報などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、情報などは、電圧、電流、電磁波、磁界、磁性粒子、光場、光子、又はこれらの任意の組み合わせにて表されてもよい。
なお、本明細書において説明した用語及び/又は本明細書の理解に必要な用語は、同一の又は類似する意味を有する用語と置き換えられてもよい。
なお、本明細書において説明した用語及び/又は本明細書の理解に必要な用語は、同一の又は類似する意味を有する用語と置き換えられてもよい。
(4)第1実施形態及び第1変形例~第8変形例の各々において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルによって管理されてもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(5)第1実施形態及び第1変形例~第8変形例の各々において、判定は、1ビットによって表される値(0か1か)に基づいて行われてもよいし、真偽値(Boolean:true又はfalse)に基づいて行われてもよいし、数値の比較(例えば、所定の値との比較)に基づいて行われてもよい。
(6)第1実施形態及び第1変形例~第8変形例の各々において例示した処理手順、シーケンス、又はフローチャート等は、矛盾のない限り、順序を入れ替えてもよい。例えば、本明細書において説明した方法については、例示的な順序において様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(7)図5に例示された各機能は、ハードウェア及びソフトウェアの任意の組み合わせによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体にて構成された2以上の装置によって実現されてもよい。
(8)第1実施形態及び第1変形例~第8変形例の各々において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。
また、ソフトウェア、又は命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
また、ソフトウェア、又は命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
(9)第1実施形態及び第1変形例~第8変形例の各々において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
(10)第1実施形態及び第1変形例~第8変形例の各々において、HMD100は、移動局でもよい。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語を用いて称される場合もある。
(11)第1実施形態及び第1変形例~第8変形例の各々において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(12)本明細書において使用する「第1」及び「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること又は何らかの形において第1要素が第2要素に先行しなければならないことを意味しない。
(13)第1実施形態及び第1変形例~第8変形例の各々において「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲において使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(14)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。
(15)本明細書において、「装置」という用語は、回路、デバイス又はユニット等の他の用語に読み替えられてもよい。
(16)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
<D:上述の形態又は変形例から把握される態様>
上述の形態又は変形例の少なくとも1つから以下の態様が把握される。
上述の形態又は変形例の少なくとも1つから以下の態様が把握される。
<D1:第1態様>
第1態様に係るヘッドマウントディスプレイは、表示面と、入力判定部と、存在判定部と、第1条件判定部と、表示制御部と、を含む。
表示面は、前記ヘッドマウントディスプレイがユーザの頭部に装着される状態において、前記ユーザの視野内に位置する。
入力判定部は、前記表示面に、第1入力欄を表す第1画像が表示される場合、前記ユーザが行う操作に応じて文字を入力するための入力装置から前記第1入力欄に文字を入力可能であるか否かを判定する。
存在判定部は、前記ユーザの視野の第1部分に存在する物体の像を示す画像データに基づいて、前記入力装置が第1状態において前記第1部分に存在するか否かを判定する。
第1条件判定部は、前記入力判定部の判定結果が肯定であるという入力条件と、前記存在判定部の判定結果が肯定であるという存在条件と、を含む第1条件が成立するか否かを判定する。
表示制御部は、前記第1条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面のうち前記入力装置と重ならない領域に、前記入力装置から文字が入力される第2入力欄を表す第2画像を表示させる。
第1態様に係るヘッドマウントディスプレイは、表示面と、入力判定部と、存在判定部と、第1条件判定部と、表示制御部と、を含む。
表示面は、前記ヘッドマウントディスプレイがユーザの頭部に装着される状態において、前記ユーザの視野内に位置する。
入力判定部は、前記表示面に、第1入力欄を表す第1画像が表示される場合、前記ユーザが行う操作に応じて文字を入力するための入力装置から前記第1入力欄に文字を入力可能であるか否かを判定する。
存在判定部は、前記ユーザの視野の第1部分に存在する物体の像を示す画像データに基づいて、前記入力装置が第1状態において前記第1部分に存在するか否かを判定する。
第1条件判定部は、前記入力判定部の判定結果が肯定であるという入力条件と、前記存在判定部の判定結果が肯定であるという存在条件と、を含む第1条件が成立するか否かを判定する。
表示制御部は、前記第1条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面のうち前記入力装置と重ならない領域に、前記入力装置から文字が入力される第2入力欄を表す第2画像を表示させる。
入力装置から第1入力欄に文字を入力可能である状況は、ユーザが文字の入力を意図する操作によって実現される可能性が高い。この態様によれば、ヘッドマウントディスプレイは、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することを制限できる。
<D2:第2態様>
第1態様の例(第2態様)において、前記表示制御部は、前記第1条件判定部の判定結果が否定である場合、前記ヘッドマウントディスプレイの向きを示す向きデータによって特定される前記ヘッドマウントディスプレイの向きの変化に基づいて、前記表示面における前記第1画像の位置を調整する。この態様によれば、表示制御部は、表示面における第1画像の位置を、ヘッドマウントディスプレイの向きに基づいて変更できる。
第1態様の例(第2態様)において、前記表示制御部は、前記第1条件判定部の判定結果が否定である場合、前記ヘッドマウントディスプレイの向きを示す向きデータによって特定される前記ヘッドマウントディスプレイの向きの変化に基づいて、前記表示面における前記第1画像の位置を調整する。この態様によれば、表示制御部は、表示面における第1画像の位置を、ヘッドマウントディスプレイの向きに基づいて変更できる。
<D3:第3態様>
第1態様又は第2態様の例(第3態様)において、前記ユーザの視線の方向を示す視線データに基づいて、前記ユーザが前記入力装置を見ているか否かを判定する視線判定部をさらに含み、前記第1条件は、前記視線判定部の判定結果が肯定であるという視線条件をさらに含む。
第1態様又は第2態様の例(第3態様)において、前記ユーザの視線の方向を示す視線データに基づいて、前記ユーザが前記入力装置を見ているか否かを判定する視線判定部をさらに含み、前記第1条件は、前記視線判定部の判定結果が肯定であるという視線条件をさらに含む。
ユーザが入力装置を見ることは、ユーザが文字の入力を意図するときに実行される可能性が高い。この態様によれば、ヘッドマウントディスプレイは、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することを制限できる。
<D4:第4態様>
第1態様から第3態様のいずれかの例(第4態様)において、前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する向き判定部をさらに含み、前記第1条件は、前記向き判定部の判定結果が肯定であるという向き条件をさらに含む。この態様によれば、ヘッドマウントディスプレイは、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することをさらに制限できる。
第1態様から第3態様のいずれかの例(第4態様)において、前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する向き判定部をさらに含み、前記第1条件は、前記向き判定部の判定結果が肯定であるという向き条件をさらに含む。この態様によれば、ヘッドマウントディスプレイは、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することをさらに制限できる。
<D5:第5態様>
第5態様に係るヘッドマウントディスプレイは、表示面と、視線判定部と、向き判定部と、第2条件判定部と、表示制御部と、を含む。
表示面は、前記ヘッドマウントディスプレイがユーザの頭部に装着される状態において、前記ユーザの視野内に位置する。
視線判定部は、前記ユーザの視線の方向を示す視線データに基づいて、前記ユーザが、前記ユーザが行う操作に応じて文字を入力するための入力装置を見ているか否かを判定する。
向き判定部は、前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する。
第2条件判定部は、前記視線判定部の判定結果が肯定であるという視線条件と、前記向き判定部の判定結果が肯定であるという向き条件と、を含む第2条件が成立するか否かを判定する。
表示制御部は、前記表示面に第1入力欄を表す第1画像が表示される状況において前記第2条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面に、前記入力装置から文字が入力される第2入力欄を表す第2画像であって前記第1画像よりも小さい前記第2画像を表示させる。
第5態様に係るヘッドマウントディスプレイは、表示面と、視線判定部と、向き判定部と、第2条件判定部と、表示制御部と、を含む。
表示面は、前記ヘッドマウントディスプレイがユーザの頭部に装着される状態において、前記ユーザの視野内に位置する。
視線判定部は、前記ユーザの視線の方向を示す視線データに基づいて、前記ユーザが、前記ユーザが行う操作に応じて文字を入力するための入力装置を見ているか否かを判定する。
向き判定部は、前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する。
第2条件判定部は、前記視線判定部の判定結果が肯定であるという視線条件と、前記向き判定部の判定結果が肯定であるという向き条件と、を含む第2条件が成立するか否かを判定する。
表示制御部は、前記表示面に第1入力欄を表す第1画像が表示される状況において前記第2条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面に、前記入力装置から文字が入力される第2入力欄を表す第2画像であって前記第1画像よりも小さい前記第2画像を表示させる。
ユーザが入力装置を見ることは、ユーザが文字の入力を意図するときに実行される可能性が高い。この態様によれば、ヘッドマウントディスプレイは、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することを制限できる。
<D6:第6態様>
第5態様の例(第6態様)において、前記表示制御部は、前記第2条件判定部の判定結果が否定である場合、前記表示面のうち予め設定された領域に、前記第1画像を表示させる。この態様によれば、表示制御部は、第2条件判定部の判定結果が否定である場合、表示面のうち予め設定された領域に第1画像を固定できる。
第5態様の例(第6態様)において、前記表示制御部は、前記第2条件判定部の判定結果が否定である場合、前記表示面のうち予め設定された領域に、前記第1画像を表示させる。この態様によれば、表示制御部は、第2条件判定部の判定結果が否定である場合、表示面のうち予め設定された領域に第1画像を固定できる。
<D7:第7態様>
第5態様又は第6態様の例(第7態様)において、前記第1入力欄に前記入力装置から文字を入力可能であるか否かを判定する入力判定部をさらに含み、前記第2条件は、前記入力判定部の判定結果が肯定であるという入力条件をさらに含む。
第5態様又は第6態様の例(第7態様)において、前記第1入力欄に前記入力装置から文字を入力可能であるか否かを判定する入力判定部をさらに含み、前記第2条件は、前記入力判定部の判定結果が肯定であるという入力条件をさらに含む。
入力装置から第1入力欄に文字を入力可能である状況は、ユーザが文字の入力を意図する操作によって実現される可能性が高い。この態様によれば、ヘッドマウントディスプレイは、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することを制限できる。
<D8:第8態様>
第5態様から第7態様のいずれかの例(第8態様)において、前記ユーザの視野の第1部分を示す画像データに基づいて、前記入力装置が第1状態において前記第1部分に存在するか否かを判定する存在判定部をさらに含む。前記第2条件は、前記存在判定部の判定結果が肯定であるという存在条件をさらに含む。この態様によれば、ヘッドマウントディスプレイは、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することをさらに制限できる。
第5態様から第7態様のいずれかの例(第8態様)において、前記ユーザの視野の第1部分を示す画像データに基づいて、前記入力装置が第1状態において前記第1部分に存在するか否かを判定する存在判定部をさらに含む。前記第2条件は、前記存在判定部の判定結果が肯定であるという存在条件をさらに含む。この態様によれば、ヘッドマウントディスプレイは、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することをさらに制限できる。
<D9:第9態様>
第9態様に係るヘッドマウントディスプレイは、表示面と、入力判定部と、向き判定部と、第3条件判定部と、表示制御部と、を含む。
表示面は、前記ヘッドマウントディスプレイがユーザの頭部に装着された状態において、前記ユーザの視野内に位置する。
入力判定部は、前記表示面に、第1入力欄を表す第1画像が表示される場合、前記ユーザが行う操作に応じて文字を入力するための入力装置から前記第1入力欄に文字を入力可能であるか否かを判定する。
向き判定部は、前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する。
第3条件判定部は、前記入力判定部の判定結果が肯定であるという入力条件と、前記向き判定部の判定結果が肯定であるという向き条件と、を含む第3条件が成立するか否かを判定する。
表示制御部は、前記表示面に前記第1画像が表示される状況において前記第3条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面に、前記入力装置から文字が入力される第2入力欄を表す第2画像であって前記第1画像よりも小さい前記第2画像を表示させる。
第9態様に係るヘッドマウントディスプレイは、表示面と、入力判定部と、向き判定部と、第3条件判定部と、表示制御部と、を含む。
表示面は、前記ヘッドマウントディスプレイがユーザの頭部に装着された状態において、前記ユーザの視野内に位置する。
入力判定部は、前記表示面に、第1入力欄を表す第1画像が表示される場合、前記ユーザが行う操作に応じて文字を入力するための入力装置から前記第1入力欄に文字を入力可能であるか否かを判定する。
向き判定部は、前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する。
第3条件判定部は、前記入力判定部の判定結果が肯定であるという入力条件と、前記向き判定部の判定結果が肯定であるという向き条件と、を含む第3条件が成立するか否かを判定する。
表示制御部は、前記表示面に前記第1画像が表示される状況において前記第3条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面に、前記入力装置から文字が入力される第2入力欄を表す第2画像であって前記第1画像よりも小さい前記第2画像を表示させる。
入力装置から第1入力欄に文字を入力可能である状況は、ユーザが文字の入力を意図する操作によって実現される可能性が高い。この態様によれば、ヘッドマウントディスプレイは、ユーザの意図に反して入力欄を入力装置と重ならない位置に表示することを制限できる。
<D10:第10態様>
第9態様の例(第10態様)において、前記表示制御部は、前記第3条件判定部の判定結果が否定である場合、前記表示面のうち予め設定された領域に、前記第1画像を表示させる。この態様によれば、表示制御部は、第3条件判定部の判定結果が否定である場合、表示面のうち予め設定された領域に第1画像を固定できる。
第9態様の例(第10態様)において、前記表示制御部は、前記第3条件判定部の判定結果が否定である場合、前記表示面のうち予め設定された領域に、前記第1画像を表示させる。この態様によれば、表示制御部は、第3条件判定部の判定結果が否定である場合、表示面のうち予め設定された領域に第1画像を固定できる。
1…表示入力システム、100…HMD、110…通信部、120…表示部、120a…対向面、120b…外面、130…視野カメラ、140…視線カメラ、150…向きセンサ、160…タッチ操作部、170…記憶装置、180…処理装置、181…入力判定部、182…存在判定部、183…視線判定部、184…向き判定部、185…条件判定部、186…表示制御部、200…キーボード、A1…第1入力欄、A2…第2入力欄、B…表示面、B1…第1表示面、B2…第2表示面、G1…第1画像、G2…第2画像、U…ユーザ。
Claims (10)
- ヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイがユーザの頭部に装着される状態において、前記ユーザの視野内に位置する表示面と、
前記表示面に、第1入力欄を表す第1画像が表示される場合、前記ユーザが行う操作に応じて文字を入力するための入力装置から前記第1入力欄に文字を入力可能であるか否かを判定する入力判定部と、
前記ユーザの視野の第1部分を示す画像データに基づいて、前記入力装置が第1状態において前記第1部分に存在するか否かを判定する存在判定部と、
前記入力判定部の判定結果が肯定であるという入力条件と、前記存在判定部の判定結果が肯定であるという存在条件と、を含む第1条件が成立するか否かを判定する第1条件判定部と、
前記第1条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面のうち前記入力装置と重ならない領域に、前記入力装置から文字が入力される第2入力欄を表す第2画像を表示させる表示制御部と、
を含むヘッドマウントディスプレイ。 - 前記表示制御部は、前記第1条件判定部の判定結果が否定である場合、前記ヘッドマウントディスプレイの向きを示す向きデータによって特定される前記ヘッドマウントディスプレイの向きの変化に基づいて、前記表示面における前記第1画像の位置を調整する、
請求項1に記載のヘッドマウントディスプレイ。 - 前記ユーザの視線の方向を示す視線データに基づいて、前記ユーザが前記入力装置を見ているか否かを判定する視線判定部をさらに含み、
前記第1条件は、前記視線判定部の判定結果が肯定であるという視線条件をさらに含む、
請求項1又は2に記載のヘッドマウントディスプレイ。 - 前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する向き判定部をさらに含み、
前記第1条件は、前記向き判定部の判定結果が肯定であるという向き条件をさらに含む、
請求項1から3のいずれか1項に記載のヘッドマウントディスプレイ。 - ヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイがユーザの頭部に装着される状態において、前記ユーザの視野内に位置する表示面と、
前記ユーザの視線の方向を示す視線データに基づいて、前記ユーザが、前記ユーザが行う操作に応じて文字を入力するための入力装置を見ているか否かを判定する視線判定部と、
前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する向き判定部と、
前記視線判定部の判定結果が肯定であるという視線条件と、前記向き判定部の判定結果が肯定であるという向き条件と、を含む第2条件が成立するか否かを判定する第2条件判定部と、
前記表示面に第1入力欄を表す第1画像が表示される状況において前記第2条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面に、前記入力装置から文字が入力される第2入力欄を表す第2画像であって前記第1画像よりも小さい前記第2画像を表示させる表示制御部と、
を含むヘッドマウントディスプレイ。 - 前記表示制御部は、前記第2条件判定部の判定結果が否定である場合、前記表示面のうち予め設定された領域に、前記第1画像を表示させる、
請求項5に記載のヘッドマウントディスプレイ。 - 前記第1入力欄に前記入力装置から文字を入力可能であるか否かを判定する入力判定部をさらに含み、
前記第2条件は、前記入力判定部の判定結果が肯定であるという入力条件をさらに含む、
請求項5又は6に記載のヘッドマウントディスプレイ。 - 前記ユーザの視野の第1部分を示す画像データに基づいて、前記入力装置が第1状態において前記第1部分に存在するか否かを判定する存在判定部をさらに含み、
前記第2条件は、前記存在判定部の判定結果が肯定であるという存在条件をさらに含む、
請求項5から7のいずれか1項に記載のヘッドマウントディスプレイ。 - ヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイがユーザの頭部に装着された状態において、前記ユーザの視野内に位置する表示面と、
前記表示面に、第1入力欄を表す第1画像が表示される場合、前記ユーザが行う操作に応じて文字を入力するための入力装置から前記第1入力欄に文字を入力可能であるか否かを判定する入力判定部と、
前記ヘッドマウントディスプレイの向きを示す向きデータに基づいて、前記ヘッドマウントディスプレイが水平線に対して第1角度以上、下向きであるか否かを判定する向き判定部と、
前記入力判定部の判定結果が肯定であるという入力条件と、前記向き判定部の判定結果が肯定であるという向き条件と、を含む第3条件が成立するか否かを判定する第3条件判定部と、
前記表示面に前記第1画像が表示される状況において前記第3条件判定部の判定結果が肯定である場合、前記表示面において前記第1画像を表示する代わりに、前記表示面に、前記入力装置から文字が入力される第2入力欄を表す第2画像であって前記第1画像よりも小さい前記第2画像を表示させる表示制御部と、
を含むヘッドマウントディスプレイ。 - 前記表示制御部は、前記第3条件判定部の判定結果が否定である場合、前記表示面のうち予め設定された領域に、前記第1画像を表示させる、
請求項9に記載のヘッドマウントディスプレイ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022531887A JP7497434B2 (ja) | 2020-06-17 | 2021-06-16 | ヘッドマウントディスプレイ |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-104755 | 2020-06-17 | ||
JP2020104755 | 2020-06-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021256520A1 true WO2021256520A1 (ja) | 2021-12-23 |
Family
ID=79268037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/022928 WO2021256520A1 (ja) | 2020-06-17 | 2021-06-16 | ヘッドマウントディスプレイ |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7497434B2 (ja) |
WO (1) | WO2021256520A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981309A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 入力装置 |
JP2009037434A (ja) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム |
JP2012008290A (ja) * | 2010-06-23 | 2012-01-12 | Softbank Mobile Corp | 眼鏡型表示装置及びサーバ |
JP2017059062A (ja) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2018142336A (ja) * | 2018-04-03 | 2018-09-13 | 株式会社ニコン | ヘッドマウントディスプレイ |
-
2021
- 2021-06-16 JP JP2022531887A patent/JP7497434B2/ja active Active
- 2021-06-16 WO PCT/JP2021/022928 patent/WO2021256520A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981309A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 入力装置 |
JP2009037434A (ja) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム |
JP2012008290A (ja) * | 2010-06-23 | 2012-01-12 | Softbank Mobile Corp | 眼鏡型表示装置及びサーバ |
JP2017059062A (ja) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2018142336A (ja) * | 2018-04-03 | 2018-09-13 | 株式会社ニコン | ヘッドマウントディスプレイ |
Also Published As
Publication number | Publication date |
---|---|
JP7497434B2 (ja) | 2024-06-10 |
JPWO2021256520A1 (ja) | 2021-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107924216B (zh) | 包括隐藏显示器的可折叠电子设备及其信息显示方法 | |
US10769797B2 (en) | Virtual reality experience sharing | |
KR101959347B1 (ko) | 복수의 통신 단말을 이용한 다중 디스플레이 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 | |
US9946393B2 (en) | Method of controlling display of electronic device and electronic device | |
KR102271833B1 (ko) | 전자 장치, 그 제어 방법 및 기록 매체 | |
EP2813922B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
KR102599383B1 (ko) | 분할된 화면 상에서 실행 가능한 어플리케이션 리스트를 디스플레이하는 전자 장치 및 전자 장치의 동작 방법 | |
EP2996018A1 (en) | Ring-type mobile terminal | |
US9298970B2 (en) | Method and apparatus for facilitating interaction with an object viewable via a display | |
KR20150142282A (ko) | 기능 제어 방법 및 그 전자 장치 | |
US20170038838A1 (en) | Information processing system and information processing method | |
KR102493579B1 (ko) | 카메라를 포함하는 전자 장치 및 전자 장치의 제어 방법 | |
KR20160016068A (ko) | 이미지 생성 방법 및 그 전자 장치 | |
US10853275B2 (en) | Data transfer between host and peripheral devices | |
JP2007093967A (ja) | 撮影装置 | |
US20180376121A1 (en) | Method and electronic device for displaying panoramic image | |
CN104182051A (zh) | 头戴式智能设备和具有该头戴式智能设备的交互系统 | |
US20130093661A1 (en) | Methods and apparatus for facilitating user interaction with a see-through display | |
KR20150106719A (ko) | 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치 | |
CN104182050A (zh) | 头戴式智能设备和具有该头戴式智能设备的投影系统 | |
KR102183397B1 (ko) | 이미지 처리 방법 및 이를 구현하는 전자 장치 | |
US20220172440A1 (en) | Extended field of view generation for split-rendering for virtual reality streaming | |
KR20160135476A (ko) | 전자 장치 및 그의 카메라 제어 방법 | |
US20220036505A1 (en) | In-focus vision screen | |
CN103941986A (zh) | 便携式终端及其输入法界面自适应调整方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21826507 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2022531887 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21826507 Country of ref document: EP Kind code of ref document: A1 |