WO2016103880A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2016103880A1
WO2016103880A1 PCT/JP2015/079668 JP2015079668W WO2016103880A1 WO 2016103880 A1 WO2016103880 A1 WO 2016103880A1 JP 2015079668 W JP2015079668 W JP 2015079668W WO 2016103880 A1 WO2016103880 A1 WO 2016103880A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
processing apparatus
control unit
display
information
Prior art date
Application number
PCT/JP2015/079668
Other languages
English (en)
French (fr)
Inventor
徹哉 浅山
義則 太田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/535,130 priority Critical patent/US10380779B2/en
Priority to CN201580068772.1A priority patent/CN107005668B/zh
Priority to JP2016565987A priority patent/JP6635048B2/ja
Publication of WO2016103880A1 publication Critical patent/WO2016103880A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed

Definitions

  • This disclosure relates to an information processing apparatus.
  • Such an information processing apparatus is called, for example, an HMD (Head Mount Display), and has a function of displaying an image to a user wearing the HMD.
  • HMD Head Mount Display
  • Patent Document 1 an eyepiece and a light guide that guides emitted image light to the user's eyes are provided, and the emission angle of the emitted image light is adjusted by moving the eyepiece or the light guide.
  • a head-mounted image display device is disclosed.
  • the HMD is generally designed on the assumption that it is attached in a predetermined orientation.
  • a monocular HMD as disclosed in Patent Document 1 is designed on the assumption that it is attached to either the right or left of the user's head.
  • the present disclosure proposes a new and improved information processing apparatus mounted on the head of a human body that can maintain the usability regardless of the mounting direction.
  • the operation detection unit that detects an operation performed on the information processing device, and the operation detected by the operation detection unit based on the attitude of the information processing device And an information processing apparatus that is mounted on the head of a human body.
  • an information processing apparatus that is attached to the head of a human body that can maintain usability regardless of the mounting direction.
  • the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
  • FIG. 2 is a top view illustrating an example of a schematic physical configuration of an information processing apparatus and glasses according to a first embodiment of the present disclosure.
  • FIG. It is a perspective view showing an example of rough physical composition of an information processor concerning this embodiment, and glasses.
  • It is a block diagram which shows the example of a schematic function structure of the information processing apparatus which concerns on this embodiment. It is a figure illustrated when the information processing apparatus which concerns on this embodiment is attached to the left frame of spectacles. It is a figure illustrated when the information processing apparatus which concerns on this embodiment is attached to the right frame of spectacles.
  • It is a flowchart which shows notionally the process of the information processing apparatus which concerns on this embodiment.
  • It is a top view which illustrates schematic physical structure of the information processing apparatus and glasses which concern on the modification of this embodiment.
  • a conventional head-mounted information processing apparatus (hereinafter also referred to as an HMD) has an image display function and an operation function.
  • the conventional HMD has an image display function such as projecting an image on a separately provided display surface, or emitting image light directly to the user's eyes through a lens, and displaying the image as a virtual image to the user. Make them recognize.
  • the conventional HMD has an operation unit that receives a user operation as an operation function. For this reason, the conventional HMD can display an image selected by a user operation performed on the operation unit.
  • a conventional HMD is generally designed on the assumption that it is mounted in a predetermined direction.
  • the HMD is designed on the assumption that it is attached to either one of the user's eyes. Therefore, when the HMD is mounted in a direction different from the default, the position of the operation unit becomes a position that is not assumed in the design, and the operability of the HMD may be lowered.
  • the present disclosure proposes an information processing apparatus attached to the head of a human body that can maintain the usability regardless of the mounting direction.
  • the information processing apparatus will be described in detail.
  • the information processing apparatuses 100 and the like according to the first and second embodiments are denoted by numbers corresponding to the embodiments at the end, like the information processing apparatuses 100-1 and 100-2. It distinguishes by attaching.
  • FIG. 1 is a top view illustrating an example of a schematic physical configuration of the information processing apparatus 100-1 and the glasses 200 according to the first embodiment of the present disclosure
  • FIG. 2 is an information processing apparatus according to the present embodiment.
  • 1 is a perspective view showing an example of a schematic physical configuration of 100-1 and glasses 200.
  • the information processing apparatus 100-1 includes a main body 102, an arm 104, a lens barrel 106, an eyepiece 108, a mounting portion 110, and an operation portion 112.
  • the main body 102 is connected to the arm 104 and the glasses 200. Specifically, the end portion of the main body portion 102 in the long side direction is coupled to the arm 104, and one side surface of the main body portion 102 is coupled to the glasses 200 via the attachment portion 110. For example, the main body 102 is attached along the frame of the glasses 200 as shown in FIG.
  • the main body 102 may be provided with an operation unit 112 as shown in FIG.
  • the main body 102 incorporates a control board for controlling the operation of the information processing apparatus 100-1.
  • the main body 102 has a control board having a CPU (Central Processing Unit) or a RAM (Random Access Memory) and is connected to the lens barrel 106 via the arm 104 using a signal line or the like. .
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • the main body unit 102 incorporates a sensor for specifying the posture of the information processing apparatus 100-1.
  • the main body 102 has a built-in acceleration sensor.
  • the main body 102 may include an angular velocity sensor, a geomagnetic sensor, or a camera sensor instead of the acceleration sensor.
  • the attitude of the information processing apparatus 100-1 can be estimated from an image obtained by a camera sensor.
  • the main body 102 may include a communication unit that receives information that can specify the attitude of the information processing apparatus 100-1 from an external device, instead of the sensor.
  • the arm 104 connects the main body 102 and the lens barrel 106 to support the lens barrel 106. Specifically, the arm 104 is coupled to the end of the main body 102 and the end of the lens barrel 106 to fix the lens barrel 106.
  • the arm 104 includes a signal line for communicating data related to an image provided from the main body 102 to the lens barrel 106.
  • the lens barrel 106 projects the projected image light onto the eyepiece.
  • the lens barrel 106 includes a projection unit, a light guide unit, and a reflection unit, the projection unit emits image light toward the light guide unit, and the light guide unit transmits incident image light. The light is guided to the reflection unit, and the reflection unit reflects the image light that reaches the eyepiece. Note that an image related to the projected image light is provided from the main body 102 via the arm 104.
  • the eyepiece 108 enlarges the image. Specifically, the eyepiece refracts image light emitted from the lens barrel 106 and enlarges an image related to the image light.
  • the mounting part 110 fixes the main body part 102 to the glasses 200. Specifically, the attachment part 110 fixes one side surface of the main body part 102 to the frame of the glasses 200.
  • the operation unit 112 receives a user operation on the information processing apparatus 100-1. Specifically, the operation unit 112 converts a user operation into an input to the information processing apparatus 100-1.
  • a plurality of operation units 112 are provided on the side surface of the main body unit 102 and can be arranged in the horizontal direction and the vertical direction.
  • the operation units 112A to 112D such as push buttons are shown, but the operation unit 112 is not limited to this, and may take various forms.
  • the operation unit 112 may be an input device such as a touch pad.
  • FIG. 3 is a block diagram illustrating an example of a schematic functional configuration of the information processing apparatus 100-1 according to the present embodiment.
  • the information processing apparatus 100-1 includes an operation detection unit 120, a posture information acquisition unit 122, a control unit 124, a storage unit 126, and a projection unit 128, as shown in FIG.
  • the operation detection unit 120 detects a user operation performed on the information processing apparatus 100-1. Specifically, the operation detection unit 120 receives the input converted by the operation unit 112, and detects the user operation performed based on the received input. Then, the operation detection unit 120 generates information indicating the detected user operation (hereinafter also referred to as user operation information), and provides the generated user operation information to the control unit 124.
  • user operation information information indicating the detected user operation
  • the attitude information acquisition unit 122 acquires information related to the attitude of the information processing apparatus 100-1. Specifically, the posture information acquisition unit 122 acquires information that changes according to the reversal of the posture of the information processing apparatus 100-1. For example, the posture information acquisition unit 122 acquires information indicating the acceleration of the information processing apparatus 100-1 (hereinafter also referred to as acceleration information) from the acceleration sensor. The posture information acquisition unit 122 provides the acquired acceleration information to the control unit 124.
  • the control unit 124 controls the overall operation of the information processing apparatus 100-1. Specifically, the control unit 124 performs execution control of an operation corresponding to a user operation, display control of an image, and the like. For example, the control unit 124 causes each component of the information processing apparatus 100-1 to execute an operation corresponding to the user operation detected by the operation detection unit 120. Further, the control unit 124 determines an image to be projected based on the user operation.
  • control unit 124 determines an operation (hereinafter also referred to as an operation determination process) performed in response to an operation detected by the operation detection unit 120 based on the attitude of the information processing apparatus 100-1. Specifically, the control unit 124 performs an operation determination process based on information that changes according to the reversal of the posture of the information processing apparatus 100-1 acquired by the posture information acquisition unit 122.
  • FIG. 4A is a diagram illustrating a case where the information processing apparatus 100-1 according to the present embodiment is attached to the left frame of the glasses 200.
  • FIG. 4B is a diagram illustrating the information processing apparatus 100-1 according to the present embodiment. It is a figure illustrated when attaching to the right frame of.
  • the control unit 124 detects the value of the gravitational acceleration in the reference direction.
  • the reference direction is the Z-axis direction as shown in FIG. 4A, and the control unit 124 detects the value of gravitational acceleration in the Z-axis direction.
  • control unit 124 rearranges the correspondence relationship between each detected user operation and each action according to the sign of the detected gravity acceleration. Specifically, the control unit 124 rearranges the correspondence relationship for the position related to the operation associated with the operation so that the associated operation is inverted vertically and horizontally.
  • the control unit 124 detects, for example, a user operation detected by the operation detection unit 120 performed on each of the operation units 112A to 112D (hereinafter referred to as the operation units 112A to 112D).
  • the operation 1, the operation 2, the operation 3, and the operation 4 can be respectively assigned to each of them according to a predetermined correspondence relationship stored in the storage unit 126.
  • the control unit 124 for example, in accordance with another correspondence stored in the storage unit 126 for each user operation to the operation units 112A to 112D, for example, operation 3, 4, operation 1 and operation 2 are assigned respectively.
  • the storage unit 126 stores information related to the control of the control unit 124. Specifically, the storage unit 126 stores information indicating a correspondence relationship between an operation and an action, and a projected image.
  • Projection unit 128 projects image light. Specifically, the projection unit 128 projects image light related to an image stored in the storage unit 126 based on an instruction from the control unit 124. Note that an image related to the projected image light may be acquired from an external device via communication, or may be processed by the control unit 124.
  • FIG. 5 is a flowchart conceptually showing processing of the information processing apparatus 100-1 according to the present embodiment.
  • the information processing apparatus 100-1 detects gravity acceleration (step S302). Specifically, the posture information acquisition unit 122 acquires acceleration information from the acceleration sensor, and the control unit 124 detects the value of gravitational acceleration based on the acquired acceleration information and the reference direction.
  • the information processing apparatus 100-1 determines whether the detected direction of gravity acceleration is the same as the reference direction (step S304). Specifically, the control unit 124 determines whether the detected value of the gravitational acceleration is a predetermined value, for example, 9.8 m / s 2 or ⁇ 9.8 / ms 2 . Note that the control unit 124 may determine whether the detected value of gravity acceleration is positive or negative.
  • the information processing apparatus 100-1 assigns an operation according to a predetermined correspondence relationship (step S306). Specifically, when it is determined that the value of the detected gravitational acceleration is, for example, 9.8 m / s 2 , the control unit 124 follows the predetermined correspondence between the operation and the action stored in the storage unit 126. Allocate actions for operations.
  • the information processing apparatus 100-1 assigns an operation according to another correspondence relationship (step S308). Specifically, when it is determined that the detected value of gravity acceleration is ⁇ 9.8 m / s 2 , for example, the control unit 124 is different from the case where the value of gravity acceleration is 9.8 m / s 2. The operation is assigned to the operation according to the correspondence between the operation and the operation stored in the storage unit 126.
  • the information processing apparatus 100-1 detects an operation performed on the information processing apparatus 100-1, and based on the attitude of the information processing apparatus 100-1. Then, the operation to be performed corresponding to the detected operation is determined. For this reason, depending on the posture of the information processing apparatus 100-1, that is, the mounting direction, the operation that the user should perform in order to obtain a desired operation result can be optimized, so that the user performs work such as setting change. In addition, the usability of the information processing apparatus 100-1 can be maintained regardless of the mounting direction.
  • the information processing apparatus 100-1 acquires information that changes according to the inversion of the attitude of the information processing apparatus 100-1, and determines the above-described operation based on the acquired information that changes according to the inversion. Do. In general, when the posture of the object is reversed, the operability of the object often changes. However, according to the present embodiment, the assignment of the operation to the operation is determined according to the reversal of the posture of the information processing apparatus 100-1. Therefore, it is possible to suppress a decrease in operability.
  • the information that changes in accordance with the inversion includes information indicating the gravitational acceleration, and the information processing apparatus 100-1 determines the operation according to the direction of the gravitational acceleration with respect to the reference direction. For this reason, the use of existing equipment, such as an acceleration sensor, for detecting the inversion of the posture of the information processing apparatus 100-1 makes it possible to suppress an increase in cost and complexity of the information processing apparatus 100-1.
  • the information processing apparatus 100-1 rearranges the correspondence between each operation and each operation as the above-described operation determination. For this reason, the operation corresponding to the operation is not newly added or deleted, so that the user can easily grasp the change of the corresponding relationship and maintain the user's convenience. Become.
  • the information processing apparatus 100-1 rearranges the correspondence relationship described above so that the associated action is inverted vertically and horizontally with respect to the position related to the operation associated with the action. For this reason, before and after reversing the mounting direction of the information processing apparatus 100-1, it is possible to maintain and improve the operability by allocating the operation to the operation in accordance with the operation feeling of the user.
  • the information processing apparatus 100-1 may have a mechanism that can adjust the display position of an image. Specifically, the lens barrel 106 and the arm 104 are connected while having mobility.
  • FIGS. 6 is a top view illustrating a schematic physical configuration of the information processing apparatus 100-1 and the glasses 200 according to the modification of the present embodiment
  • FIG. 7 illustrates the information processing apparatus according to the modification of the present embodiment.
  • 1 is a perspective view illustrating a schematic physical configuration of 100-1 and glasses 200.
  • the lens barrel 106 is connected to the arm 104 so as to be rotatable about the vertical direction and the horizontal direction at the connection position with the arm 104.
  • the lens barrel 106 is coupled to the arm 104 so as to be rotatable at a predetermined angle in the direction of the arrow at the coupling position of the lens barrel 106 and the arm 104.
  • the lens barrel 106 can rotate from the reference position by about ⁇ 5 degrees to 5 degrees about the long side direction and about ⁇ 10 degrees to about 10 degrees about the short side direction.
  • the display position may be adjusted by rotating the arm 104.
  • the arm 104 is connected to the main body 102 so as to be rotatable about the horizontal direction at the connecting position with the main body 104.
  • the arm 104 can be rotated at a predetermined angle in the direction of the arrow with the short side direction of the arm 104 at the connecting position of the arm 104 and the main body 102 as an axis. Concatenated with
  • the lens barrel 106 and the arm 104, and the arm 104 and the main body 104 are connected while having mobility. For this reason, it is possible to absorb individual differences by changing the display position of the image by adjusting the position of each part. In addition, fine adjustment is possible by adjusting the position of both the lens barrel 106 and the arm 104, and convenience for the user can be improved.
  • Second Embodiment (Example of Display Mode Control of Display Image)> The information processing apparatus 100-1 according to the first embodiment of the present disclosure has been described above. Next, the information processing apparatus 100-2 according to the second embodiment of the present disclosure will be described. In the present embodiment, the information processing apparatus 100-2 inverts the display mode of alert images and the like according to the attitude of the information processing apparatus 100-2.
  • the control unit 124 performs image display inversion control based on the attitude of the information processing apparatus 100-2. Specifically, the control unit 124 performs display control so that the display screen is inverted upside down when the posture of the information processing apparatus 100-2 is inverted. For example, when the direction of the gravitational acceleration detected from the acceleration information acquired by the posture information acquisition unit 122 changes, the control unit 124 causes the projection unit 128 to project the image light related to the vertically inverted image.
  • control unit 124 as a display control unit, displays a display mode of a specific image having a display priority higher than that of other images on the display screen on which the specific image is displayed based on the attitude of the information processing apparatus 100-2. Flip the vertical direction around the axis. Specifically, the control unit 124 inverts the display position of the specific image around the vertical direction of the display screen. Further, the display control process will be described in detail with reference to FIGS. 8A and 8B. 8A and 8B are diagrams illustrating the inversion control of the display position of the specific image in the information processing apparatus 100-2 according to the present embodiment.
  • the control unit 124 instructs display of a specific image. Specifically, the control unit 124 displays the specific image at a position closer to the center of the field of view of the user wearing the information processing apparatus 100-2 than other positions on the display screen. For example, the control unit 124 causes the display screen 10 to display a specific image, for example, an image 20 (hereinafter also referred to as an alert image) for alerting the user as shown in FIG. 8A.
  • the alert image 20 is displayed at a position adjacent to the user's nose when the information processing apparatus 100-2 is mounted on the user's head.
  • the control unit 124 reverses the display position of the specific image about the vertical direction of the display screen. For example, the control unit 124 determines whether the direction of gravitational acceleration has changed based on the acceleration information, and when it is determined that the direction of gravitational acceleration has changed, the alert image 20 is displayed as illustrated in FIG. 8B. The position is reversed with the vertical direction at the center of the display screen 10 as the axis.
  • control unit 124 may display the alert image 20 at a position corresponding to the value of gravity acceleration. For example, when the value of the gravitational acceleration is 9.8 m / s 2 , the control unit 124 displays the alert image 20 at a position adjacent to the center of the user's field of view as illustrated in FIG. 8A. Further, the alert image 20 may be displayed at a position corresponding to the sign of gravity acceleration.
  • FIG. 9 is a flowchart conceptually showing processing of the information processing apparatus 100-2 according to the present embodiment. Note that description of processing that is substantially the same as processing in the first embodiment is omitted.
  • the information processing apparatus 100-2 detects the gravitational acceleration (step S402), and determines whether the direction of the detected gravitational acceleration has changed (step S404). Specifically, the control unit 124 determines whether the value of the detected gravitational acceleration has changed.
  • the information processing apparatus 100-2 inverts the display mode of the specific image (step S406). Specifically, when it is determined that the sign of the detected value of gravitational acceleration has changed, the control unit 124 inverts the display position of the alert image around the vertical direction at the center of the display screen.
  • the information processing apparatus 100-2 has a specific image with a higher display priority than other images based on the reversal of the attitude of the information processing apparatus 100-2.
  • the display mode is inverted about the vertical direction on the display screen on which the specific image is displayed. For this reason, the display mode of an image important for the user can be optimized in response to a change in the attitude of the information processing apparatus 100-2, so that the user's convenience can be improved without the user performing a setting change or the like. Maintenance and improvement can be achieved.
  • the information processing apparatus 100-2 inverts the display position of the specific image with the vertical direction at the center of the display screen as an axis. For this reason, the length of the distance from the center of the user's field of view to the display position of the specific image does not change before and after the orientation of the information processing apparatus 100-2 is reversed, which is due to a change in the mounting direction of the information processing apparatus 100-2. It is possible to suppress the occurrence of discomfort with respect to the display image of the user.
  • the display position of the specific image includes a position closer to the center of the field of view of the user wearing the information processing apparatus 100-2 than other positions on the display screen. For this reason, it is possible to suppress oversight of the user's specific image by maintaining the display of the specific image at a position that is easily noticeable by the user.
  • the specific image includes an image for prompting the user to pay attention. For this reason, even when the mounting direction of the information processing apparatus 100-2 is changed, it is possible to prevent the user's attention from being reduced.
  • the information processing apparatus 100-2 may change the insertion direction of the specific image on the display screen according to the attitude of the information processing apparatus 100-2. Specifically, when the attitude of the information processing apparatus 100-2 is reversed, the control unit 124 reverses the insertion direction of the specific image on the display screen with the vertical direction of the display screen as an axis. Furthermore, with reference to FIG. 10, the process of this modification is demonstrated in detail. 10A and 10B are diagrams illustrating the inversion control of the insertion direction of the specific image in the information processing apparatus 100-2 according to the modification of the present embodiment.
  • the control unit 124 instructs an insertion display of a specific image on the display screen. Specifically, the control unit 124 causes the specific image to be inserted in the direction from the outside to the inside of the field of view of the user wearing the information processing apparatus 100-2. For example, the control unit 124 displays a specific image, for example, the alert image 20 as shown in FIG. 10A so as to move from the left side to the right side of the display screen 10, that is, from the outside of the user's field of view toward the center.
  • the control unit 124 reverses the display position of the specific image about the vertical direction of the display screen. For example, the control unit 124 determines whether the direction of gravitational acceleration has changed based on the acceleration information, and when it is determined that the direction of gravitational acceleration has changed, as shown in FIG. 10B, the alert image 20 is inserted. The direction is reversed with the vertical direction on the display screen 10 as the axis.
  • the control unit 124 may insert the alert image 20 from the direction corresponding to the value of the gravitational acceleration, similarly to the control of the display position of the specific image, and the alert image 20 may be inserted from the direction corresponding to the positive / negative of the gravitational acceleration. It may be inserted.
  • the information processing apparatus 100-2 reverses the insertion direction of the specific image on the display screen with the vertical direction at the center of the display screen as an axis. Therefore, even if the mounting direction of the information processing apparatus 100-2 is changed, it is possible to suppress the occurrence of the user's uncomfortable feeling by giving the user an impression that the insertion direction of the specific image has not changed. Become.
  • the insertion direction of the specific image includes a direction from the outside to the inside of the field of view of the user wearing the information processing apparatus 100-2. For this reason, by giving the user a sense that information enters the head, the user can read the information indicated by the specific image without a sense of incongruity.
  • FIG. 11 is an explanatory diagram showing a hardware configuration of the information processing apparatus 100 according to the present disclosure.
  • the information processing apparatus 100 includes a CPU (Central Processing Unit) 132, a ROM (Read Only Memory) 134, a RAM (Random Access Memory) 136, a bridge 138, a bus 140, and an interface. 142, an input device 144, an output device 146, a storage device 148, a connection port 150, and a communication device 152.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 132 functions as an arithmetic processing unit and a control unit, and realizes operations of the operation detection unit 120 and the control unit 124 in the information processing apparatus 100 in cooperation with various programs.
  • the CPU 132 may be a microprocessor.
  • the ROM 134 stores programs or calculation parameters used by the CPU 132.
  • the RAM 136 temporarily stores programs used in the execution of the CPU 132 or parameters that change as appropriate during the execution.
  • a part of the storage unit 126 in the information processing apparatus 100 is realized by the ROM 134 and the RAM 136.
  • the CPU 132, the ROM 134, and the RAM 136 are connected to each other by an internal bus including a CPU bus.
  • the input device 144 is an example of the operation unit 112 of the information processing apparatus 100.
  • the input device 144 is input based on input by the user such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever, and input by the user.
  • An input control circuit that generates a signal and outputs the signal to the CPU 132 is configured.
  • a user of the information processing apparatus 100 can input various data to the information processing apparatus 100 and instruct a processing operation by operating the input device 144.
  • the output device 146 performs output to a device such as a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, or a lamp. Further, the output device 146 may output sound such as a speaker and headphones.
  • a device such as a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, or a lamp. Further, the output device 146 may output sound such as a speaker and headphones.
  • LCD liquid crystal display
  • OLED Organic Light Emitting Diode
  • the storage device 148 is a device for storing data.
  • the storage device 148 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 148 stores programs executed by the CPU 132 and various data.
  • connection port 150 is, for example, a bus for connecting to an external device or peripheral device of the information processing apparatus 100.
  • the connection port 150 may be a USB (Universal Serial Bus).
  • the communication device 152 is a communication interface composed of a communication device for connecting to a network, for example.
  • the communication device 152 may be a wireless LAN (Local Area Network) compatible communication device or an LTE (Long Term Evolution) compatible communication device.
  • the operation to be performed by the user to obtain a desired operation result can be optimized according to the posture of the information processing apparatus 100-1, that is, the mounting direction.
  • the display mode of an image important for the user can be optimized in response to the change in the attitude of the information processing apparatus 100-2, so that the user can The user's convenience can be maintained and improved without performing work.
  • the acceleration sensor when the arm 104 is rotatably provided, the acceleration sensor may be provided on the lens barrel 106.
  • the arm 104 can rotate about 180 degrees, the mounting position of the user can be changed without inverting the entire information processing apparatus 100. In this case, it is possible to detect that the mounting position of the information processing apparatus 100 has changed by providing the acceleration sensor in the lens barrel 106.
  • the display method is a method of projecting toward the eyes of the user.
  • the pupil division see-through method and the prism method in which the emission width of the image light is smaller than the pupil diameter.
  • Hologram type or other display type may be another method such as projection of image light on a display surface separately provided in the information processing apparatus 100.
  • the information processing apparatus 100 is a monocular HMD.
  • the information processing apparatus 100 may be a binocular apparatus.
  • the operation unit 112 may be the upper surface or the lower surface of the main body unit 102 or both. May be provided.
  • the operation unit 112 can be an input device having a touch sensor, and can be provided on each of the upper surface and the lower surface of the main body unit 102.
  • the control unit 124 can determine the operation assigned to each of the operations on the operation unit 112 on the upper surface and the lower surface, that is, rearrange the operations in accordance with the attitude of the information processing apparatus 100.
  • an operation may be assigned to an operation using the plurality of operation units 112.
  • an operation of returning the screen display is assigned to an operation such as sliding of the operating body performed at the same timing for each of the operation units 112 such as a touch pad provided on the upper surface and the lower surface.
  • the operation pattern that is, the operation pattern can be increased by performing the operation by the combination of the operation units 112.
  • control unit 124 rearranges the correspondence relationship of the operation with respect to the operation.
  • control unit 124 deletes the already-assigned operation from the existing correspondence relationship, and creates a new operation.
  • the added action may be assigned to the operation by adding.
  • control unit 124 controls the correspondence between the operation and the action according to the value of the gravitational acceleration.
  • control unit 124 has the second implementation described above.
  • the correspondence may be changed according to the change in the direction of gravity acceleration.
  • the specific image whose display mode is controlled is the alert image 20, but the specific image may be an image that presents useful information to the user.
  • the specific image may be a guidance image of a user's movement in sports, an image showing a user's state or results, an image showing an external environment, or the like.
  • the specific image may be a guidance image of a swing in golf, a score image, an image showing a green state, or an image showing temperature, humidity, and wind direction.
  • the insertion direction may be determined according to the type or attribute of the displayed image. For example, an image classified as a character string may always be inserted from the right side, and an image whose character is Arabic in the images classified as a character string may always be inserted from the left side.
  • An information processing apparatus that corresponds to an operation detection unit that detects an operation performed on the information processing apparatus, and an operation detected by the operation detection unit based on an attitude of the information processing apparatus. And an information processing apparatus mounted on the head of the human body.
  • the information processing apparatus according to (1) wherein there are a plurality of the operations and operations, and the control unit rearranges the correspondence between each of the operations and each of the operations as the determination.
  • the control unit rearranges the correspondence relationship so that the associated motion is inverted vertically and horizontally with respect to a position related to the operation associated with the motion. Processing equipment.
  • the information processing apparatus further includes an acquisition unit that acquires information that changes in accordance with a reversal of the attitude of the information processing device, and the control unit is configured based on the information that changes in accordance with the inversion acquired by the acquisition unit.
  • the information processing apparatus according to any one of (1) to (3), wherein the determination is performed.
  • the information that changes in accordance with the inversion includes gravity information indicating gravitational acceleration, and the control unit performs the determination according to a direction of gravity acceleration indicated by the gravity information with respect to a reference direction. ).
  • a display mode of a specific image having a display priority higher than that of other images is reversed on a display screen on which the specific image is displayed with a vertical direction as an axis.
  • the information processing apparatus according to any one of (1) to (5), further including a control unit.
  • the display control unit reverses a display position of the specific image with a vertical direction at a center of the display screen as an axis.
  • the display position includes a position closer to a center of a field of view of a user wearing the information processing apparatus than other positions on the display screen.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】既定の向きと異なる向きにHMDが取り付けられると、HMDの利用が困難となる場合がある。そこで、取り付け向きによらず使い勝手を維持することが可能な人体の頭部に装着される情報処理装置を提供する。 【解決手段】情報処理装置であって、前記情報処理装置に対して行われる操作を検出する操作検出部と、前記情報処理装置の姿勢に基づいて、前記操作検出部によって検出される操作に対応して行われる動作の決定を行う制御部と、を備える、人体の頭部に装着される情報処理装置。

Description

情報処理装置
 本開示は、情報処理装置に関する。
 近年、頭部に装着される情報処理装置に関する技術開発が行われている。このような情報処理装置は、例えばHMD(Head Mount Display)と呼ばれ、HMDを装着するユーザに画像を表示する機能を有する。
 例えば、特許文献1では、接眼レンズおよび射出される画像光をユーザの目に導く導光部を備え、接眼レンズまたは導光部を移動させることにより、射出される画像光の射出角度を調整する頭部装着型の画像表示装置が開示されている。
 また、HMDは、概して、既定の向きに取り付けられることを想定されて設計される。例えば、特許文献1で開示されるような単眼用のHMDは、ユーザの頭部の右または左のいずれか一方に取り付けられることが想定されて設計される。
特開2012-63638号公報
 しかし、特許文献1で開示されるような従来のHMDは、既定の向きと異なる向きにHMDが取り付けられると、HMDの提供するユーザインターフェースが当該取り付け側に適合していないことにより、HMDの利用が困難となる場合がある。そこで、本開示では、取り付け向きによらず使い勝手を維持することが可能な、新規かつ改良された、人体の頭部に装着される情報処理装置を提案する。
 本開示によれば、情報処理装置であって、前記情報処理装置に対して行われる操作を検出する操作検出部と、前記情報処理装置の姿勢に基づいて、前記操作検出部によって検出される操作に対応して行われる動作の決定を行う制御部と、を備える、人体の頭部に装着される情報処理装置が提供される。
 以上説明したように本開示によれば、取り付け向きによらず使い勝手を維持することが可能な人体の頭部に装着される情報処理装置が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る情報処理装置および眼鏡の概略的な物理構成の例を示す上面図である。 本実施形態に係る情報処理装置および眼鏡の概略的な物理構成の例を示す斜視図である。 本実施形態に係る情報処理装置の概略的な機能構成の例を示すブロック図である。 本実施形態に係る情報処理装置が眼鏡の左フレームに取り付けられる場合の例示する図である。 本実施形態に係る情報処理装置が眼鏡の右フレームに取り付けられる場合の例示する図である。 本実施形態に係る情報処理装置の処理を概念的に示すフローチャートである。 本実施形態の変形例に係る情報処理装置および眼鏡の概略的な物理構成を例示する上面図である。 本実施形態の変形例に係る情報処理装置および眼鏡の概略的な物理構成を例示する斜視図である。 本開示の第2の実施形態に係る情報処理装置における特定画像の表示位置の反転制御を例示する図である。 本実施形態に係る情報処理装置における特定画像の表示位置の反転制御を例示する図である。 本実施形態に係る情報処理装置の処理を概念的に示すフローチャートである。 本実施形態の変形例に係る情報処理装置における特定画像の挿入方向の反転制御を例示する図である。 本実施形態の変形例に係る情報処理装置における特定画像の挿入方向の反転制御を例示する図である。 本開示に係る情報処理装置のハードウェア構成を示した説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.従来の情報処理装置の課題
 2.第1の実施の形態(操作に対応する動作の割当て制御の例)
 3.第2の実施の形態(表示画像の表示態様制御の例)
 4.本開示の一実施形態に係る情報処理装置のハードウェア構成
 5.むすび
 <1.従来の情報処理装置の課題>
 まず、従来の頭部装着型の情報処理装置における課題について説明する。
 従来の頭部装着型の情報処理装置(以下、HMDとも称する。)は、画像表示機能および操作機能を備える。具体的には、従来のHMDは、画像表示機能として、別途備えられる表示面に画像を投影させたり、レンズを通して直接的に画像光をユーザの目に向かって射出し、虚像として画像をユーザに認識させたりする。また、従来のHMDは、操作機能として、ユーザ操作を受け付ける操作部を有する。このため、従来のHMDは、操作部に対して行われるユーザ操作によって選択される画像を表示させること等が可能である。
 ここで、従来のHMDは、既定の向きに装着されることを想定されて設計されることが一般的である。例えば、単眼用のHMDである場合、HMDは、ユーザの両眼のうちのいずれか一方に取り付けられることが想定されて設計される。そのため、HMDが既定と異なる向きに装着されると、操作部の位置が設計の際に想定されない位置となり、HMDの操作性が低下し得る。
 そこで、本開示では、取り付け向きによらず使い勝手を維持することが可能な人体の頭部に装着される情報処理装置を提案する。以下、当該情報処理装置について詳細に説明する。なお、説明の便宜上、第1、第2の実施形態による情報処理装置100等の各々を、情報処理装置100-1、および情報処理装置100-2のように、末尾に実施形態に対応する番号を付することにより区別する。
 <2.第1の実施の形態(操作に対応する動作の割当て制御の例)>
 以上、従来の情報処理装置の課題について説明した。次に、本開示の第1の実施形態に係る情報処理装置100-1について説明する。本実施形態では、情報処理装置100-1は、情報処理装置100-1の姿勢に基づいて、操作に対応して行われる動作の割当てを制御する。
  <2-1.装置の構成>
   (装置の物理構成)
 まず、図1および図2を参照して、情報処理装置100-1および眼鏡200の物理構成について説明する。図1は、本開示の第1の実施形態に係る情報処理装置100-1および眼鏡200の概略的な物理構成の例を示す上面図であり、図2は、本実施形態に係る情報処理装置100-1および眼鏡200の概略的な物理構成の例を示す斜視図である。
 情報処理装置100-1は、図1および図2に示したように、本体部102、アーム104、鏡筒106、接眼レンズ108、取付け部110および操作部112を備える。
 本体部102は、アーム104および眼鏡200と接続される。具体的には、本体部102の長辺方向の端部はアーム104と結合され、本体部102の側面の一側は取付け部110を介して眼鏡200と連結される。例えば、本体部102は、図1に示したように、眼鏡200のフレームに沿って取り付けられる。なお、本体部102には、図2に示したように操作部112が備えられ得る。
 また、本体部102は、情報処理装置100-1の動作を制御するための制御基板を内蔵する。具体的には、本体部102は、CPU(Central Processing Unit)またはRAM(Random Access Memory)等を有する制御基板を有し、信号線等を用いてアーム104を介して鏡筒106と接続される。
 また、本体部102は、情報処理装置100-1の姿勢を特定するためのセンサを内蔵する。具体的には、本体部102は、加速度センサを内蔵する。なお、本体部102は、加速度センサの代わりに、角速度センサもしくは地磁気センサまたはカメラセンサを備えてもよい。例えば、カメラセンサによって得られる画像から情報処理装置100-1の姿勢が推定され得る。また、本体部102は、センサの代わりに、外部装置から情報処理装置100-1の姿勢を特定可能な情報を受信する通信部を備えてもよい。
 アーム104は、本体部102と鏡筒106とを接続させ、鏡筒106を支える。具体的には、アーム104は、本体部102の端部および鏡筒106の端部とそれぞれ結合され、鏡筒106を固定する。また、アーム104は、本体部102から鏡筒106に提供される画像に係るデータを通信するための信号線を内蔵する。
 鏡筒106は、投射される画像光を接眼レンズに投射する。具体的には、鏡筒106は、投射部、導光部および反射部を有し、投射部は、画像光を導光部に向かって射出し、導光部は、入射される画像光を反射部に誘導し、反射部は、到達する画像光を接眼レンズに向けて反射させる。なお、投射される画像光に係る画像は、本体部102からアーム104を経由して提供される。
 接眼レンズ108は、画像を拡大させる。具体的には、接眼レンズは、鏡筒106から射出される画像光を屈折させ、画像光に係る画像を拡大する。
 取付け部110は、本体部102を眼鏡200に固定する。具体的には、取付け部110は、本体部102の側面の一側を眼鏡200のフレームに固定する。
 操作部112は、情報処理装置100-1に対するユーザ操作を受け付ける。具体的には、操作部112は、ユーザの操作を情報処理装置100-1への入力に変換する。例えば、操作部112は、図2に示したように、本体部102の側面に複数設けられ、水平方向および垂直方向に並べられ得る。なお、図2では、押しボタンのような操作部112A~Dが示されているが、操作部112はこれに限定されず、種々の形態であり得る。例えば、操作部112は、タッチパッド等の入力装置であってもよい。
   (装置の機能構成)
 続いて、図3を参照して、情報処理装置100-1の機能構成について説明する。図3は、本実施形態に係る情報処理装置100-1の概略的な機能構成の例を示すブロック図である。
 情報処理装置100-1は、図3に示したように、操作検出部120、姿勢情報取得部122、制御部124、記憶部126および投射部128を備える。
 操作検出部120は、情報処理装置100-1に対して行われるユーザ操作を検出する。具体的には、操作検出部120は、操作部112によって変換された入力を受け取り、受け取られる入力に基づいて、行われたユーザ操作を検出する。そして、操作検出部120は、検出したユーザ操作を示す情報(以下、ユーザ操作情報とも称する。)を生成し、生成されるユーザ操作情報を制御部124に提供する。
 姿勢情報取得部122は、情報処理装置100-1の姿勢に係る情報を取得する。具体的には、姿勢情報取得部122は、情報処理装置100-1の姿勢の反転に応じて変化する情報を取得する。例えば、姿勢情報取得部122は、加速度センサから情報処理装置100-1の加速度を示す情報(以下、加速度情報とも称する。)を取得する。なお、姿勢情報取得部122は、取得される加速度情報を制御部124に提供する。
 制御部124は、情報処理装置100-1の動作を全体的に制御する。具体的には、制御部124は、ユーザ操作に対応する動作の実行制御および画像の表示制御等を行う。例えば、制御部124は、操作検出部120によって検出されるユーザ操作に対応する動作を情報処理装置100-1の各構成要素に実行させる。また、制御部124は、当該ユーザ操作に基づいて、投射される画像を決定する。
 さらに、制御部124は、情報処理装置100-1の姿勢に基づいて、操作検出部120によって検出される操作に対応して行われる動作の決定(以下、動作決定処理とも称する。)を行う。具体的には、制御部124は、姿勢情報取得部122によって取得される情報処理装置100-1の姿勢の反転に応じて変化する情報に基づいて動作決定処理を行う。
 より具体的には、制御部124は、基準方向に対する、姿勢情報取得部122によって取得される加速度情報に含まれる重力加速度の向きに応じて動作決定処理を行う。さらに、図4Aおよび図4Bを参照して、動作決定処理について詳細に説明する。図4Aは、本実施形態に係る情報処理装置100-1が眼鏡200の左フレームに取り付けられる場合の例示する図であり、図4Bは、本実施形態に係る情報処理装置100-1が眼鏡200の右フレームに取り付けられる場合の例示する図である。
 まず、制御部124は、基準方向における重力加速度の値を検出する。例えば、基準方向は、図4Aに示したようなZ軸方向であり、制御部124は、Z軸方向の重力加速度の値を検出する。
 次に、制御部124は、検出される重力加速度の値の正負に応じて、検出されるユーザ操作の各々と動作の各々との対応関係を組み替える。具体的には、制御部124は、動作と対応付けられる操作に係る位置について、対応付けられる動作が上下左右に反転されるように、対応関係を組み替える。
 例えば、図4Aに示したように情報処理装置100-1が装着される場合、重力加速度の値として例えば9.8m/sが検出される。制御部124は、正の値の重力加速度が検出されると、例えば、操作部112A~112Dの各々に対して行われる操作検出部120によって検出されるユーザ操作(以下、操作部112A~112Dへのユーザ操作とも称する。)の各々に、記憶部126に記憶される所定の対応関係に従って、例えば動作1、動作2、動作3、および動作4をそれぞれ割当て得る。
 また、図4Bに示したように情報処理装置100-1が装着される場合、重力加速度として例えば-9.8m/sが検出される。制御部124は、負の値の重力加速度が検出されると、例えば、操作部112A~112Dへのユーザ操作の各々に、記憶部126に記憶される別の対応関係に従って、例えば動作3、動作4、動作1、および動作2をそれぞれ割当てる。
 図3を参照して情報処理装置100-1の構成の説明に戻ると、記憶部126は、制御部124の制御に係る情報を記憶する。具体的には、記憶部126は、操作と動作との対応関係を示す情報、および投射される画像を記憶する。
 投射部128は、画像光を投射する。具体的には、投射部128は、制御部124の指示に基づいて、記憶部126に記憶される画像に係る画像光を投射する。なお、投射される画像光に係る画像は、通信を介して外部の装置から取得されてもよく、制御部124によって加工されてもよい。
  <2-2.装置の処理>
 次に、図5を参照して、本実施形態に係る情報処理装置100-1の処理について説明する。図5は、本実施形態に係る情報処理装置100-1の処理を概念的に示すフローチャートである。
 まず、情報処理装置100-1は、重力加速度を検出する(ステップS302)。具体的には、姿勢情報取得部122は、加速度センサから加速度情報を取得し、制御部124は、取得される加速度情報と基準方向とに基づいて重力加速度の値を検出する。
 次に、情報処理装置100-1は、検出される重力加速度の向きが基準方向と同じ向きであるかを判定する(ステップS304)。具体的には、制御部124は、検出される重力加速度の値が所定の値、例えば9.8m/sまたは-9.8/msのいずれであるかを判定する。なお、制御部124は、検出される重力加速度の値の正負を判定してもよい。
 重力加速度の向きが基準方向と同じ向きであると判定される場合、情報処理装置100-1は、所定の対応関係に従って動作を割当てる(ステップS306)。具体的には、検出される重力加速度の値が例えば9.8m/sであると判定される場合、制御部124は、記憶部126に記憶される操作と動作との所定の対応関係に従って、操作に対する動作の割当てを行う。
 重力加速度の向きが基準方向と異なる向きであると判定される場合、情報処理装置100-1は、別の対応関係に従って動作を割当てる(ステップS308)。具体的には、検出される重力加速度の値が例えば-9.8m/sであると判定される場合、制御部124は、重力加速度の値が9.8m/sである場合と異なる、記憶部126に記憶される操作と動作との対応関係に従って、操作に対する動作の割当てを行う。
 このように、本開示の第1の実施形態によれば、情報処理装置100-1は、情報処理装置100-1に対して行われる操作を検出し、情報処理装置100-1の姿勢に基づいて、検出される操作に対応して行われる動作の決定を行う。このため、情報処理装置100-1の姿勢、すなわち取り付け向きに応じて、所望の動作結果を得るためにユーザが行うべき操作が適正化され得ることにより、ユーザが設定変更等の作業を行うことなく、取り付け向きによらず情報処理装置100-1の使い勝手を維持することが可能となる。
 また、情報処理装置100-1は、情報処理装置100-1の姿勢の反転に応じて変化する情報を取得し、取得される当該反転に応じて変化する情報に基づいて上記の動作の決定を行う。一般的に、物体の姿勢が反転されると物体の操作性が変わることが多いが、本実施形態によれば、情報処理装置100-1の姿勢の反転に応じて操作に対する動作の割当てが決定されるため、操作性の低下を抑制することが可能となる。
 また、上記の反転に応じて変化する情報は、重力加速度を示す情報を含み、情報処理装置100-1は、基準方向に対する重力加速度の向きに応じて上記の動作の決定を行う。このため、情報処理装置100-1の姿勢の反転検出に既存の設備、例えば加速度センサ等が用いられることにより、情報処理装置100-1のコスト増加および複雑化を抑制することが可能となる。
 また、情報処理装置100-1は、上記の動作の決定として、操作の各々と動作の各々との対応関係を組み替える。このため、操作に対応する動作が新たに追加されたり、削除されたりしないことにより、ユーザは当該対応関係の変化内容を容易に把握することができ、ユーザの利便性を維持することが可能となる。
 また、情報処理装置100-1は、動作と対応付けられる操作に係る位置について、対応付けられる動作が上下左右に反転されるように、上記の対応関係を組み替える。このため、情報処理装置100-1の取り付け向きの反転前後において、操作に対する動作の割当てがユーザの操作感覚と合致されることにより、操作性を維持向上させることが可能となる。
  <2-3.変形例>
 以上、本開示の第1の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
 本実施形態の変形例として、情報処理装置100-1は、画像の表示位置を調整可能な機構を有していてもよい。具体的には、鏡筒106とアーム104とは、可動性を持ちながら連結される。図6および図7を参照して、本変形例に係る情報処理装置100-1の構成について説明する。図6は、本実施形態の変形例に係る情報処理装置100-1および眼鏡200の概略的な物理構成を例示する上面図であり、図7は、本実施形態の変形例に係る情報処理装置100-1および眼鏡200の概略的な物理構成を例示する斜視図である。
 鏡筒106は、アーム104との連結位置における垂直方向および水平方向を軸に回転可能なようにアーム104と連結される。例えば、図7に示したように、鏡筒106は、鏡筒106とアーム104との連結位置における矢印の方向に所定の角度で回転可能にアーム104と連結される。例えば、鏡筒106は、基準位置から長辺方向を軸に-5度~5度程度、短辺方向を軸に-10度~10度程度で回転し得る。
 また、アーム104が回転することによって表示位置が調整されてもよい。具体的には、アーム104は、本体部104との連結位置における水平方向を軸に回転可能なように本体部102と連結される。例えば、アーム104は、図7に示したように、アーム104と本体部102との連結位置におけるアーム104の短辺方向を軸として矢印の方向に所定の角度で回転可能なように本体部102と連結される。
 このように、本実施形態の変形例によれば、鏡筒106およびアーム104、ならびにアーム104および本体部104は、可動性を持ちながら連結される。このため、各部の位置調整によって画像の表示位置が変更されることにより、個人差を吸収することが可能となる。また、鏡筒106およびアーム104の両方における位置調整によって細かな調整が可能となり、ユーザの利便性が向上され得る。
 <3.第2の実施の形態(表示画像の表示態様制御の例)>
 以上、本開示の第1の実施形態に係る情報処理装置100-1について説明した。次に、本開示の第2の実施形態に係る情報処理装置100-2について説明する。本実施形態では、情報処理装置100-2は、情報処理装置100-2の姿勢に応じて、アラート画像等の表示態様を反転させる。
  <3-1.装置の構成>
 まず、情報処理装置100-2の構成について説明する。なお、第1の実施形態の構成と実質的に同一である構成については説明を省略する。
    (装置の機能構成)
 制御部124は、情報処理装置100-2の姿勢に基づいて画像の表示反転制御を行う。具体的には、制御部124は、情報処理装置100-2の姿勢が反転されると、表示画面が上下反転されるように表示制御を行う。例えば、制御部124は、姿勢情報取得部122によって取得される加速度情報から検出される重力加速度の向きが変化した際に、上下反転された画像に係る画像光を投射部128に投射させる。
 また、制御部124は、表示制御部として、情報処理装置100-2の姿勢に基づいて、表示優先度が他の画像よりも高い特定画像の表示態様を、特定画像が表示される表示画面において垂直方向を軸に反転させる。具体的には、制御部124は、特定画像の表示位置を、表示画面の垂直方向を軸に反転する。さらに、図8Aおよび図8Bを参照して、当該表示制御処理について詳細に説明する。図8Aおよび図8Bは、本実施形態に係る情報処理装置100-2における特定画像の表示位置の反転制御を例示する図である。
 まず、制御部124は、特定画像の表示指示を行う。具体的には、制御部124は、表示画面における他の位置よりも情報処理装置100-2を装着するユーザの視界の中心に近い位置に特定画像を表示させる。例えば、制御部124は、特定画像、例えば図8Aに示したようなユーザに注意を促すための画像20(以下、アラート画像とも称する。)を表示画面10に表示させる。例えば、アラート画像20は、情報処理装置100-2がユーザの頭部に装着された状態において、ユーザの鼻に隣接する位置に表示される。
 そして、制御部124は、情報処理装置100-2の姿勢が反転されると、特定画像の表示位置を、表示画面の垂直方向を軸に反転させる。例えば、制御部124は、加速度情報に基づいて重力加速度の向きが変化したかを判定し、重力加速度の向きが変化したと判定される場合、図8Bに示したように、アラート画像20の表示位置を表示画面10の中央における垂直方向を軸に反転させる。
 なお、制御部124は、重力加速度の値に対応する位置にアラート画像20を表示させてもよい。例えば、制御部124は、重力加速度の値が9.8m/sである場合、図8Aに示したようなユーザの視界の中心に隣接する位置にアラート画像20を表示させる。また、重力加速度の正負に対応する位置にアラート画像20が表示されてもよい。
  <3-2.装置の処理>
 次に、図9を参照して、本実施形態に係る情報処理装置100-2の処理について説明する。図9は、本実施形態に係る情報処理装置100-2の処理を概念的に示すフローチャートである。なお、第1の実施形態における処理と実質的に同一である処理については説明を省略する。
 まず、情報処理装置100-2は、重力加速度を検出し(ステップS402)、検出される重力加速度の向きが変化したかを判定する(ステップS404)。具体的には、制御部124は、検出される重力加速度の値の正負が変化したかを判定する。
 重力加速度の向きが変化したと判定される場合、情報処理装置100-2は、特定画像の表示態様を反転させる(ステップS406)。具体的には、検出される重力加速度の値の正負が変化したと判定される場合、制御部124は、アラート画像の表示位置を、表示画面の中央において垂直方向を軸に反転させる。
 このように、本開示の第2の実施形態によれば、情報処理装置100-2は、情報処理装置100-2の姿勢の反転に基づいて、表示優先度が他の画像よりも高い特定画像の表示態様を、特定画像が表示される表示画面において垂直方向を軸に反転する。このため、ユーザにとって重要な画像の表示態様が情報処理装置100-2の姿勢の変化に対応して適正化され得ることにより、ユーザが設定変更等の作業を行うことなく、ユーザの利便性を維持向上させることが可能となる。
 また、情報処理装置100-2は、特定画像の表示位置を、表示画面の中央における垂直方向を軸に反転する。このため、情報処理装置100-2の姿勢の反転前後においてユーザの視界の中心から特定画像の表示位置までの距離の長さが変化しないことにより、情報処理装置100-2の取り付け向きの変更によるユーザの表示画像に対する違和感の発生を抑制することが可能となる。
 また、上記の特定画像の表示位置は、表示画面における他の位置よりも情報処理装置100-2を装着するユーザの視界の中心に近い位置を含む。このため、ユーザの目につきやすい位置への特定画像の表示が維持されることにより、ユーザの特定画像の見落としを抑制することが可能となる。
 また、上記の特定画像は、ユーザに注意を促すための画像を含む。このため、情報処理装置100-2の取り付け向きが変化した場合であっても、ユーザの注意力が低下することを抑制することが可能となる。
  <3-3.変形例>
 以上、本開示の第2の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
 本実施形態の変形例として、情報処理装置100-2は、情報処理装置100-2の姿勢に応じて、表示画面への特定画像の挿入方向を変更してもよい。具体的には、情報処理装置100-2の姿勢が反転されると、制御部124は、表示画面への特定画像の挿入方向を、表示画面の垂直方向を軸に反転する。さらに、図10を参照して、本変形例の処理について詳細に説明する。図10Aおよび図10Bは、本実施形態の変形例に係る情報処理装置100-2における特定画像の挿入方向の反転制御を例示する図である。
 まず、制御部124は、特定画像の表示画面への挿入表示を指示する。具体的には、制御部124は、情報処理装置100-2を装着するユーザの視界の外から内に向かう方向に特定画像を挿入させる。例えば、制御部124は、特定画像、例えば図10Aに示したようなアラート画像20が表示画面10の左側から右側へ、すなわちユーザの視界の外側から中心に向かって移動するように表示させる。
 そして、制御部124は、情報処理装置100-2の姿勢が反転されると、特定画像の表示位置を、表示画面の垂直方向を軸に反転させる。例えば、制御部124は、加速度情報に基づいて重力加速度の向きが変化したかを判定し、重力加速度の向きが変化したと判定される場合、図10Bに示したように、アラート画像20の挿入方向を表示画面10における垂直方向を軸に反転させる。
 なお、制御部124は、特定画像の表示位置の制御と同様に、重力加速度の値に対応する方向からアラート画像20を挿入させてもよく、重力加速度の正負に対応する方向からアラート画像20が挿入されてもよい。
 このように、本実施形態の変形例によれば、情報処理装置100-2は、表示画面への特定画像の挿入方向を、表示画面の中央における垂直方向を軸に反転する。このため、情報処理装置100-2の取り付け向きが変更されても、ユーザにとって特定画像の挿入方向が変化していないような印象を与えることにより、ユーザの違和感の発生を抑制することが可能となる。
 また、上記の特定画像の挿入方向は、情報処理装置100-2を装着するユーザの視界の外から内に向かう方向を含む。このため、情報が頭の中に入ってくる感覚をユーザに与えることにより、ユーザが違和感なく特定画像の示す情報を読み取ることが可能となる。
 <4.本開示の一実施形態に係る情報処理装置のハードウェア構成>
 以上、本開示の各実施形態に係る情報処理装置100について説明した。上述した情報処理装置100の処理は、ソフトウェアと、以下に説明する情報処理装置100のハードウェアとの協働により実現される。
 図11は、本開示に係る情報処理装置100のハードウェア構成を示した説明図である。図11に示したように、情報処理装置100は、CPU(Central Processing Unit)132と、ROM(Read Only Memory)134と、RAM(Random Access Memory)136と、ブリッジ138と、バス140と、インターフェース142と、入力装置144と、出力装置146と、ストレージ装置148と、接続ポート150と、通信装置152とを備える。
 CPU132は、演算処理装置および制御装置として機能し、各種プログラムと協働して情報処理装置100内の操作検出部120および制御部124の動作を実現する。また、CPU132は、マイクロプロセッサであってもよい。ROM134は、CPU132が使用するプログラムまたは演算パラメータ等を記憶する。RAM136は、CPU132の実行にいて使用するプログラムまたは実行において適宜変化するパラメータ等を一時記憶する。ROM134およびRAM136により、情報処理装置100内の記憶部126の一部を実現する。CPU132、ROM134およびRAM136は、CPUバスなどから構成される内部バスにより相互に接続されている。
 入力装置144は、情報処理装置100の操作部112の一例として、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段、およびユーザによる入力に基づいて入力信号を生成し、CPU132に出力する入力制御回路などから構成されている。情報処理装置100のユーザは、入力装置144を操作することにより、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置146は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの装置への出力を行う。さらに、出力装置146は、スピーカおよびヘッドフォンなどの音声出力を行ってもよい。
 ストレージ装置148は、データ格納用の装置である。ストレージ装置148は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されるデータを削除する削除装置等を含んでもよい。ストレージ装置148は、CPU132が実行するプログラムや各種データを格納する。
 接続ポート150は、例えば、情報処理装置100の外部の装置または周辺機器と接続するためのバスである。また、接続ポート150は、USB(Universal Serial Bus)であってもよい。
 通信装置152は、例えば、ネットワークに接続するための通信デバイスで構成される通信インターフェースである。また、通信装置152は、無線LAN(Local Area Network)対応通信装置であってもよく、LTE(Long Term Evolution)対応通信装置であってもよい。
 <5.むすび>
 以上、本開示の第1の実施形態によれば、情報処理装置100-1の姿勢、すなわち取り付け向きに応じて、所望の動作結果を得るためにユーザが行うべき操作が適正化され得ることにより、ユーザが設定変更等の作業を行うことなく、取り付け向きによらず情報処理装置100-1の使い勝手を維持することが可能となる。また、本開示の第2の実施形態によれば、ユーザにとって重要な画像の表示態様が情報処理装置100-2の姿勢の変化に対応して適正化され得ることにより、ユーザが設定変更等の作業を行うことなく、ユーザの利便性を維持向上させることが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、加速度センサが本体部102に設けられる例を説明したが、本技術はかかる例に限定されない。具体的には、アーム104が回転可能に設けられる場合、加速度センサは鏡筒106に設けられてもよい。例えば、アーム104が180度程度回転可能である場合、情報処理装置100の全体を反転させることなく、ユーザの装着位置が変更され得る。この場合、加速度センサが鏡筒106に設けられることにより、情報処理装置100の装着位置が変化したことを検出することが可能となる。
 また、上記実施形態では、表示方式はユーザの目に向かって投射する方式である例を説明したが、具体的には、画像光の射出幅が瞳孔径よりも小さい瞳分割シースルー方式、プリズム方式、ホログラム方式またはその他表示方式であり得る。また、表示方式は、情報処理装置100が別途備える表示面に対する画像光の投影等の他の方式であってもよい。
 また、上記実施形態では、情報処理装置100が単眼用のHMDである例を説明したが、情報処理装置100は両眼用の装置であってもよい。
 また、上記実施形態では、取付け部110と接続される本体部102の側面と反対の側面に操作部112が設けられる例を説明したが、操作部112は本体部102の上面もしくは下面またはその両方に設けられてもよい。例えば、操作部112は、タッチセンサを有する入力装置であり得て、本体部102の上面および下面の各々に設けられ得る。そして、制御部124は、情報処理装置100の姿勢に応じて、上面および下面の操作部112への操作の各々に割当てられる動作の決定、すなわち動作の組み替えを行い得る。
 また、複数の操作部112を用いた操作に動作が割当てられてもよい。例えば、上面および下面に設けられるタッチバッドのような操作部112の各々について同じタイミングで行われる操作体のスライドといった操作に対して、画面表示を戻す動作が割り当てられる。この場合、操作部112の組合せによって操作が行われることにより、操作パターン、すなわち動作パターンを増やすことが可能となる。
 また、上記の第2の実施形態では、制御部124は操作に対する動作の対応関係を組み替える例を説明したが、制御部124は、既存の対応関係から割当て済みの動作を削除し、新たな動作を追加することによって、追加される動作を操作に割当ててもよい。
 また、上記の第1の実施形態では、制御部124は、重力加速度の値に応じて操作および動作の対応関係の制御を行う例を説明したが、制御部124は、上記の第2の実施形態と同様に、重力加速度の向きの変化に応じて当該対応関係を変更してもよい。
 また、上記の第2の実施形態では、表示態様が制御される特定画像はアラート画像20である例を説明したが、特定画像は、ユーザに有益な情報を提示する画像であってもよい。具体的には、特定画像は、スポーツにおけるユーザの動きの誘導画像、ユーザの状態もしくは成績等を示す画像または外部環境を示す画像等であってもよい。例えば、特定画像は、ゴルフにおけるスイングの誘導画像、スコア画像、グリーンの状態を示す画像、または温度、湿度および風向きを示す画像等であり得る。
 また、上記の第2の実施形態では、挿入方向が視界の外から中心である例を説明したが、挿入方向は表示される画像の種類または属性に応じて決定されてもよい。例えば、文字列に分類される画像は、常に右側から挿入されてもよく、さらに文字列に分類される画像のうちの文字がアラビア語である画像は、常に左側から挿入されてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)情報処理装置であって、前記情報処理装置に対して行われる操作を検出する操作検出部と、前記情報処理装置の姿勢に基づいて、前記操作検出部によって検出される操作に対応して行われる動作の決定を行う制御部と、を備える、人体の頭部に装着される情報処理装置。
(2)前記操作および前記動作は複数存在し、前記制御部は、前記決定として、前記操作の各々と前記動作の各々との対応関係を組み替える、前記(1)に記載の情報処理装置。
(3)前記制御部は、前記動作と対応付けられる前記操作に係る位置について、対応付けられる前記動作が上下左右に反転されるように、前記対応関係を組み替える、前記(2)に記載の情報処理装置。
(4)前記情報処理装置の姿勢の反転に応じて変化する情報を取得する取得部をさらに備え、前記制御部は、前記取得部によって取得される前記反転に応じて変化する情報に基づいて前記決定を行う、前記(1)~(3)のいずれか1項に記載の情報処理装置。
(5)前記反転に応じて変化する情報は、重力加速度を示す重力情報を含み、前記制御部は、基準方向に対する前記重力情報の示す重力加速度の向きに応じて前記決定を行う、前記(4)に記載の情報処理装置。
(6)前記情報処理装置の姿勢の反転に基づいて、表示優先度が他の画像よりも高い特定画像の表示態様を、前記特定画像が表示される表示画面において垂直方向を軸に反転する表示制御部をさらに備える、前記(1)~(5)のいずれか1項に記載の情報処理装置。
(7)前記表示制御部は、前記特定画像の表示位置を、前記表示画面の中央における垂直方向を軸に反転する、前記(6)に記載の情報処理装置。
(8)前記表示位置は、前記表示画面における他の位置よりも前記情報処理装置を装着するユーザの視界の中心に近い位置を含む、前記(7)に記載の情報処理装置。
(9)前記表示制御部は、前記表示画面への前記特定画像の挿入方向を、前記表示画面の中央における垂直方向を軸に反転する、前記(6)~(8)のいずれか1項に記載の情報処理装置。
(10)前記挿入方向は、前記情報処理装置を装着するユーザの視界の外から内に向かう方向を含む、前記(9)に記載の情報処理装置。
(11)前記特定画像は、ユーザに注意を促すための画像を含む、前記(6)~(10)のいずれか1項に記載の情報処理装置。
 100  情報処理装置
 102  本体部
 104  アーム
 106  鏡筒
 108  接眼レンズ
 110  取付け部
 112  操作部
 120  操作検出部
 122  姿勢情報取得部
 124  制御部
 126  記憶部
 128  投射部
 

Claims (11)

  1.  情報処理装置であって、
     前記情報処理装置に対して行われる操作を検出する操作検出部と、
     前記情報処理装置の姿勢に基づいて、前記操作検出部によって検出される操作に対応して行われる動作の決定を行う制御部と、
     を備える、人体の頭部に装着される情報処理装置。
  2.  前記操作および前記動作は複数存在し、
     前記制御部は、前記決定として、前記操作の各々と前記動作の各々との対応関係を組み替える、請求項1に記載の情報処理装置。
  3.  前記制御部は、前記動作と対応付けられる前記操作に係る位置について、対応付けられる前記動作が上下左右に反転されるように、前記対応関係を組み替える、請求項2に記載の情報処理装置。
  4.  前記情報処理装置の姿勢の反転に応じて変化する情報を取得する取得部をさらに備え、
     前記制御部は、前記取得部によって取得される前記反転に応じて変化する情報に基づいて前記決定を行う、請求項1に記載の情報処理装置。
  5.  前記反転に応じて変化する情報は、重力加速度を示す重力情報を含み、
     前記制御部は、基準方向に対する前記重力情報の示す重力加速度の向きに応じて前記決定を行う、請求項4に記載の情報処理装置。
  6.  前記情報処理装置の姿勢の反転に基づいて、表示優先度が他の画像よりも高い特定画像の表示態様を、前記特定画像が表示される表示画面において垂直方向を軸に反転する表示制御部をさらに備える、請求項1に記載の情報処理装置。
  7.  前記表示制御部は、前記特定画像の表示位置を、前記表示画面の中央における垂直方向を軸に反転する、請求項6に記載の情報処理装置。
  8.  前記表示位置は、前記表示画面における他の位置よりも前記情報処理装置を装着するユーザの視界の中心に近い位置を含む、請求項7に記載の情報処理装置。
  9.  前記表示制御部は、前記表示画面への前記特定画像の挿入方向を、前記表示画面の中央における垂直方向を軸に反転する、請求項6に記載の情報処理装置。
  10.  前記挿入方向は、前記情報処理装置を装着するユーザの視界の外から内に向かう方向を含む、請求項9に記載の情報処理装置。
  11.  前記特定画像は、ユーザに注意を促すための画像を含む、請求項6に記載の情報処理装置。
PCT/JP2015/079668 2014-12-25 2015-10-21 情報処理装置 WO2016103880A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/535,130 US10380779B2 (en) 2014-12-25 2015-10-21 Wearable information processing device
CN201580068772.1A CN107005668B (zh) 2014-12-25 2015-10-21 信息处理装置
JP2016565987A JP6635048B2 (ja) 2014-12-25 2015-10-21 情報処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014262137 2014-12-25
JP2014-262137 2014-12-25

Publications (1)

Publication Number Publication Date
WO2016103880A1 true WO2016103880A1 (ja) 2016-06-30

Family

ID=56149917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/079668 WO2016103880A1 (ja) 2014-12-25 2015-10-21 情報処理装置

Country Status (4)

Country Link
US (1) US10380779B2 (ja)
JP (1) JP6635048B2 (ja)
CN (1) CN107005668B (ja)
WO (1) WO2016103880A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020034997A (ja) * 2018-08-27 2020-03-05 Dynabook株式会社 電子機器、ウェアラブル機器および設定方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049762A (ja) * 2015-09-01 2017-03-09 株式会社東芝 システム及び方法
CN110660205B (zh) * 2019-08-30 2021-11-16 视联动力信息技术股份有限公司 报警信息处理方法、装置、电子设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004233776A (ja) * 2003-01-31 2004-08-19 Nikon Corp ヘッドマウントディスプレイ
WO2009087992A1 (ja) * 2008-01-07 2009-07-16 Ntt Docomo, Inc. 情報処理装置及びプログラム
JP2014127089A (ja) * 2012-12-27 2014-07-07 Canon Inc 電子機器及びその制御方法
JP2014146871A (ja) * 2013-01-28 2014-08-14 Olympus Corp ウェアラブル型表示装置及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004061519A1 (ja) 2002-12-24 2004-07-22 Nikon Corporation ヘッドマウントディスプレイ
KR101196275B1 (ko) * 2003-12-26 2012-11-06 가부시키가이샤 니콘 니어 아이 디스플레이 장치, 헤드폰, 및 이들을 구비한시스템
WO2008013111A1 (fr) * 2006-07-25 2008-01-31 Nikon Corporation dispositif de sortie
WO2012172719A1 (ja) * 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
JP2013236214A (ja) * 2012-05-08 2013-11-21 Nikon Corp 頭部装着型情報提示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004233776A (ja) * 2003-01-31 2004-08-19 Nikon Corp ヘッドマウントディスプレイ
WO2009087992A1 (ja) * 2008-01-07 2009-07-16 Ntt Docomo, Inc. 情報処理装置及びプログラム
JP2014127089A (ja) * 2012-12-27 2014-07-07 Canon Inc 電子機器及びその制御方法
JP2014146871A (ja) * 2013-01-28 2014-08-14 Olympus Corp ウェアラブル型表示装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020034997A (ja) * 2018-08-27 2020-03-05 Dynabook株式会社 電子機器、ウェアラブル機器および設定方法

Also Published As

Publication number Publication date
JP6635048B2 (ja) 2020-01-22
CN107005668A (zh) 2017-08-01
CN107005668B (zh) 2020-09-22
US20180025519A1 (en) 2018-01-25
JPWO2016103880A1 (ja) 2017-10-05
US10380779B2 (en) 2019-08-13

Similar Documents

Publication Publication Date Title
US10983593B2 (en) Wearable glasses and method of displaying image via the wearable glasses
WO2015125373A1 (ja) 電子機器、および電源制御方法
US9921646B2 (en) Head-mounted display device and method of controlling head-mounted display device
KR101650919B1 (ko) 헤드 마운트 디스플레이 장치
JP6277673B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20190079590A1 (en) Head mounted display device and control method for head mounted display device
US20160165220A1 (en) Display apparatus and method of controlling display apparatus
KR102208195B1 (ko) 머리 착용형 디스플레이 장치에서 디스플레이 화면을 제어하는 방법, 및 머리 착용형 디스플레이 장치
JP6292478B2 (ja) 透過型hmdを有する情報表示システム及び表示制御プログラム
TWI671552B (zh) 穿戴式眼鏡、顯示影像方法以及非暫時性電腦可讀取儲存媒體
JP2015125502A (ja) 画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2018148257A (ja) 頭部装着型表示装置およびその制御方法
US11327317B2 (en) Information processing apparatus and information processing method
WO2016103880A1 (ja) 情報処理装置
CN108427194A (zh) 一种基于增强现实的显示方法及设备
JP6015223B2 (ja) 電子機器、及び表示装置
US11475866B2 (en) Head-mounted display apparatus, input method switching method, and input method switching program
JP6638325B2 (ja) 表示装置、及び、表示装置の制御方法
KR20180055637A (ko) 전자 장치 및 그의 제어 방법
US20180260068A1 (en) Input device, input control method, and computer program
JP6669183B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2016139976A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN107656655A (zh) 基于手指动作捕捉控制的向双眼直接投影式小型影音设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15872449

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016565987

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15535130

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15872449

Country of ref document: EP

Kind code of ref document: A1